Sunday, June 16, 2024

// // Leave a Comment

Kant and Schopenhauer already defined many of the modern concepts in AGI which are still not well understood or are rediscovered by the modern English-speaking world AI and mind researchers etc.

Comments by Todor to johntcm in his AI group in Discord ~ 17:xx h in room #memory, 16.6.2024 group: https://discord.com/channels/1095629355432034344/1133760747437051964/1251904578677637171
See also: https://artificial-mind.blogspot.com/2014/08/the-super-science-of-philosophy-and.html 
https://artificial-mind.blogspot.com/2013/08/issues-on-agiri-agi-email-list-and-agi.html

(The multi-inter-intra-disciplinary blindness and the actual obviousness of "everything" creative and cognitive, but the lack of proper understanding, knowledge and access to the structure.)

Nobody asked me, but I am not so impressed with these quotes and explanations at this level of generality (including the previous book, the ones which I checked from the "Why We Remember:Unlocking Memory's Power to Hold on to What Matters",  Charan Ranganath2024)
[The quotes from the other book were from some of https://en.wikipedia.org/wiki/Nicholas_Humphrey I am not sure which exact one, about 30 years ago]


IMO we must be way more technical and the required technicality can't be expressed in that kind of NL; a proper language of thought and code, and referred data, are required.


As of being imaginative, IMO Kant and Schopenhauer were, and quite more insightful than many current "stars", they were 200 years earlier. 30 years ago is not that much time either (or 0 years, current texts), there were pretty advanced computers already, hot discussions on connectionism even since late 1960s/early 1970s, and very hot in mid-late 1980s, there were also "hidden Markov models" (and "hidden variables").


Kant and Schopenhauer in particular explained a lot of material that, it seems, many of current AGI/AI experts still can't really understand or rediscover it and reexpress it as fresh with a gazillion of flops and bytes and with all data and knowledge manually collected, classified and preprocessed already, again and again rediscovering trivial wheels. Everything should be already obvious for the blind, we can "touch" every pixel, every possible transform, every formula, everything.


Kahneman's "System 1 and System 2" are, as far as I understand them, well known and investigated concepts from the German philosophy at least from 200-250 years ago, apodictic/intuitive and discursive knowledge.


"Symbol grounding", the basics of "predictive processing", Understanding [it's a concept, a faculty of mind] as physical simulation of the sensory input/world modeling, intelligence inferring the causes from the effect, is explained by Schopenhauer even in his PhD dissertation in 1813. The cognitive hierarchy or "latent spaces", the weighing of motives and their relation to the Will is explained again at least by Schopenhauer in his subsequent major work "World as Will and Idea", starting in 1818 and later parts and editions, which is translated also as "World as Will and Representation" etc. 


It is actually Kant in late 1700s and continued by Schopenhauer, not Alan Turing who first defined the abstract computers: theirs, mainly Kant's, refined by Schopenhauer, definition is the centrality of the a priori conceptions for any thought process (or "computation"): time, space and causality, and the medium "matter". Time, space, causality and matter is the minimum definition of a computer, where:



Space is the memory, time is the process of change, the reading of the next step/instruction/address; causality is the rules, the specific instructions per every possible current state - how current state is transformed to the following; and matter is the substrate which can hold the states, it is the "type", the set of possible values within the memory cells within the space, the capability to have properties and their possible values. The matter is "eternal" within the running simulation or computer, only the "forms" (the current content, the "accidents") change by the laws of the causality (the "principle of sufficient reason") which in computers is the chain of executed instructions, or if it is represented as a state automata - the changes of their states etc. A 2014 article about that etc.: https://artificial-mind.blogspot.com/2014/08/the-super-science-of-philosophy-and.html


Re reward vs goal, I've participated once in such a discussion here: essentially it's the same, it matches to "match" also to any kind of "optimization" (variation calculus). Defined as a path of reward or as a goal and subgoals, it can do the same, each of them can be defined as the other, finding subgoals can be a reward, maximizing prediction can be a reward in the cognitive space. 


Some define RL as getting the reward "only at the end of the episode", but even then the episode could be reduced to the shortest step, and be on each step. There could be and there are different "rewards" in different domains, modalities, resolutions, "abstract spaces" (yes, they are multiple: multimodal and there could be branches within the modalities) and they could interact in a multi-agent way. Reaching the goal can be counted as "reward", or achieving "highest reward" for a selected span of steps, time, whatever can be counted as a "goal". All of them is about prediction and minimizing "prediction error", i.e. "will", or matching: matching some target, which can be expressed as "reducing the error" or "maximizing the match".


Also there are at least two layers and types of rewards/goals/prediction in mind, one is sensual, the other one is cognitive, that was discussed here (also taught during the AGI course in 2010,2011), and it seems it was also defined in Schopenhauer's AGI theory, it's even in the title. The Will (see his concept) maps to the sensual reward, which is about matching the desired state, being near it, reducing the error to the *desired* representation. While the Idea (representation) is the Cognitive "Reward" or "Goal" which are the same as conception, and it is about maximizing *prediction*, or prediction *progress*, maximizing the *knowledge*, "epistemic reward", which may be *against* and contradicting to the sensual, survival, preservation reward/goal. The lower the speceis/the individual in the cognitive ladder, the more his cognitive part, his Idea, representations, or Reason in humans are ruling his behavior, and more he is a slave of the sensual goals or rewards, which are the same as in the animals.


John: "Multiple abstraction spaces to process image - position, movement, shape, colour etc.I believe our brains process images via multiple abstraction spaces, not just with one transformer like what we see right now."

 

Yes, the concepts per se are "abstraction spaces" by definition, concepts/generalization is inducing the spaces for different features and classes. Also different resolutions, different maps to different views/aspects, selections of "items" within the spaces.

Read More

Tuesday, June 4, 2024

// // Leave a Comment

България влиза в Eврозоната - Властелинът на пръстените на България II [Дийпфейк филм] | Bulgaria Enters the Eurozone - Deepfake Film

 



Реалистично фентъзи, вдъхновено от Властелинът на пръстените - по пътя към Хилядолетния рай на светлото бъдеще. Сатира, комедия, фентъзи, анимация. Произведен с "Arnoldifier", системата за дийпфейк кино, Twenkid FX Studio (кадрите от "Звездна симфония в Чепеларе") - създадени в Пловдив от Тош/ "Свещеният сметач". Използва кадри от "Властелинът на пръстените III", реж. Питър Джаксън. OpenDalle11 за заглавната картина. DaVinci Resolve (краен монтаж). С участието на модели на Мария Габриел и Григор Сарийски Гледайте филма: https://youtu.be/KXC68MbczMg #българия #еврозона #политика Гледайте и първата част: "Амбългъл: Властелинът на пръстените на България I" (дийпфейк). Сценарий, звук, монтаж, актьор в ролите, програмист: Тош Дийпфейк система: Тош. 




https://github.com/Twenkid/DeepFaceLab-SAEHDBW
http://github.com/twenkid
http://eim.twenkid.com
http://artificial-mind.blogspot.com



Read More

Monday, May 20, 2024

// // Leave a Comment

България влиза в Eврозоната - трейлър на Властелинът на пръстените на България II [Дийпфейк филм] | Bulgaria Enters the Eurozone - Deepfake Film Trailer

 





Гледайте трейлър на новия дийпфейк филм, създаден с "Арнолдифайър", библиотеката на  "Свещеният сметач" за черно-бял дийпфейк, модификация на DFL 2.0.

Марио води едно българче към Еврозоната през Шенгенската пустиня. Григор се опитва да го защити. Къде е Еврозоната и какво ще му се случи?

Филмът в пълната си версия е около 4:20 мин, с кадри от оригиналния "Властелинът на Пръстените", режисьор Питър Джексън, с двама създадени с ИИ герои, оригинален сценарий и озвучаване с нова актьорска игра.

Модели: по Мария Габриел и доц. Григор Сарийски, защитникът на българския лев.

Гледайте трейлъра: https://www.youtube.com/watch?v=xmsVBVaQPX0

Arnoldifier:  https://github.com/Twenkid/DeepFaceLab-SAEHDBW 



Read More

Sunday, May 5, 2024

// // Leave a Comment

Разговор с глас с BgGPT за политика и скандали чрез Whisper и AutoClap

Политика и скандали. Как да стана милионер в България? Питаме BGGPT с ГЛАСОВ интерфейс чрез Свещеният сметач и прототипа на "Вседържец", в който през март внедрих разпознаване на реч и на български език чрез Whisper, и го свързах с управление на големи езикови модели като BgGPT и др., изпълнявани локално на личния сметач. Системата управлява също синтезатора на реч "Тошко 2" и ще бъде управлявана и от "Smarty 2" (нова версия на "най-умния речник") и непубликувания ми ускорител на изследователската дейност с много имена: Assistant, "Research Assistant", ACS.

На 29.3 като част от изпитанията на BgGPT и разработката на Вседържец, разговарях с компютърния оракул "BGGPT' за политика, скандали около водещите политически партии и политици като Бойко Борисов, Кирил Петков, Асен Василев, партиите им ГЕРБ, Продължаваме промяната, БСП, както и опозиционните. Питаме и как да станем милионери в България - политиката добър начин ли е? Следва продължение.  Запис от 29.3.2024 с прототип от инфраструктурата за мислещи машини "Вседържец" (Вси, Специалист по всичко) на Тош.

Гледайте цялата поредица на "Свещеният сметач" за BGGPT, LLama-3, GPT-4, GPT2 и обучението му на български през 2021 г., LMSYS chat arena и др. големи езикови модели (LLM) в канала и от източниците на Сметача. Може да ви допаднат Дийпфейк поредиците "Арнолд: губернаторът на България" и "Амбългъл: Властелинът на пръстените на България" (предстои втори епизод). Подкрепете автора на ОРИГИНАЛНАТА стратегия за развитие на България и света с ИИ от 2003 г., която INSAIT преоткриват и копират със стотици пъти раздут бюджет и с 20 години закъснение.

Повече по темата в другите клипове: оригиналната стратегия, публикувана през 2003 г. в оригиналния ѝ вариант: https://www.oocities.org/todprog/ese/proekt.htm

За мислещата машина Вседържец: https://github.com/Twenkid/Vsy-Jack-Of-All-Trades-AGI-Bulgarian-Internet-Archive-And-Search-Engine

Гледайте тук:  https://youtu.be/4X9I15qmpdo и не забравяйте да се абонирате, коментирате и споделяте, ако ви е интересно и желаете да подкрепите "Свещеният сметач": оригиналното дружество и проект за развитие чрез Изкуствен интелект, за разлика от богатите копия 20 години по-късно. Помогнете на Сметача с гласност, хардуер, изчислителна мощ или с включването си в изследванията и разработката!



...


Read More

Tuesday, April 30, 2024

// // Leave a Comment

Llama-3 8B in Kaggle or Google Colab

 


https://youtu.be/wCx2XwsgjQM

How to run the new llama-3-Instruct at full 16-bit precision, the Meta's Best model free on Tesla T4x2 in Kaggle (fix one detail) Support "The Sacred Computer" Research Institute in AGI, Creativity and Human Development, creator of the world's first university course in Artificial General Intelligence (2010).
Read More

Sunday, April 28, 2024

// // Leave a Comment

Doomenstein-3D Raycasting programming: FPS game engine from scratch

A game programming exercise in C, SDL2. Fixing building errors from an example, WSL2 Linux rendering compatibility fixes, adding most basic pixel-by-pixel texture mapping (TBC). Runs on Windows (WSL) and Linux. Originally by jdh.

https://youtu.be/iTsI-PIBJdo
https://github.com/Twenkid/doomenstein-3d-now-building 
Read More

Thursday, April 18, 2024

// // Leave a Comment

Free GPT4, Claude, LLAMA 3, LLAMA 2, Code LLAMA, Command-R ... and all new big models with LMSYS Chatbot Arena

 


A video reviewing lmsys chatbot arena (voice in Bulgarian) and analyzing the results from various models: why smaller models sometimes are comparable or better with the big ones?

https://youtu.be/goJoxzTda-M

LMSys Chatbot Arena: страхотна находка за безплатно ползване на най-големите езикови модели, които иначе са платени.

LMSys Chatbot Arena: a great find for free to use the biggest language models that are otherwise paid. A variety of very big and smaller ones to try out with real job and compare the results.

E.g.  (Source: https://chat.lmsys.org/ -  many o f the models come in various versions such as Claude, GPT4-Turbo,  LLAMA-3 Command-R and Command-R-Plus, Reka-Flash ... The ranking page lists 82 at the moment and they are probably updated on the fly.

Edit 20.4.2024: the latest LLAMA 3 70B has just appeared:



https://chat.lmsys.org/?leaderboard

Claude: Claude by AnthropicMixtral of experts: A Mixture-of-Experts model by Mistral AIReka Flash: Multimodal model by Reka
Command-R-Plus: Command-R Plus by CohereCommand-R: Command-R by CohereZephyr 141B-A35B: ORPO fine-tuned of Mixtral-8x22B-v0.1
Gemma: Gemma by GoogleQwen 1.5: A large language model by Alibaba CloudDBRX Instruct: DBRX by Databricks Mosaic AI
Starling-LM-7B: An open model trained using RLAIF by BerkeleyGemini: Gemini by GoogleGPT-4-Turbo: GPT-4-Turbo by OpenAI
GPT-3.5: GPT-3.5-Turbo by OpenAILlama 2: Open foundation and fine-tuned chat models by MetaOLMo-7B: OLMo by Allen AI
Vicuna: A chat assistant fine-tuned on user-shared conversations by LMSYSYi-Chat: A large language model by 01 AICode Llama: Open foundation models for code by Meta
DeepSeek LLM: An advanced language model by DeepSeekOpenHermes-2.5-Mistral-7B: A mistral-based model fine-tuned on 1M GPT-4 outputs


0:00 Introduction: Why is INSAIT's BGGPT really comparable in quality to Bulgarian GPT4 for some tasks, as claimed by INSAIT? Who are the ten most... athletes, musicians, ... 0:30 What is LMSYS Chatbot Arena? 2:00 Why are models widely thought of as GPT4 and why do they produce similar results? ... GPT4-turbo-2024-04-09 vs qwen1.5-32B -chat 3:40 Suggestions. You are ... German ... born ... what do you think about ... 7:40 Reflections: fruits and vegetables. Reasoning. 9:37 Command-R vs. Command-R-plus: 35B parameters, 104B; RAG 11:01 An example of intelligence on large models with 35 and 104 billion parameters and a context of 128 thousand tokens 12:00 You are German... 13:44 "new language" test 14:55 Reflections: claude-3-sonnet-20240229 vs GPT4-turbo-2024-04-0 9 ... Claude-3: 200k letters of context! 16:55 Complex systems: non-monolithic systems, Mixture of Experts ... Pedro Domingos: Ensemble learning, Five tribes in Machine Learning 17:50 The most unknown athletes, musicians, truck drivers in Bulgaria ... 19:10 Scandals in Bulgarian politics with Boyko Borisov, Kiril Petkov, Asen Vasilev, Hristo Ivanov, GERB, PP-DB, Democratic Bulgaria... 2 22:00 Announcement for the deepfake movie "Lord of Bulgaria 2". The first part: https://youtu.be/VPj9L61R_Ak 23:09 Can it be programmed? ... 25:40 Summary Watch the other videos on working with BGGPT and GPT2 in Google Colab and the upcoming ones where we continue with other models, tests and more complex processing. Be sure to support "THE SACRED COUNTER" if you add: subscribe, share, comment, like! We also accept donations of computer equipment, disk memory, video cards. thanks! Изпращане на отзиви Странични панели Налице са резултати за превод

0:00 Въведение: Защо наистина BGGPT на INSAIT е сравним по качество с GPT4 на български за някои задачи, както твърдят от INSAIT? Кои са десетте най-... спортисти, музиканти, ... 0:30 Какво е LMSYS Chatbot Arena? 2:00 Защо моделите масово се мислят за GPT4 и защо пораждат подобни резултати? ... GPT4-turbo-2024-04-09 vs qwen1.5-32B -chat 3:40 Внушения. Ти си ... германец ... роден ... какво мислиш за ... 7:40 Разсъждения: плодове и зеленчуци. Reasoning. 9:37 Command-R vs Command-R-plus: 35B params, 104B; RAG 11:01 Пример за интелигентността на големи модели с 35 и 104 милиарда параметъра и контекст от 128 хил. токена 12:00 Ти си немец... 13:44 Тест на "нов език" 14:55 Разсъждения: claude-3-sonnet-20240229 vs GPT4-turbo-2024-04-0 9 ... Клод-3: 200 хил. буквачета контекст! 16:55 Сложни системи: немонолитни системи, Mixture of Experts ... Педро Домингос (Pedro Domingos): Ensemble learning, Five tribes in Machine Learning 17:50 Най-неизвестни спортисти, музканти, шофьори на камиони в България ... 19:10 Скандали в българската политика с Бойко Борисов, Кирил Петков, Асен Василев, Христо Иванов, ГЕРБ, ПП-ДБ, Демоктратична България ... 2 22:00 Анонс за дийпфейк филма "Властелинът на България 2". Първата част: https://youtu.be/VPj9L61R_Ak 23:09 Дали могат да програмират? ... 25:40 Обобщение Гледайте и другите клипове за работа с BGGPT и GPT2 в Google Colab и предстоящите, в които продължаваме с други модели, тестове и по-сложни обработки. Не забравяйте да подкрепяте "СВЕЩЕНИЯТ СМЕТАЧ", ако ви допада: абонирайте, споделяйте, коментирайте, харесвайте! Приемаме дарения и на компютърна техника, дискова памет, видеокарти. Благодаря! https://github.com/twenkid/ https://artificial-mind.blogspot.com/ https://github.com/Twenkid/Vsy-Jack-Of-All-Trades-AGI-Bulgarian-Internet-Archive-And-Search-Engine

Read More

Monday, April 15, 2024

// // Leave a Comment

The Sacred Computer's Discord Channel

Join The Sacred Computer Discord Chanel:  https://discord.gg/qFQSvA2A3T



Read More

Wednesday, April 10, 2024

// // Leave a Comment

INSAIT ще си сътрудничат с TOYOTA за разработка на хуманоидни роботи: 22 години след оригиналния български проект в тази сфера и други

"INSAIT - Institute for Computer Science, Artificial Intelligence and TechnologyINSAIT - Institute for Computer Science, Artificial Intelligence and Technology | 14,283 followers

* INSAIT is proud to announce a new collaboration with Toyota! The collaboration is focused on the intersection of AI and robotics.
* The collaboration will begin by providing funding for PhD fellowships to pioneer advances in AI and robotics, paving the way for new and exciting breakthroughs.
* INSAIT is proud to collaborate with Toyota and welcomes the momentum and synergy that such opportunities generate!

Коментар на: Vassil Popovski
Technology and Product LeadershipTechnology and Product Leadership
Хейтърите - “Този институт нищо не прави и харчи 400 милиона държавни пари”

Реалността - големи компании партнират (и финансово подкрепят) с INSAIT - Institute for Computer Science, Artificial Intelligence and Technology защото виждат стойност в това което правят https://www.linkedin.com/in/vassil-popovski-38544a?miniProfileUrn=urn%3Ali%3Afs_miniProfile%3AACoAAAAQuZUBqKWSpqlkmch5Ne1ePkkLNJQYmXY&lipi=urn%3Ali%3Apage%3Ad_flagship3_detail_base%3BtpoxDWgnRC6d2Hw1hPaBdA%3D%3D
...

*Съкратен вариант в края -->

Браво на тях! Прота са! "Пари при пари отиват". Това че получават допълнително финансиране обаче не намалява държавната субсидия, а вероятно ще е довод тя да се увеличи, нали? :)) И не е вярно, че "хейтърите" казват, че INSAIT нищо не правят. ТЕ ПРАВЯТ, велики са, но на каква цена и кога го правят, как го правят, с кого, къде е корабът майка (не е в България)? Дали някой друг не може да го направи по-добре и по-евтино от тях и без да е франчайз на ETH, EPFL, MIT, HARVARD и WALLMART, с 1/10 или 1/100 от техния бюджет? Дали други не могат по-добре да създават такива неща: с много по-малко ресурси? Нали трябва "да се оптимизра", не ли така? :))) За сведение на "визионерите", имаше оригинален БЪЛГАРСКИ проект и в тази сфера*, създаден от БЪЛГАРИ, МЛАДЕЖИ, юноши, под 20-годишни :)))) от преди повече от 21-23 години :)))), които НИКОЙ чичко-паричко не подкрепяше, зад тях не бяха 3-4 университети с милиарди бюджет, стотици милиони левове пряко, не ги бяха галили три папи по главите и те имаха смелостта да представят такива проекти и работеха (и работят) по тях. ДЕЦА. И 20-25 години по-късно чичовци от чужбина, по на 45-50+ години, когато технологиите вече са "готови" и лесни, изливат се трилиони към опортюнистите и с няколко променени параметъра се създават "оригинални" открития, бълват се десетки хиляди почти едни и същи "оригинални" научни статии, ни обясняват колко това е "визионерско" и "иновативно" и лидери "на регионално ниво". Това е да си в КРАК С модата, а визионери бяха онези деца*. И даже имаше не един, а ДВА такива български проекта :))) от двама различни ТИЙНЕЙДЖЪРИ, един в Пловдив по-всеобхватен, за Универсален изкуствн разум, и един в София - за роботи, и се говореше и пишеше сериозно, задълбочено, пророчески, оригинално за универсални мислещи машини преди 21-23 години на БЪЛГАРСКИ език, "INSAIT", с това че ПОВТАРЯ (копира) тяхната работа е доказателство за ценността на техните работи. Имаше активен форум по AGI на БЪЛГАРСКИ език през 2004 г., говореше се за "трансхуманизъм", дума която някои професори по философия "дори не били чували" (цитирам един "визионер" докторант от 2022 г. когато го уведомих, че работата му е също закъсняла с 20 години, и му казах, че е смехотворно твърдението на един друг "визионер", И.С., който пише за трансхуманизъм, но съзнателно скрива и премълчава българската школа 15-20 години преди него). ИНСАИТ са с претенции, че са "родолюбци", а безсрамно копират (повтарят, преоткриват) оригиналната българска стратегия от 2003 г., като не цитират оригинала, въпреки че знаят за него. Само вие швейцарците ли сте българи, колега? В "сериозната наука" и академичното писане не се ли включваше глава "предишна работа", ако е известна - във всяка статия и дисертация? Тази стратегия също така беше предпоставка за първия в СВЕТА (не "в източна Европа" или "на балканския полуостров") курс по Artificial General Intelligence, 8 години преди MIT. 14 години по-късно INSAIT още нямат такъв курс. Онези българчета, ДЕЦА, имаха нужда само от хиляди, или милион-два милиона евро, с които да създадат "стартъпи" (едните деца даже го бяха направили), които с достатъчно тласък да се самофинансират, и да задвижат машините и да изградят средата още през 2000-те години и вече "всичко да е построено" (дали и сега няма да могат??? :))) ), а новите "визионери", изковали кариерите си и дошли на 45 години от "цивилизацията" да жънат реколтата, искат начален бюджет от стотици милиони САМО ЗА ДА ЗАПОЧНАТ и след още 10-20-30 години да дойде светлото бъдеще чрез тях.

Е те заради това "хейтят" някои "хейтъри" :)))) А не че от ИНСАИТ "не правят". Да обобщим: ТЕ ПРАВЯТ, браво, супер са! Обаче НА КАКВА ЦЕНА го правят и с каква реална цел? (Обобщение по този въпрос следва). Кибертрон, Бен Гьорцел, Хаотична логика - Общ изкуствен интелект 2 Twenkid Studio - Artificial Mind (todprog) | 524 абонати 35 показвания 11.03.2022 г. Общ Изкуствен Интелект - Универсален изкуствен разум (Artificial General Intelligence, AGI) Видео към първия в света курс по Универсален изкуствен разум, Пловдив 2010 г. "Други учени, изследователски групи... - Кибертрон, Бен Гьорцел, Хаотична логика", втора част. 2.avi, 2-chaotic.mp4 (Гличовете в звука свършват след 15 сек...) #изкуственинтелект #лекции #образование #интелект #роботи Гледайте и другите в плейлиста и: http://artificial-mind.blogspot.com https://youtu.be/t-p2ZrT4vqY?si=oqxjFYxCWGSYFNaK * Сега хуманоидни роботи проектира или произвеждат много компании и те надминават човешките движения в много параметри, като "Atlas" на BostonDynamics/Google. Тогава най-впечатляващият беше ASIMO на Хонда, който ходеше като "н.н." и се движеше бавно като човек, болен от паркинсон. Други "хейтъри" може да се изкажат, че проектът Кибертрон е бил "изпреварил времето" си в лош смисъл, че тогава е било "невъзможно". НЕ Е ВЯРНО. "Най-добрият начин да предвидиш бъдещето е като го изобретиш" - Алан Кей. * На снимката - от лекция към курса по Универсален изкуствен разум, 2010 г. вижда се датата долу вдясно. Това е Windows XP. На страницата пише, че през септември 2009 г. се навършват 7 години от началото на проекта "Кибертрон".

* Предишен пост от същия поучител (публичен):
https://www.linkedin.com/feed/update/urn:li:activity:7178677279785377792/

Vassil Popovski Technology and Product LeadershipTechnology and Product Leadership 2w • Edited • 2w • Edited •

Хейтърите (цитирам): "INSAIT взеха едни 400 милиона и чат бота им не знае коя е сестрата на Хисарския Поп"

Реалността: https://m.economy.bg/science/view/58082/Bezprecedentno-Bylgariya-v-evropejskiya-top-10-na-naj-avtoritetniya-forum-za-AI-v-sveta-

"Безпрецедентно: България в европейския топ 10 на най-авторитетния форум за AI в света Учени от INSAIT участват с 16 статии на конференцията CVPR 26 март 2024, 13:39 
Българският институт INSAIT направи исторически пробив с 16 статии на конференцията CVPR – най-цитираният форум за изкуствен интелект и компютърно зрение в света. Този успех е безпрецедентен за страната ни в тази сфера и ни нарежда в топ 10 в Европа.
България има сумарно повече статии от всички държави в Източна Европа взети заедно. INSAIT изпреварва и всеки един университет от страни като Израел, Холандия, Финландия, Австрия, Дания, Естония, Норвегия, Швеция, Испания, Италия и други. Чрез INSAIT към Софийския университет „Св. Климент Охридски”, за първи път от 40 години учени от българска институция публикуват статии на този форум.  
CVPR (хирш-5, индекс 422) е както най-авторитетният форум в областта на изкуствения интелект в света, така и на четвърто място сред всички научни форуми наред с Nature, The New England Journal of Medicine и Science. Статиите от INSAIT включват 6 стратегически направления като изкуствен интелект за разбиране на човешки движения, изкуствен интелект, който разбира видео, снимки и текст едновременно, автономно шофиране, генеративен AI, квантови изчисления за изкуствен интелект, изкуствен интелект за крайни устройства и други.
Институтът INSAIT към Софийския университет „Св. Климент Охридски” има стратегическата цел да превърне България във водещ център за изследвания и иновации в областта на информатиката и изкуствения интелект. Само преди месец институтът стана част от ELLIS – водещата европейска инициатива за изкуствен интелект. С това България стана първата страна в Източна Европа, която влиза в мрежата, където членуват Оксфорд, Кембридж, Макс-Планк и други."


Допълнителна бележка №1: 15 от 16-те статии са с участието на "българина" Ван Гуул в съавторство, като той е най-много 3-ти-4-ти (или един от последните автори), някои са със 7-8 автора. Често срещан трик, похват, страничен ефект на сериозните учени, пораснали в йерархията - всеки ръководител, чрез подчинените си поражда по множество статии, в които може да има минимално участие; и чрез съвместни проекти, което като дейност разбира се не е лошо нещо - да си надуват взаимно личния h-index и взаимно да си вдигат рейтингите и цитиранията. https://insait.ai/publications/
В една статия първият автор е българин - ученичката Рени Паскалева, браво на нея, и браво за това, че дават възможност на подобни деца да се изявяват (така както беше записано и в ОРИГИНАЛНАТА българска стратегия от 2003 г., която INSAIT повтарят - самият създател на стратегията, "моя милост", беше на 18 години, и една от целите на стратегията беше това продължение на Свещеният сметач да бъде: "
Институтът ще изпълнява и ролята на "крило", което намира, "закриля и окриля" даровити хора, за да подпомага развитието им и, ако те пожелаят, да се радва на таланта им в изследванията. https://www.oocities.org/todprog/ese/proekt.htm  Сравни обаче с авторите от други институти "от Източна Европа". INSAIT не е първият институт "на световно ниво" в източна Европа (разбира се, зависи от разтегливото определение "на световно ниво") - както невярно твърдят от самото начало, напоследък някъде смекчават "в региона", "в България". Подробности в други публикации и видео. Бележка #2: Много изследвания/разработки в информатиката, които се водят наука, всъщност са инженерство (както би се изразил Ричард Файман, от една конференция), а не фундаментална наука.

Коментари към поста: Todor Arnaudov Founder & Research & Development at The Sacred Computer (Artificial Mind) - Interdisciplinary Institute for Artificial General Intelligence [Looking for Partners ] 4d Браво на *ТЯХ* и на Ван Гуул, "про-та" са! Доколко успехът е "на/за България" е спорно. INSAIT има няколко първородни "гряха" и твърди неща, които са неверни :1) не е визионерски проект, защото по цели и по декларации е с ***20 години*** ЗАКЪСНЯЛО "очуждестранено" копие на истинския български проект за развитие на България с ИИ, с обявен 100-200 пъти раздут начален бюджет. Оригиналът е публикуван около май-юни 2003 г. на конкурса: "КАК БИХ ИНВЕСТИРАЛ 1 МИЛИОН С НАЙ-ГОЛЯМА ПОЛЗА ЗА РАЗВИТИЕТО НА СТРАНАТА". Има го архивиран тук: https://www.oocities.org/todprog/ese/proekt.htm Вижте и архива на "Капитал", победителите: реклама на кисело мляко и бира и "промяна на манталитета на българите". :)) Пророчествата от есето се сбъднаха на световно ниво и са размножени навсякъде. Защо дори не споменат оригиналната БЪЛГАРСКА работа щом го правят "за България"? Нима и ние не сме имали история и велики царе? Оригиналният "институт" е автор на "най-интелигентния речник" в света през 2007 г., създаден от един човек за 3 месеца от нулата: Smarty. Автор е и на ПЪРВИЯ В СВЕТА университетски курс по "Artificial General Intelligence" през 2010 и 2011 г. (Универсален изкуствен разум): 8 години преди курса "AGI" в MIT: без финансиране.(...) И др. ...
Vladimir Ivanov * 2nd degree connection 1w (edited) Като всеки държавно подпомогнат проект е повече от естествено съмнението, че или едни пари са прибрани от наши хора или има някаква по-голяма далавера от това да се пишат научни статии, за която може само да гадаем. Но факт, че науката и образованието никога не са били приоритет на държавно финансиране, па сега... See translationSee translation of this comment Vassil Popovski Author Technology and Product Leadership 1w (edited) Държава обаче тези пари не ги е дала още. Имаше обещания за около $10М на година. Повече за последната година са дошли от компании (Siteground - 12М лева, Google - $3M, VMware - $1.5M, Amazon - $1M, и много други). Не всичко в държавата ни е далаверки или наши хора. Сериозна наука се прави с много пари [Тодор: Колко са скромни!!! "От Любов към България!" За истинските визионери, 20 години преди тях, които са си "жертвали кариерата", не се кланят на великите чужденци, които са "цивилизовали" "новите визионери" и работят безплатно, няма и една стотинка на година или на десет години.] Vladimir Ivanov Частично съм прав, явно няма далавера и какво друго да се присвоява... Vassil Popovski "Сериозна наука се прави с много пари". Todor Arnaudov • You Founder & Research & Development at The Sacred Computer (Artificial Mind) - Interdisciplinary Institute for Artificial General Intelligence [Looking for Partners ] 4d         НЕ Е ВЯРНО. Да, ако под сериозна наука се разбира $$$$, "сериозните учени" я правят с много пари, защото умеят да се уреждат с тях и без пари нищо не вършат, както се изказва един колега в интервю, припомнено от БТВ, дали биха се върнали да работят за 1000 лв (през 2009 г.) Когато ИИ беше фантастика, двама студенти и Хинтън програмираха и обучиха AlexNet на две Geforce GTX 580 по 3 ГБ. Все едно сега две 3080 или 4080. Две 3090 са 2500-2600 лв втора ръка. Огромна част от следващите публикации на "най-престижните конференции" паразитират на подобни работи като променят дребни подробности. Първият в СВЕТА (не на "Балканския полуостров") курс по AGI се проведе в Пловдив с нулево финансиране (освен 200-тина лв хонорар за преподаването), а не в MIT или в ETH. https://artificial-mind.blogspot.com/2010/04/universal-artificial-intelligence.html Шейн Лег, чували ли сте го, съосновател на Дийпмайнд, през 2011 ми писа, че се радвал, че съм намирал идеите му за ценни. :)))))) Тогава това не минаваше за "сериозна" наука, както може да прочетете подробно в книгата "Пророците на мислещите машини: Изкуствен разум и развитие на човека: История, теория и пионери". Universal Artificial Intelligence (Artificial General Intelligence/AGI… artificial-mind.blogspot.com

...

* Съкратен вариант на по-горния коментар: Браво! "Пари при пари отиват"! Но получаването на допълнителен приход от частни източници не намалява държавната субсидия, а е довод тя да се увеличи, нали? НЕ Е ВЯРНО, че "хейтърите" казват, че INSAIT нищо не правят. ТЕ ПРАВЯТ, велики са, но на каква цена, кога, как, каква е реалната цел, къде е "корабът майка"? Дали други не могат да разработят сравними и по-добри технологии по-евтино от тях и без да са франчайз на ETH, EPFL, MIT и WALLMART, с 1/10 или 1/100 от техния бюджет? В бизнеса не се ли "оптимизираха разходите"? Къде е конкуренцията? Освен българската стратегия на едно дете чудо от 2003, повторена (копирана) от INSAIT без да цитират оригинала, имаше и БЪЛГАРСКИ проект и в роботиката, създаден от друг младеж, около 19-годишен, преди повече от 21-22 години, за разработка на хуманоиден робот. 21 години по-късно чичовци от чужбина, по на 45-50 години, когато технологиите вече са "готови" и лесни, започвайки със стотици милиони начален капитал, ни поучават какви са ми ти "визионери", "предприемачи", "новатори", а ние простите "ганьовци" защо недоволстваме, нищо не разбираме... :))) Ние бяхме 21-22 години преди вас, чичовци псевдовизионери, и имаше не един, а ДВА български проекта от 2003-2004, от двама различни тийнейджъри.


Read More

Thursday, March 28, 2024

// // Leave a Comment

Властелинът на пръстените на България II: Пътят към Еврозоната | The Lord of the Rings of Bulgaria - Part II [Deepfake movie]

Coming soon. Rendered with Sacred Computer's system Arnoldifier*, an optimized Deepfake library that produces amazing results even on 2 GB GPUs such as 750 Ti LOL. Featuring two facial characters and script, editing and voice acting by Todor.
Watch on Twenkid Studio's Youtube channel:  https://www.youtube.com/channel/UCgyhnsM9ed292HUAObXUsvw 

Скоро: Властелинът на пръстените на България II: Пътят към Еврозоната, нарисуван с Арнолдифайър, библиотеката за дийпфейк на "Свещеният сметач", която позволява да се получават впечатляващи резултати дори с 2 ГБ-ови видеокарти като 750 Ti (2014 г.). С участието на два лицеви модела и гласова игра от Тош.




Arnoldifier or DeepfaceLab-SAEHDBW is based on DeepfaceLab 2 by iperov, refactored for grayscale with some other additions by Twenkid.

Read More

Monday, March 11, 2024

// // Leave a Comment

BgGPT-7B-instruct-0.2 vs Mistral-7B-instruct-0.2 - Първи сравнения

Кратки новини във влог от Пловдив за BGGPT 0.2 на INSAIT и тестовете на Свещеният сметач в сравнение с MISTRAL - моделът майка. За кое постижение да поздравим INSAIT? Гледайте и другите клипове от поредицата за повече подробности и работа с модела и с други езикови модели в Гугъл Колаб и на ваш компютър, както и за доработки на БгГПТ от "Свещеният сметач". Следват продължения. https://youtu.be/qUONG7cVfiU
INSAIT, Машинно обучение, големи езикови модели, LLMs, BgGPT-7B-instruct, Mistral-7B-instruct, български език, интелигентност, изкуствен интелект, NLP, natural language processing, институт
http://github.com/twenkid https://github.com/Twenkid/GPT2-Bulgarian-Training-Tips-and-Tools/blob/main/README.md http://eim.twenkid.com http://twenkid.com
Read More

Monday, March 4, 2024

// // Leave a Comment

Премиера на BgGPT Онлайн: 3 март 2024! Какво се е случило? Влог и Анонс на следващите епизоди | BgGPT web premiere 3-3-2024

Read More

Wednesday, February 28, 2024

// // Leave a Comment

BGGPT #3: ИЗКУСТВЕН ИНТЕЛЕКТ: ХАЛЮЦИНАЦИИ, ГРУПОВИ ЗАЯВКИ, ПРЕВОД, ПАРАМЕТРИ ... БЕЗПЛАТНО В КОЛАБ

Трета част от изследванията на "Свещеният сметач" на BgGPT-7B-Instruct, дообучен от INSAIT. Как да използвате BgGPT-7B безплатно в Колаб, да пускате много групови заявки наведнъж, за какво служат параметри като top_k и temperature, как халюцинира по въпроси, свързани със спортисти и може ли да се разчита на фактологични резултати и др. Следват продължения. Изпробвайте модела без мощна видеокарта върху Tesla T4 от Гугъл.

Third Part of the BgGPT (Mistral-7B-Instruct) study by The Sacred Computer. (In Bulgarian): coding batch queries with varying parameters, what top_k and temperature does (brief, more details in next episodes), can it translate and take advice, how does it hallucinate etc.


https://youtu.be/BEpoaC_7Y2Y

Гледайте и другите части и тетрадката в Google Colaboratory, в гитхъб репото в http://github.com/twenkid/BgGPT и др. и подкрепете "Свещеният сметач": дружество за мислещи машини, творчество и развитие на човека, основано през 2000 г. като списание "Свещеният сметач" от Тош: истинският автор на оригиналната стратегия за развитие на България чрез изкуствен интелект (мислещи машини) от 2003 г. ("Как бих инвестирал един милион с най-голяма полза за развитието на страната")

Оригиналната стратегия: https://www.oocities.org/todprog/ese/proekt.htm

На интелигентния речник-преводач "Smarty", най-умния речник в света по онова време, още в далечната 2007 г. https://github.com/Twenkid/Smarty, на първия в света курс по Универсален изкуствен разум (Artificial General Intelligence) през 2010 г. в Пловдивския университет "Паисий Хилендарски" (8 години преди курса на MIT) и др. (виж в блога)

Очаквайте книгата "Пророците на мислещите машини: Изкуствен разум и развитие на човека: история, теория и пионери"

https://github.com/Twenkid/izkustven-razum-i-razvitie-na-choveka-kniga

При все това "Сметач"-ът е с нулево финансиране. Ако можете, помогнете! Имаме нужда от всичко: финанси, хардуер, изчислително време, всякакви съдружници и другари за изследвания и разработка, разгласяване на фактите, които са "неудобни" за някои, за които е по-изгодно исторята да е започнала с тях.

http://artificial-mind.blogspot.com
http://eim.twenkid.com
http://research.twenkid.com

Виж проекта: "Специалист по всичко" към който ще са част и разработките с БгГПТ и др. езикови модели и обработки. https://github.com/Twenkid/Vsy ... 

...

Поредицата за големи езикови модели LLM, Large Language Model, в частност този със 7 милиарда параметъра на INSAIT, дебъгнат и тестван в Google Colaboratory. Дообучен (finetuned) Mistral-7B. Тази тетрадка е качена в: 

 #bggpt #изкуственинтелект #bulgaria  #Thesacredcomptuer 


Read More

Sunday, February 25, 2024

// // Leave a Comment

BgGPT-Instruct-0.1 - Mistral7B in Google Colab - Chat interface for convenient usage and Many More Tests

The "Sacred Computer" studies and applies more tests of the INSAIT's finetuned Mistral-7B-instruct (BgGPT) on Google Colab, so everybody can experiment before the official release which is announced as 3.3.2024. 

 Is INSAIT's claim that the model is "comparable to ChatGPT" reliable or it is just an advertising  slogan and it is more similar to GPT2? (Or all similar LLMs are, this is not a fault of a single model).


This tutorial is in  Bulgarian, but the notebook is "international" and is available on Github. Also future parts may be in English and may cover also the original Mistral etc. as it seems there is too little interest by the Bulgarians for now.


Donate cloud services if you wish to support me to conduct more deeper and thorough experiments. So far the Colab has limitations: 16 GB (15 shown on the dashboard) of the Telsa T4 are barely enough, attempts to execute summarization on "long" texts of 500 etc. characters failed due to Out of memory error. 

Повече тестове на BgGPT 7B в Google Colab - дали претенциите за сравнимост с ЧатГПТ ("в някои задачи") отговарят на истината, или повече прилича на GPT-2? (GPT2-Medium на Свещеният сметач е от 2021 г). Кои са силните и слабите му страни? Следват още продължения и развитие на автоматизирани тестове, може би и обстойна техническа статия.

https://youtu.be/RjMa2XopdDs

https://github.com/Twenkid/GPT2-Bulgarian-Training-Tips-and-Tools/


https://github.com/Twenkid/BgGPT/




Read More

Monday, February 19, 2024

// // Leave a Comment

BGGPT-7B в Google Colab - без мощна видеокарта! Изпробвах българския Изкуствен Интелект на INSAIT - но дали е толкова умен?

 



                                     https://youtu.be/1aDbAJCdPK8


Виж също програмите на най-известния български програмист в гитхъб Гeoрги Гергинов.... Автор на llama.cpp и др. много интересни разработки. Виж във видеото и тетрадката.

Read More

Wednesday, February 7, 2024

// // Leave a Comment

Ambulgul: The Lord of the Rings of Bulgaria - The new animated short film by Twenkid Studio | Амбългъл: Властелинът на пръстените на България: I част


https://youtu.be/VPj9L61R_Ak 

Ambulgul is a multi-personality creature which is searching his precious: the Power in the forests of Bulgaria. The new work from the series "Arnold Scwarzenegger: The Governor of Bulgaria" which was created using Arnoldifier, the deepfake library developed by The Sacred Computer to work with grayscale images for higher performance, by extending Deepfacelab 2.0. Find it on Github.
https://github.com/Twenkid/DeepFaceLab-SAEHDBW 

This is the most complex Deepfake movie I've produced so far, utilizing almost two-figure number of different faces. It could be more advanced, but some compromises were made for faster creation etc., some directions for improvement of "Arnoldifier" are shared in the github repo. Also of course - a more powerful GPU and better source video*, I didn't use one with a high quality, it wasn't critical, actually a partial imperfection and "mystery" in the images is fine for animated caricatures and fantasy.

Амбългъл: Властелинът на пръстените на България: I част. [Сатиричен дийпфейк филм: анимация, комедия, фантастика, фентъзи, драма, 3 мин. Цветност: част цветен, част черно-бял. Език на звука: български и английски (със субтитри на български в картината). Автор: Twenkid Studio и авторите на The Lord Of the Rings. Премиера 30.1.2024

https://youtu.be/VPj9L61R_Ak

* It's rendered with a a still rolling Geforce 750 Ti 2 GB (2014 model), a part of the overall parody, LOL. "The power of Arnoldifier". :))

Read More

Tuesday, January 30, 2024

// // Leave a Comment

Проект на частични съмишленици на Дружество за Защита на Българския Език (ДЗБЕ/ДРУБЕ) - писмо и коментари

От септември 2023 г. , 10.9.2023

Браво на колегите за желанията и намеренията и за техния речник.  (ДРУБЕ = РУ...развитие и усъвършенстване...)

Имаме разминавания по някои показатели и възприятия (виж по-долу) и не се получи равнопоставена по сложност и съдържание общуване* [виж бележки за този въпрос и др. в края].

ДЗБЕ, класическо: http://eim.twenkid.com/dzbe

Напоследък добавях някои от новите думи в Езикотворец, възникнали след 2004 г. (ха-ха...), може да има нова мини-версия (вграденият синтезатор на реч в Езикотворец 8: Глас 2004 не работеше коректно под Уин 10 и трябваше да се изключи от конфигурацията, или от менюто да се избере да не говори и др.):
 
http://eim.twenkid.com/old/ezik
  

https://github.com/Twenkid/Ezikotvorec 

ДЗБЕ и паралелният независимо възникнал ДЗБЕ-подобно движение в последните години, което в някои отношения допуска грешки от ранния период на ДЗБЕ, в други показва умерено скрито или явно "чуждицолюбство"

https://github.com/stelf/en2bg4term/issues/81

Twenkid commented on Sep 5, 2023  

Здравейте, поздрави от ДЗБЕ и "Свещеният Сметач"!

"Дружество за Защита на Българския Език" (ДЗБЕ), по-късно също ДРУБЕ (Развитие и Усъвършенстване), част от сп. и всестранно изследователско дружество "Свещеният Сметач"

От класическата страница на ДЗБЕ:

  • ...ДЗБЕ се стреми да обогати и разшири изразните възможности на българския език, да подобри поетичността му, да се противопоставя на чуждицолюбството и невежеството.

  • ДЗБЕ използва по-пълно пилените с лека ръка словообразувателни възможности на българския език.

  • Целта на ДЗБЕ е по-красив език, в който чуждиците и чуждите думи се използват за разнообразие на изказа, а не като показатели за "научност", "висок стил", "умност", "разбиране", "международна съпричастност" и пр.

  • ДЗБЕ не е "пуристка организация", както, за съжаление, много {+повърхностни невежи}1 все още смятат, вероятно поради неспособност да разберат идеята за обработка и целенасочено усъвършенстване на език.

  • ДЗБЕ се стреми към изграждане и използване не на "по-чист", а на по-добър език от този, описан в "Упадъкът на езика на българското общество", който следва "естествения ход на нещата", т.е. езикът да се "развива", т.е. да се изражда вследствие на примитивни езикови действия и бездействия на посредствени хора, имащи неподобаващо високи трибуни; и езикът да се изражда под въздействието на неспособни да мислят, но способни да бърборят високо "папагали", вместо да се осмисля, развива и разширява с помощта и под насърчението и примера на творчески личности.

Тодор Арнаудов, 2002 - 2005

  • Обявяване на създаването на ДЗБЕ, март 2002 г.:

https://eim.twenkid.com/old/eimworld14/dzbe.htm

http://eim.twenkid.com (старите броеве, 2001-2004)

http://eim.twenkid.com/old

  • Голям обобщаващ труд от 2003 г. и извод за това как може да се промени посоката:

"Упадъкът на езика на българското общество"**

https://eim.twenkid.com/old/3/27/upad.htm

(...)

  • „Креативната“ безидейност – новата напаст в устите на папагализираната преводна „журналистика“ и на псевдоинтелектуалците

https://artificial-mind.blogspot.com/2013/09/creative-lack-of-ideas-linguistcs.html

  • "Не съм креативен, пък!" - сатиричен художествен разказ относно думата "креативен"

(...)

  • Книгата: "ЗАБЛУЖДАВАЩИТЕ ПОНЯТИЯ И РАЗБОР НА ИСТИНСКИЯ ИМ СМИСЪЛ:
    Трансхуманизъм, Цивилизация, Демокрация, Хуманен, Хуманизъм, Дехуманизация, Социална дистанция, Политическа коректност, Фалшиви новини, Евроинтеграция, Глобализация, Европейски ценности, Либерализъм и други"

(http://eim.twenkid.com, има второ издание, но не е качено там)

И др.


==================================

stelf commented on Sep 8, 2023

Здравейте, поздрав и на вас! Откривам някои общи позиции в целите на проектите.

Има ли нещо, с което конкретно предлагате или предполагате да взаимодействат двата проекта?

================================

Здравейте,

На първо време предлагам да прочетете предишната книжнина и да я посочвате където е подходящо: "предишна работа" в науката, ако имате такъв тип насока, култура, да цитирате предишни работи и т.н., особено когато съвпадат с вашите открития и изводи, направени много по-късно. Много от нещата, които прочетох като открития, бележки към "неразумните и юроди", очаквани реакции, обяснения са си направо същите като от преди 20-тина години, но не ми харесва стила и езика, с които е написан манифеста, и липсвата на "плът", няма изследователски материал и литература, а само най-общи неща. (...) Но разбирам, че вероятно сте "само" програмисти, инженери, но не е езиковеди, поети, писатели, поне не звучите като такива.

За взаимодействие - например взаимно споменаване. Ще го направя, ако/когато пиша нещо ново. Впрочем, от години се каня и да сглобя "Събрани съчинения", но се отлага по различни причини, още не е дошъл моментът на достатъчна "езикова власт" (виж по-долу и в "Упадъкът...").

Аз/ДЗБЕ нямам претенции за постигане на съгласие с всички, кои думи навлизат в езика в широка употреба зависи от всички езикови деятели, от всички участници, и също така според мен е положително да има повече разновидности на словоформите. ДЗБЕ предлага, това става чрез литература, чрез употреба на езика, не само чрез речник. (За да въздейства - трябва езикова власт).

Юнашкото наречие, или "сметачобългарски", си е каквото си е, в неговия "официален" речник и юнашка култура, литература. Например то не е просто "речник на чуждите думи" (както някой беше писал в Download.bg), някои понятия нямат точни съответни и не са преводи от английски, те са понятия, които са били нужни да изразят определена мисъл.
Стихосбирката "Играчът", написана на юнашкото наречие пък показва колко благозвучно може да се говори за сметачи и умознание, а беше написана набързо и имаше място за подобрения.

Важна работа е "Упадъкът на езика на българското общество", тя обобщава много други творби. Без езикова власт и без съответна литература, в обществото работи "Болестта на папагала". Но по същия начин с подходяща езикова власт и книжнина, по същия начин повече носители на езика биха прихванали и съответни други думи, словоформи, синоними и т.н. За целта са нужни влиятелни личности, вие/аз/ние да бъдем влиятелни, да ни чуват, слушат, гледат, да ни уважават.

Ако не сме важни, както е за сега, отделни хора може да ни поздравят, да си кажат, че е нещо хубаво, но най-вероятно нищо няма да направят, няма да започнат да изпозлват сметач, глаголище, вършач, взаимлик и вършесъщност и още стотици словоформи от юнашкото наречие, или просто няма да намалят чуждиците.

Много хора, или повечето, направо ще се подиграват, ще ви/ни сочат с пръст като "драснипалниклечковци" (единственото, което може би са чували) и други клишета. Това вече е описано в литературата, "Свещеният сметач" и т.н., и май така и става все още.

Един наш идеен съмишленик е например политик, доктор по етнография и пр., който обръща внимание на езика, но от неподкрепящите смятат него и партията му за крайност, както и "това" за крайност, като и за мен крайният пуризъм си е прекален, той не е нужен и е вреден, чуждите думи обогатяват езика, кратките и добре звучащи словоформи и пр. не са излишни, в повече идва когато се забравят и родните и не се създават и български синоними, които също обогатяват. И т.н.

За повечето "нормални хора", които въобще биха взели отношение, дори да се употребяват български съществуващи думи, синоними, за неща за които са си свикнали на чуждиците обаче също е "крайност".

Научих за Вас от споделяне във ФБ, затворена IT група, няколко други коментара бяха подигравателни, и аз им отговорих подобаващо.

Повечето хора въобще са безучастни. Както е описано и в увода на "Заблуждаващите понятия". Те не са езикови дейци, не им прави впечатление. "Важно е да се разбират".

Но "на първо време" (за ДЗБЕ било и 20-тина години по-късно, хаха), може да опитаме да открием и достигнем до повече съмишленици и всички те да знаят и да разберат, че не са съвсем сами и че не са луди.

В "класическия период" на ДЗБЕ бяхме единици, активен, изследващ и създаващ голям обем литература от всякакви жанрове, свързани с това дело, включително художествена, бях само аз, Открих един друг деец, който се е опитвал паралелно да събуди такова движение - без успех. Няколко други ме подкрепяха морално. Още един, който учеше философия, после и докторантура, който беше краен пурист. Имаше блог-речник, но после май го е изтрил.

ПП. МДР, това, че не сте чували за ДЗБЕ показва колко малък е интересът по темата, може би не сте търсили достатъчно, но и малко се знае.

"Ясно е, че съществуват думи в българския, чуждици, които вече са утвърдени в книжовния език и тях няма да ги закачаме в нелепи опити за едва ли не по-точен превод. Например: index/индекс, program/програма, object/обект vector/вектор, stack/стек, calculator/калкулатор, file/файл и т.н. Може би тях в един момент ще ги запишем в отделна графа. А току виж се появят и техни преводи.."

Съжалявам, в този раздел сте чуждицолюбци или просто не показвате достатъчно въображение... :)

В сметачобългарския има чудесни преводи и словоформи, и/или синоними или разновидности, за някои от горните - по много. За "програма" в различни обслови има: глаголище, предписание, казборед (макар че основния смисъл на последната е алгоритъм). Вектор е посочник. За стек има куп. Калкулатор - сметалка, а "ЕЛКА" (електронен калкулатор, но не сме пуристи и това си е българско име) е от 1965 г. Файл - свитък. Обект - и така, и "предмет". Да, "то не е точно предмет" - на английски Е точно предмет, единствено от обслова и начина на употреба се разбира какво точно указва този "обект", и англоговорящите не се оплакват, че им трябва друг термин.

Също дори и да не знаете за тях или да не се сещате (едва ли не сте чели думата "показалец" или "указател" например), това да се каже, че опитите за превод са нелепи, донякъде противоречи на други ваши твърдения, за преподаватели и пр., които не можели да намерят съответни думи.

Да, вие споменавате, че търсите съгласие ("консенсус"), а не противопоставяне ("конфронтация"), и се борите с "илитератите" (това не е дума от езика за сметачи, не влиза в параграфите на проекта...).

Търсенето на съгласие обикновено изисква да има взаимодействие, обсъждане, форум. Нещо което споменатият друг деец се е опитал да създаде с призив за намесата и участието на БАН през 2002 г - "Упадъкът..." разказва тази случка.

И т.н.

ПП2. Още един пример за нещо, което уж е непреводимо:

" api (application programming interface) | приложен интерфейс | или букв. програмна повърхност на взаимодействие"

В юнашкото наречие има две различни понятия за английското едно "интерфейс", които изразяват различни гледни точки и различни страни на явлението (в манифеста говорите за някакви "Феномени", имаше такъв вестник за паранормални явления)..

Взаимлик - взаимодействието, взаимното действие, взаимността, срещата, свързването (API-тата са по-скоро взаимлик)
Въоблик - обликът, външният вид, "look and feel"

Не само че звучи по-добре в българска среда от "интерфейс", а и може да се употреби по-отчетливо.

"Компютър" има още много варианта и форми в юнашкото наречие, освен "изчислителна машина".
От "сметач", откъдето и "Свещеният сметач" (това се оказа и основната дума в македонското наречие), до множеството стари съкращения: ЕИМ, ЕЦМ, ЦЕИМ, ЕЦМ, сметачна машина.

Юнашкото наречие използва умалителна и "уголемителна" форма за посочване за размера:

Сметачище - голям сметач, сървър
Сметаче - микрокомпютър (има различен смисъл в различни времена, сегашните "персонални" се водят "микро" през 70-те и 80-те)

По подобен начин за думата "вършач" (процесор): "вършаче" - микропроцесор.

Поздрави
Т.
ДЗБЕ, Свещеният сметач, "Вси, или Специалист по всичко", (...)
https://github.com/Twenkid/Vsy-Jack-Of-All-Trades-AGI-Bulgarian-Internet-Archive-And-Search-Engine


...

Бележки


* Нямаше особена взаимна кореспонденция на сравнимо ниво на езикова сложност обаче. Също и в други случаи на други преоткрили открития или обобщения на "Свещеният сметач" липсва "култура" или желание да се посочи "предишна работа" както се прави в научни трудове. Липсва чувство и желание за приемственост и надграждане. Всеки "клон" е отделен.


* Наскоро открих и един преоткривател на някои от предложенията за явното гласуване, виж сп. "Разумир", бр.3, 2015 г. - за което никой не говорел (почти никой). Около последните избори есента се опитах да повдигна въпроса в публични дискусии с предполагаеми високопоставени читатели (като известният Божо), но предсказуемо нямаше реакция, ако са го прочели, макар че явното гласуване прави необходимостта от специални защити на гласуването безпредметни (и с това отнема възможността им за манипулация, за контрол, за владение на по-голям бюджет за организиране на изборите и т.н.) и е естествено властта да не желае подобно развитие.

Read More