Hello! I'm Todor, a.k.a. Tosh and Twenkid - a Universal man, author of the groundbreaking world's first university course in Artificial General Intelligence (Plovdiv 2010,2011) - whopping 8 years before the famous MIT course of the now celebrity podcaster Lex Fridman; and of another pioneering body of works called "Theory of Universe and Mind" (2001-2004). I am a Researcher, Developer and Entrepreneur in AGI, where I was a child prodigy and visionary as early as my teenage years in the early 2000s, beyond the expected computer science and also linguistics/writing, in the fields of Transhumanism, Digital Physics/The Universe as a Computer / Discrete Universe, Philosophy of AI, Mind and Universe as simulators of virtual universes, the tight connection and mapping between the principles underlying the Universe as a whole and systems, and Mind/General Intelligence. My works: the Theory of Universe and Mind were published in one of the first e-zines for these topics, called "The Sacred Computer", which I created myself. I keep encountering my discoveries, generalisations, ideas and directions repeated and reexpressed as fresh or interesting by many top-level researchers, up to now, 2023 (one of many is the Free Energy Principle/Active Inference line of research etc.) I started to discover the matches since 2007, with Jeff Hawkins's "On Intelligence", many others came later. See and read more in About and in the links, where you can find the original writings as well. I've been working on a huge collection book, currently called "Artificial General Intelligence and Transhumanism: History, Theory and Pioneers", which keeps growing, currently above 1240 1600 pages and growing, which explains, demonstrates and points out the matches to the Academic etc. research published after those early publications, which indirectly serve as a delayed "peer review" - or a call for you to join me in my quest for AGI. Check also my project: the AGI infrastructure called "Vsy" or "Jack of All Trades" and the other projects in Github.
Welcome to my "Universal Universe": "Artificial Mind" or "Sacred Computer". I am always looking for partners and collaborators, interesting project and new fields and things to study, explore and create. Join me or invite me!

Sunday, June 16, 2024

// // Leave a Comment

Kant and Schopenhauer already defined many of the modern concepts in AGI which are still not well understood or are rediscovered by the modern English-speaking world AI and mind researchers etc.

Comments by Todor to johntcm in his AI group in Discord ~ 17:xx h in room #memory, 16.6.2024 group: https://discord.com/channels/1095629355432034344/1133760747437051964/1251904578677637171
See also: https://artificial-mind.blogspot.com/2014/08/the-super-science-of-philosophy-and.html 

(The multi-inter-intra-disciplinary blindness and the actual obviousness of "everything" creative and cognitive, but the lack of proper understanding, knowledge and access to the structure.)

Nobody asked me, but I am not so impressed with these quotes and explanations at this level of generality (including the previous book, the ones which I checked from the "Why We Remember:Unlocking Memory's Power to Hold on to What Matters",  Charan Ranganath2024)
[The quotes from the other book were from some of https://en.wikipedia.org/wiki/Nicholas_Humphrey I am not sure which exact one, about 30 years ago]

IMO we must be way more technical and the required technicality can't be expressed in that kind of NL; a proper language of thought and code, and referred data, are required.

As of being imaginative, IMO Kant and Schopenhauer were, and quite more insightful than many current "stars", they were 200 years earlier. 30 years ago is not that much time either (or 0 years, current texts), there were pretty advanced computers already, hot discussions on connectionism even since late 1960s/early 1970s, and very hot in mid-late 1980s, there were also "hidden Markov models" (and "hidden variables").

Kant and Schopenhauer in particular explained a lot of material that, it seems, many of current AGI/AI experts still can't really understand or rediscover it and reexpress it as fresh with a gazillion of flops and bytes and with all data and knowledge manually collected, classified and preprocessed already, again and again rediscovering trivial wheels. Everything should be already obvious for the blind, we can "touch" every pixel, every possible transform, every formula, everything.

Kahneman's "System 1 and System 2" are, as far as I understand them, well known and investigated concepts from the German philosophy at least from 200-250 years ago, apodictic/intuitive and discursive knowledge.

"Symbol grounding", the basics of "predictive processing", Understanding [it's a concept, a faculty of mind] as physical simulation of the sensory input/world modeling, intelligence inferring the causes from the effect, is explained by Schopenhauer even in his PhD dissertation in 1813. The cognitive hierarchy or "latent spaces", the weighing of motives and their relation to the Will is explained again at least by Schopenhauer in his subsequent major work "World as Will and Idea", starting in 1818 and later parts and editions, which is translated also as "World as Will and Representation" etc. 

It is actually Kant in late 1700s and continued by Schopenhauer, not Alan Turing who first defined the abstract computers: theirs, mainly Kant's, refined by Schopenhauer, definition is the centrality of the a priori conceptions for any thought process (or "computation"): time, space and causality, and the medium "matter". Time, space, causality and matter is the minimum definition of a computer, where:

Space is the memory, time is the process of change, the reading of the next step/instruction/address; causality is the rules, the specific instructions per every possible current state - how current state is transformed to the following; and matter is the substrate which can hold the states, it is the "type", the set of possible values within the memory cells within the space, the capability to have properties and their possible values. The matter is "eternal" within the running simulation or computer, only the "forms" (the current content, the "accidents") change by the laws of the causality (the "principle of sufficient reason") which in computers is the chain of executed instructions, or if it is represented as a state automata - the changes of their states etc. A 2014 article about that etc.: https://artificial-mind.blogspot.com/2014/08/the-super-science-of-philosophy-and.html

Re reward vs goal, I've participated once in such a discussion here: essentially it's the same, it matches to "match" also to any kind of "optimization" (variation calculus). Defined as a path of reward or as a goal and subgoals, it can do the same, each of them can be defined as the other, finding subgoals can be a reward, maximizing prediction can be a reward in the cognitive space. 

Some define RL as getting the reward "only at the end of the episode", but even then the episode could be reduced to the shortest step, and be on each step. There could be and there are different "rewards" in different domains, modalities, resolutions, "abstract spaces" (yes, they are multiple: multimodal and there could be branches within the modalities) and they could interact in a multi-agent way. Reaching the goal can be counted as "reward", or achieving "highest reward" for a selected span of steps, time, whatever can be counted as a "goal". All of them is about prediction and minimizing "prediction error", i.e. "will", or matching: matching some target, which can be expressed as "reducing the error" or "maximizing the match".

Also there are at least two layers and types of rewards/goals/prediction in mind, one is sensual, the other one is cognitive, that was discussed here (also taught during the AGI course in 2010,2011), and it seems it was also defined in Schopenhauer's AGI theory, it's even in the title. The Will (see his concept) maps to the sensual reward, which is about matching the desired state, being near it, reducing the error to the *desired* representation. While the Idea (representation) is the Cognitive "Reward" or "Goal" which are the same as conception, and it is about maximizing *prediction*, or prediction *progress*, maximizing the *knowledge*, "epistemic reward", which may be *against* and contradicting to the sensual, survival, preservation reward/goal. The lower the speceis/the individual in the cognitive ladder, the more his cognitive part, his Idea, representations, or Reason in humans are ruling his behavior, and more he is a slave of the sensual goals or rewards, which are the same as in the animals.

John: "Multiple abstraction spaces to process image - position, movement, shape, colour etc.I believe our brains process images via multiple abstraction spaces, not just with one transformer like what we see right now."


Yes, the concepts per se are "abstraction spaces" by definition, concepts/generalization is inducing the spaces for different features and classes. Also different resolutions, different maps to different views/aspects, selections of "items" within the spaces.

Read More

Tuesday, June 4, 2024

// // Leave a Comment

България влиза в Eврозоната - Властелинът на пръстените на България II [Дийпфейк филм] | Bulgaria Enters the Eurozone - Deepfake Film


Реалистично фентъзи, вдъхновено от Властелинът на пръстените - по пътя към Хилядолетния рай на светлото бъдеще. Сатира, комедия, фентъзи, анимация. Произведен с "Arnoldifier", системата за дийпфейк кино, Twenkid FX Studio (кадрите от "Звездна симфония в Чепеларе") - създадени в Пловдив от Тош/ "Свещеният сметач". Използва кадри от "Властелинът на пръстените III", реж. Питър Джаксън. OpenDalle11 за заглавната картина. DaVinci Resolve (краен монтаж). С участието на модели на Мария Габриел и Григор Сарийски Гледайте филма: https://youtu.be/KXC68MbczMg #българия #еврозона #политика Гледайте и първата част: "Амбългъл: Властелинът на пръстените на България I" (дийпфейк). Сценарий, звук, монтаж, актьор в ролите, програмист: Тош Дийпфейк система: Тош. 


Read More

Monday, May 20, 2024

// // Leave a Comment

България влиза в Eврозоната - трейлър на Властелинът на пръстените на България II [Дийпфейк филм] | Bulgaria Enters the Eurozone - Deepfake Film Trailer


Гледайте трейлър на новия дийпфейк филм, създаден с "Арнолдифайър", библиотеката на  "Свещеният сметач" за черно-бял дийпфейк, модификация на DFL 2.0.

Марио води едно българче към Еврозоната през Шенгенската пустиня. Григор се опитва да го защити. Къде е Еврозоната и какво ще му се случи?

Филмът в пълната си версия е около 4:20 мин, с кадри от оригиналния "Властелинът на Пръстените", режисьор Питър Джексън, с двама създадени с ИИ герои, оригинален сценарий и озвучаване с нова актьорска игра.

Модели: по Мария Габриел и доц. Григор Сарийски, защитникът на българския лев.

Гледайте трейлъра: https://www.youtube.com/watch?v=xmsVBVaQPX0

Arnoldifier:  https://github.com/Twenkid/DeepFaceLab-SAEHDBW 

Read More

Sunday, May 5, 2024

// // Leave a Comment

Разговор с глас с BgGPT за политика и скандали чрез Whisper и AutoClap

Политика и скандали. Как да стана милионер в България? Питаме BGGPT с ГЛАСОВ интерфейс чрез Свещеният сметач и прототипа на "Вседържец", в който през март внедрих разпознаване на реч и на български език чрез Whisper, и го свързах с управление на големи езикови модели като BgGPT и др., изпълнявани локално на личния сметач. Системата управлява също синтезатора на реч "Тошко 2" и ще бъде управлявана и от "Smarty 2" (нова версия на "най-умния речник") и непубликувания ми ускорител на изследователската дейност с много имена: Assistant, "Research Assistant", ACS.

На 29.3 като част от изпитанията на BgGPT и разработката на Вседържец, разговарях с компютърния оракул "BGGPT' за политика, скандали около водещите политически партии и политици като Бойко Борисов, Кирил Петков, Асен Василев, партиите им ГЕРБ, Продължаваме промяната, БСП, както и опозиционните. Питаме и как да станем милионери в България - политиката добър начин ли е? Следва продължение.  Запис от 29.3.2024 с прототип от инфраструктурата за мислещи машини "Вседържец" (Вси, Специалист по всичко) на Тош.

Гледайте цялата поредица на "Свещеният сметач" за BGGPT, LLama-3, GPT-4, GPT2 и обучението му на български през 2021 г., LMSYS chat arena и др. големи езикови модели (LLM) в канала и от източниците на Сметача. Може да ви допаднат Дийпфейк поредиците "Арнолд: губернаторът на България" и "Амбългъл: Властелинът на пръстените на България" (предстои втори епизод). Подкрепете автора на ОРИГИНАЛНАТА стратегия за развитие на България и света с ИИ от 2003 г., която INSAIT преоткриват и копират със стотици пъти раздут бюджет и с 20 години закъснение.

Повече по темата в другите клипове: оригиналната стратегия, публикувана през 2003 г. в оригиналния ѝ вариант: https://www.oocities.org/todprog/ese/proekt.htm

За мислещата машина Вседържец: https://github.com/Twenkid/Vsy-Jack-Of-All-Trades-AGI-Bulgarian-Internet-Archive-And-Search-Engine

Гледайте тук:  https://youtu.be/4X9I15qmpdo и не забравяйте да се абонирате, коментирате и споделяте, ако ви е интересно и желаете да подкрепите "Свещеният сметач": оригиналното дружество и проект за развитие чрез Изкуствен интелект, за разлика от богатите копия 20 години по-късно. Помогнете на Сметача с гласност, хардуер, изчислителна мощ или с включването си в изследванията и разработката!


Read More

Tuesday, April 30, 2024

// // Leave a Comment

Llama-3 8B in Kaggle or Google Colab



How to run the new llama-3-Instruct at full 16-bit precision, the Meta's Best model free on Tesla T4x2 in Kaggle (fix one detail) Support "The Sacred Computer" Research Institute in AGI, Creativity and Human Development, creator of the world's first university course in Artificial General Intelligence (2010).
Read More

Sunday, April 28, 2024

// // Leave a Comment

Doomenstein-3D Raycasting programming: FPS game engine from scratch

A game programming exercise in C, SDL2. Fixing building errors from an example, WSL2 Linux rendering compatibility fixes, adding most basic pixel-by-pixel texture mapping (TBC). Runs on Windows (WSL) and Linux. Originally by jdh.

Read More

Thursday, April 18, 2024

// // Leave a Comment

Free GPT4, Claude, LLAMA 3, LLAMA 2, Code LLAMA, Command-R ... and all new big models with LMSYS Chatbot Arena


A video reviewing lmsys chatbot arena (voice in Bulgarian) and analyzing the results from various models: why smaller models sometimes are comparable or better with the big ones?


LMSys Chatbot Arena: страхотна находка за безплатно ползване на най-големите езикови модели, които иначе са платени.

LMSys Chatbot Arena: a great find for free to use the biggest language models that are otherwise paid. A variety of very big and smaller ones to try out with real job and compare the results.

E.g.  (Source: https://chat.lmsys.org/ -  many o f the models come in various versions such as Claude, GPT4-Turbo,  LLAMA-3 Command-R and Command-R-Plus, Reka-Flash ... The ranking page lists 82 at the moment and they are probably updated on the fly.

Edit 20.4.2024: the latest LLAMA 3 70B has just appeared:


Claude: Claude by AnthropicMixtral of experts: A Mixture-of-Experts model by Mistral AIReka Flash: Multimodal model by Reka
Command-R-Plus: Command-R Plus by CohereCommand-R: Command-R by CohereZephyr 141B-A35B: ORPO fine-tuned of Mixtral-8x22B-v0.1
Gemma: Gemma by GoogleQwen 1.5: A large language model by Alibaba CloudDBRX Instruct: DBRX by Databricks Mosaic AI
Starling-LM-7B: An open model trained using RLAIF by BerkeleyGemini: Gemini by GoogleGPT-4-Turbo: GPT-4-Turbo by OpenAI
GPT-3.5: GPT-3.5-Turbo by OpenAILlama 2: Open foundation and fine-tuned chat models by MetaOLMo-7B: OLMo by Allen AI
Vicuna: A chat assistant fine-tuned on user-shared conversations by LMSYSYi-Chat: A large language model by 01 AICode Llama: Open foundation models for code by Meta
DeepSeek LLM: An advanced language model by DeepSeekOpenHermes-2.5-Mistral-7B: A mistral-based model fine-tuned on 1M GPT-4 outputs

0:00 Introduction: Why is INSAIT's BGGPT really comparable in quality to Bulgarian GPT4 for some tasks, as claimed by INSAIT? Who are the ten most... athletes, musicians, ... 0:30 What is LMSYS Chatbot Arena? 2:00 Why are models widely thought of as GPT4 and why do they produce similar results? ... GPT4-turbo-2024-04-09 vs qwen1.5-32B -chat 3:40 Suggestions. You are ... German ... born ... what do you think about ... 7:40 Reflections: fruits and vegetables. Reasoning. 9:37 Command-R vs. Command-R-plus: 35B parameters, 104B; RAG 11:01 An example of intelligence on large models with 35 and 104 billion parameters and a context of 128 thousand tokens 12:00 You are German... 13:44 "new language" test 14:55 Reflections: claude-3-sonnet-20240229 vs GPT4-turbo-2024-04-0 9 ... Claude-3: 200k letters of context! 16:55 Complex systems: non-monolithic systems, Mixture of Experts ... Pedro Domingos: Ensemble learning, Five tribes in Machine Learning 17:50 The most unknown athletes, musicians, truck drivers in Bulgaria ... 19:10 Scandals in Bulgarian politics with Boyko Borisov, Kiril Petkov, Asen Vasilev, Hristo Ivanov, GERB, PP-DB, Democratic Bulgaria... 2 22:00 Announcement for the deepfake movie "Lord of Bulgaria 2". The first part: https://youtu.be/VPj9L61R_Ak 23:09 Can it be programmed? ... 25:40 Summary Watch the other videos on working with BGGPT and GPT2 in Google Colab and the upcoming ones where we continue with other models, tests and more complex processing. Be sure to support "THE SACRED COUNTER" if you add: subscribe, share, comment, like! We also accept donations of computer equipment, disk memory, video cards. thanks! Изпращане на отзиви Странични панели Налице са резултати за превод

0:00 Въведение: Защо наистина BGGPT на INSAIT е сравним по качество с GPT4 на български за някои задачи, както твърдят от INSAIT? Кои са десетте най-... спортисти, музиканти, ... 0:30 Какво е LMSYS Chatbot Arena? 2:00 Защо моделите масово се мислят за GPT4 и защо пораждат подобни резултати? ... GPT4-turbo-2024-04-09 vs qwen1.5-32B -chat 3:40 Внушения. Ти си ... германец ... роден ... какво мислиш за ... 7:40 Разсъждения: плодове и зеленчуци. Reasoning. 9:37 Command-R vs Command-R-plus: 35B params, 104B; RAG 11:01 Пример за интелигентността на големи модели с 35 и 104 милиарда параметъра и контекст от 128 хил. токена 12:00 Ти си немец... 13:44 Тест на "нов език" 14:55 Разсъждения: claude-3-sonnet-20240229 vs GPT4-turbo-2024-04-0 9 ... Клод-3: 200 хил. буквачета контекст! 16:55 Сложни системи: немонолитни системи, Mixture of Experts ... Педро Домингос (Pedro Domingos): Ensemble learning, Five tribes in Machine Learning 17:50 Най-неизвестни спортисти, музканти, шофьори на камиони в България ... 19:10 Скандали в българската политика с Бойко Борисов, Кирил Петков, Асен Василев, Христо Иванов, ГЕРБ, ПП-ДБ, Демоктратична България ... 2 22:00 Анонс за дийпфейк филма "Властелинът на България 2". Първата част: https://youtu.be/VPj9L61R_Ak 23:09 Дали могат да програмират? ... 25:40 Обобщение Гледайте и другите клипове за работа с BGGPT и GPT2 в Google Colab и предстоящите, в които продължаваме с други модели, тестове и по-сложни обработки. Не забравяйте да подкрепяте "СВЕЩЕНИЯТ СМЕТАЧ", ако ви допада: абонирайте, споделяйте, коментирайте, харесвайте! Приемаме дарения и на компютърна техника, дискова памет, видеокарти. Благодаря! https://github.com/twenkid/ https://artificial-mind.blogspot.com/ https://github.com/Twenkid/Vsy-Jack-Of-All-Trades-AGI-Bulgarian-Internet-Archive-And-Search-Engine

Read More

Monday, April 15, 2024

// // Leave a Comment

The Sacred Computer's Discord Channel

Join The Sacred Computer Discord Chanel:  https://discord.gg/qFQSvA2A3T

Read More

Wednesday, April 10, 2024

// // Leave a Comment

INSAIT ще си сътрудничат с TOYOTA за разработка на хуманоидни роботи: 22 години след оригиналния български проект в тази сфера и други

"INSAIT - Institute for Computer Science, Artificial Intelligence and TechnologyINSAIT - Institute for Computer Science, Artificial Intelligence and Technology | 14,283 followers

* INSAIT is proud to announce a new collaboration with Toyota! The collaboration is focused on the intersection of AI and robotics.
* The collaboration will begin by providing funding for PhD fellowships to pioneer advances in AI and robotics, paving the way for new and exciting breakthroughs.
* INSAIT is proud to collaborate with Toyota and welcomes the momentum and synergy that such opportunities generate!

Коментар на: Vassil Popovski
Technology and Product LeadershipTechnology and Product Leadership
Хейтърите - “Този институт нищо не прави и харчи 400 милиона държавни пари”

Реалността - големи компании партнират (и финансово подкрепят) с INSAIT - Institute for Computer Science, Artificial Intelligence and Technology защото виждат стойност в това което правят https://www.linkedin.com/in/vassil-popovski-38544a?miniProfileUrn=urn%3Ali%3Afs_miniProfile%3AACoAAAAQuZUBqKWSpqlkmch5Ne1ePkkLNJQYmXY&lipi=urn%3Ali%3Apage%3Ad_flagship3_detail_base%3BtpoxDWgnRC6d2Hw1hPaBdA%3D%3D

*Съкратен вариант в края -->

Браво на тях! Прота са! "Пари при пари отиват". Това че получават допълнително финансиране обаче не намалява държавната субсидия, а вероятно ще е довод тя да се увеличи, нали? :)) И не е вярно, че "хейтърите" казват, че INSAIT нищо не правят. ТЕ ПРАВЯТ, велики са, но на каква цена и кога го правят, как го правят, с кого, къде е корабът майка (не е в България)? Дали някой друг не може да го направи по-добре и по-евтино от тях и без да е франчайз на ETH, EPFL, MIT, HARVARD и WALLMART, с 1/10 или 1/100 от техния бюджет? Дали други не могат по-добре да създават такива неща: с много по-малко ресурси? Нали трябва "да се оптимизра", не ли така? :))) За сведение на "визионерите", имаше оригинален БЪЛГАРСКИ проект и в тази сфера*, създаден от БЪЛГАРИ, МЛАДЕЖИ, юноши, под 20-годишни :)))) от преди повече от 21-23 години :)))), които НИКОЙ чичко-паричко не подкрепяше, зад тях не бяха 3-4 университети с милиарди бюджет, стотици милиони левове пряко, не ги бяха галили три папи по главите и те имаха смелостта да представят такива проекти и работеха (и работят) по тях. ДЕЦА. И 20-25 години по-късно чичовци от чужбина, по на 45-50+ години, когато технологиите вече са "готови" и лесни, изливат се трилиони към опортюнистите и с няколко променени параметъра се създават "оригинални" открития, бълват се десетки хиляди почти едни и същи "оригинални" научни статии, ни обясняват колко това е "визионерско" и "иновативно" и лидери "на регионално ниво". Това е да си в КРАК С модата, а визионери бяха онези деца*. И даже имаше не един, а ДВА такива български проекта :))) от двама различни ТИЙНЕЙДЖЪРИ, един в Пловдив по-всеобхватен, за Универсален изкуствн разум, и един в София - за роботи, и се говореше и пишеше сериозно, задълбочено, пророчески, оригинално за универсални мислещи машини преди 21-23 години на БЪЛГАРСКИ език, "INSAIT", с това че ПОВТАРЯ (копира) тяхната работа е доказателство за ценността на техните работи. Имаше активен форум по AGI на БЪЛГАРСКИ език през 2004 г., говореше се за "трансхуманизъм", дума която някои професори по философия "дори не били чували" (цитирам един "визионер" докторант от 2022 г. когато го уведомих, че работата му е също закъсняла с 20 години, и му казах, че е смехотворно твърдението на един друг "визионер", И.С., който пише за трансхуманизъм, но съзнателно скрива и премълчава българската школа 15-20 години преди него). ИНСАИТ са с претенции, че са "родолюбци", а безсрамно копират (повтарят, преоткриват) оригиналната българска стратегия от 2003 г., като не цитират оригинала, въпреки че знаят за него. Само вие швейцарците ли сте българи, колега? В "сериозната наука" и академичното писане не се ли включваше глава "предишна работа", ако е известна - във всяка статия и дисертация? Тази стратегия също така беше предпоставка за първия в СВЕТА (не "в източна Европа" или "на балканския полуостров") курс по Artificial General Intelligence, 8 години преди MIT. 14 години по-късно INSAIT още нямат такъв курс. Онези българчета, ДЕЦА, имаха нужда само от хиляди, или милион-два милиона евро, с които да създадат "стартъпи" (едните деца даже го бяха направили), които с достатъчно тласък да се самофинансират, и да задвижат машините и да изградят средата още през 2000-те години и вече "всичко да е построено" (дали и сега няма да могат??? :))) ), а новите "визионери", изковали кариерите си и дошли на 45 години от "цивилизацията" да жънат реколтата, искат начален бюджет от стотици милиони САМО ЗА ДА ЗАПОЧНАТ и след още 10-20-30 години да дойде светлото бъдеще чрез тях.

Е те заради това "хейтят" някои "хейтъри" :)))) А не че от ИНСАИТ "не правят". Да обобщим: ТЕ ПРАВЯТ, браво, супер са! Обаче НА КАКВА ЦЕНА го правят и с каква реална цел? (Обобщение по този въпрос следва). Кибертрон, Бен Гьорцел, Хаотична логика - Общ изкуствен интелект 2 Twenkid Studio - Artificial Mind (todprog) | 524 абонати 35 показвания 11.03.2022 г. Общ Изкуствен Интелект - Универсален изкуствен разум (Artificial General Intelligence, AGI) Видео към първия в света курс по Универсален изкуствен разум, Пловдив 2010 г. "Други учени, изследователски групи... - Кибертрон, Бен Гьорцел, Хаотична логика", втора част. 2.avi, 2-chaotic.mp4 (Гличовете в звука свършват след 15 сек...) #изкуственинтелект #лекции #образование #интелект #роботи Гледайте и другите в плейлиста и: http://artificial-mind.blogspot.com https://youtu.be/t-p2ZrT4vqY?si=oqxjFYxCWGSYFNaK * Сега хуманоидни роботи проектира или произвеждат много компании и те надминават човешките движения в много параметри, като "Atlas" на BostonDynamics/Google. Тогава най-впечатляващият беше ASIMO на Хонда, който ходеше като "н.н." и се движеше бавно като човек, болен от паркинсон. Други "хейтъри" може да се изкажат, че проектът Кибертрон е бил "изпреварил времето" си в лош смисъл, че тогава е било "невъзможно". НЕ Е ВЯРНО. "Най-добрият начин да предвидиш бъдещето е като го изобретиш" - Алан Кей. * На снимката - от лекция към курса по Универсален изкуствен разум, 2010 г. вижда се датата долу вдясно. Това е Windows XP. На страницата пише, че през септември 2009 г. се навършват 7 години от началото на проекта "Кибертрон".

* Предишен пост от същия поучител (публичен):

Vassil Popovski Technology and Product LeadershipTechnology and Product Leadership 2w • Edited • 2w • Edited •

Хейтърите (цитирам): "INSAIT взеха едни 400 милиона и чат бота им не знае коя е сестрата на Хисарския Поп"

Реалността: https://m.economy.bg/science/view/58082/Bezprecedentno-Bylgariya-v-evropejskiya-top-10-na-naj-avtoritetniya-forum-za-AI-v-sveta-

"Безпрецедентно: България в европейския топ 10 на най-авторитетния форум за AI в света Учени от INSAIT участват с 16 статии на конференцията CVPR 26 март 2024, 13:39 
Българският институт INSAIT направи исторически пробив с 16 статии на конференцията CVPR – най-цитираният форум за изкуствен интелект и компютърно зрение в света. Този успех е безпрецедентен за страната ни в тази сфера и ни нарежда в топ 10 в Европа.
България има сумарно повече статии от всички държави в Източна Европа взети заедно. INSAIT изпреварва и всеки един университет от страни като Израел, Холандия, Финландия, Австрия, Дания, Естония, Норвегия, Швеция, Испания, Италия и други. Чрез INSAIT към Софийския университет „Св. Климент Охридски”, за първи път от 40 години учени от българска институция публикуват статии на този форум.  
CVPR (хирш-5, индекс 422) е както най-авторитетният форум в областта на изкуствения интелект в света, така и на четвърто място сред всички научни форуми наред с Nature, The New England Journal of Medicine и Science. Статиите от INSAIT включват 6 стратегически направления като изкуствен интелект за разбиране на човешки движения, изкуствен интелект, който разбира видео, снимки и текст едновременно, автономно шофиране, генеративен AI, квантови изчисления за изкуствен интелект, изкуствен интелект за крайни устройства и други.
Институтът INSAIT към Софийския университет „Св. Климент Охридски” има стратегическата цел да превърне България във водещ център за изследвания и иновации в областта на информатиката и изкуствения интелект. Само преди месец институтът стана част от ELLIS – водещата европейска инициатива за изкуствен интелект. С това България стана първата страна в Източна Европа, която влиза в мрежата, където членуват Оксфорд, Кембридж, Макс-Планк и други."

Допълнителна бележка №1: 15 от 16-те статии са с участието на "българина" Ван Гуул в съавторство, като той е най-много 3-ти-4-ти (или един от последните автори), някои са със 7-8 автора. Често срещан трик, похват, страничен ефект на сериозните учени, пораснали в йерархията - всеки ръководител, чрез подчинените си поражда по множество статии, в които може да има минимално участие; и чрез съвместни проекти, което като дейност разбира се не е лошо нещо - да си надуват взаимно личния h-index и взаимно да си вдигат рейтингите и цитиранията. https://insait.ai/publications/
В една статия първият автор е българин - ученичката Рени Паскалева, браво на нея, и браво за това, че дават възможност на подобни деца да се изявяват (така както беше записано и в ОРИГИНАЛНАТА българска стратегия от 2003 г., която INSAIT повтарят - самият създател на стратегията, "моя милост", беше на 18 години, и една от целите на стратегията беше това продължение на Свещеният сметач да бъде: "
Институтът ще изпълнява и ролята на "крило", което намира, "закриля и окриля" даровити хора, за да подпомага развитието им и, ако те пожелаят, да се радва на таланта им в изследванията. https://www.oocities.org/todprog/ese/proekt.htm  Сравни обаче с авторите от други институти "от Източна Европа". INSAIT не е първият институт "на световно ниво" в източна Европа (разбира се, зависи от разтегливото определение "на световно ниво") - както невярно твърдят от самото начало, напоследък някъде смекчават "в региона", "в България". Подробности в други публикации и видео. Бележка #2: Много изследвания/разработки в информатиката, които се водят наука, всъщност са инженерство (както би се изразил Ричард Файман, от една конференция), а не фундаментална наука.

Коментари към поста: Todor Arnaudov Founder & Research & Development at The Sacred Computer (Artificial Mind) - Interdisciplinary Institute for Artificial General Intelligence [Looking for Partners ] 4d Браво на *ТЯХ* и на Ван Гуул, "про-та" са! Доколко успехът е "на/за България" е спорно. INSAIT има няколко първородни "гряха" и твърди неща, които са неверни :1) не е визионерски проект, защото по цели и по декларации е с ***20 години*** ЗАКЪСНЯЛО "очуждестранено" копие на истинския български проект за развитие на България с ИИ, с обявен 100-200 пъти раздут начален бюджет. Оригиналът е публикуван около май-юни 2003 г. на конкурса: "КАК БИХ ИНВЕСТИРАЛ 1 МИЛИОН С НАЙ-ГОЛЯМА ПОЛЗА ЗА РАЗВИТИЕТО НА СТРАНАТА". Има го архивиран тук: https://www.oocities.org/todprog/ese/proekt.htm Вижте и архива на "Капитал", победителите: реклама на кисело мляко и бира и "промяна на манталитета на българите". :)) Пророчествата от есето се сбъднаха на световно ниво и са размножени навсякъде. Защо дори не споменат оригиналната БЪЛГАРСКА работа щом го правят "за България"? Нима и ние не сме имали история и велики царе? Оригиналният "институт" е автор на "най-интелигентния речник" в света през 2007 г., създаден от един човек за 3 месеца от нулата: Smarty. Автор е и на ПЪРВИЯ В СВЕТА университетски курс по "Artificial General Intelligence" през 2010 и 2011 г. (Универсален изкуствен разум): 8 години преди курса "AGI" в MIT: без финансиране.(...) И др. ...
Vladimir Ivanov * 2nd degree connection 1w (edited) Като всеки държавно подпомогнат проект е повече от естествено съмнението, че или едни пари са прибрани от наши хора или има някаква по-голяма далавера от това да се пишат научни статии, за която може само да гадаем. Но факт, че науката и образованието никога не са били приоритет на държавно финансиране, па сега... See translationSee translation of this comment Vassil Popovski Author Technology and Product Leadership 1w (edited) Държава обаче тези пари не ги е дала още. Имаше обещания за около $10М на година. Повече за последната година са дошли от компании (Siteground - 12М лева, Google - $3M, VMware - $1.5M, Amazon - $1M, и много други). Не всичко в държавата ни е далаверки или наши хора. Сериозна наука се прави с много пари [Тодор: Колко са скромни!!! "От Любов към България!" За истинските визионери, 20 години преди тях, които са си "жертвали кариерата", не се кланят на великите чужденци, които са "цивилизовали" "новите визионери" и работят безплатно, няма и една стотинка на година или на десет години.] Vladimir Ivanov Частично съм прав, явно няма далавера и какво друго да се присвоява... Vassil Popovski "Сериозна наука се прави с много пари". Todor Arnaudov • You Founder & Research & Development at The Sacred Computer (Artificial Mind) - Interdisciplinary Institute for Artificial General Intelligence [Looking for Partners ] 4d         НЕ Е ВЯРНО. Да, ако под сериозна наука се разбира $$$$, "сериозните учени" я правят с много пари, защото умеят да се уреждат с тях и без пари нищо не вършат, както се изказва един колега в интервю, припомнено от БТВ, дали биха се върнали да работят за 1000 лв (през 2009 г.) Когато ИИ беше фантастика, двама студенти и Хинтън програмираха и обучиха AlexNet на две Geforce GTX 580 по 3 ГБ. Все едно сега две 3080 или 4080. Две 3090 са 2500-2600 лв втора ръка. Огромна част от следващите публикации на "най-престижните конференции" паразитират на подобни работи като променят дребни подробности. Първият в СВЕТА (не на "Балканския полуостров") курс по AGI се проведе в Пловдив с нулево финансиране (освен 200-тина лв хонорар за преподаването), а не в MIT или в ETH. https://artificial-mind.blogspot.com/2010/04/universal-artificial-intelligence.html Шейн Лег, чували ли сте го, съосновател на Дийпмайнд, през 2011 ми писа, че се радвал, че съм намирал идеите му за ценни. :)))))) Тогава това не минаваше за "сериозна" наука, както може да прочетете подробно в книгата "Пророците на мислещите машини: Изкуствен разум и развитие на човека: История, теория и пионери". Universal Artificial Intelligence (Artificial General Intelligence/AGI… artificial-mind.blogspot.com


* Съкратен вариант на по-горния коментар: Браво! "Пари при пари отиват"! Но получаването на допълнителен приход от частни източници не намалява държавната субсидия, а е довод тя да се увеличи, нали? НЕ Е ВЯРНО, че "хейтърите" казват, че INSAIT нищо не правят. ТЕ ПРАВЯТ, велики са, но на каква цена, кога, как, каква е реалната цел, къде е "корабът майка"? Дали други не могат да разработят сравними и по-добри технологии по-евтино от тях и без да са франчайз на ETH, EPFL, MIT и WALLMART, с 1/10 или 1/100 от техния бюджет? В бизнеса не се ли "оптимизираха разходите"? Къде е конкуренцията? Освен българската стратегия на едно дете чудо от 2003, повторена (копирана) от INSAIT без да цитират оригинала, имаше и БЪЛГАРСКИ проект и в роботиката, създаден от друг младеж, около 19-годишен, преди повече от 21-22 години, за разработка на хуманоиден робот. 21 години по-късно чичовци от чужбина, по на 45-50 години, когато технологиите вече са "готови" и лесни, започвайки със стотици милиони начален капитал, ни поучават какви са ми ти "визионери", "предприемачи", "новатори", а ние простите "ганьовци" защо недоволстваме, нищо не разбираме... :))) Ние бяхме 21-22 години преди вас, чичовци псевдовизионери, и имаше не един, а ДВА български проекта от 2003-2004, от двама различни тийнейджъри.

Read More

Thursday, March 28, 2024

// // Leave a Comment

Властелинът на пръстените на България II: Пътят към Еврозоната | The Lord of the Rings of Bulgaria - Part II [Deepfake movie]

Coming soon. Rendered with Sacred Computer's system Arnoldifier*, an optimized Deepfake library that produces amazing results even on 2 GB GPUs such as 750 Ti LOL. Featuring two facial characters and script, editing and voice acting by Todor.
Watch on Twenkid Studio's Youtube channel:  https://www.youtube.com/channel/UCgyhnsM9ed292HUAObXUsvw 

Скоро: Властелинът на пръстените на България II: Пътят към Еврозоната, нарисуван с Арнолдифайър, библиотеката за дийпфейк на "Свещеният сметач", която позволява да се получават впечатляващи резултати дори с 2 ГБ-ови видеокарти като 750 Ti (2014 г.). С участието на два лицеви модела и гласова игра от Тош.

Arnoldifier or DeepfaceLab-SAEHDBW is based on DeepfaceLab 2 by iperov, refactored for grayscale with some other additions by Twenkid.

Read More

Monday, March 11, 2024

// // Leave a Comment

BgGPT-7B-instruct-0.2 vs Mistral-7B-instruct-0.2 - Първи сравнения

Кратки новини във влог от Пловдив за BGGPT 0.2 на INSAIT и тестовете на Свещеният сметач в сравнение с MISTRAL - моделът майка. За кое постижение да поздравим INSAIT? Гледайте и другите клипове от поредицата за повече подробности и работа с модела и с други езикови модели в Гугъл Колаб и на ваш компютър, както и за доработки на БгГПТ от "Свещеният сметач". Следват продължения. https://youtu.be/qUONG7cVfiU
INSAIT, Машинно обучение, големи езикови модели, LLMs, BgGPT-7B-instruct, Mistral-7B-instruct, български език, интелигентност, изкуствен интелект, NLP, natural language processing, институт
http://github.com/twenkid https://github.com/Twenkid/GPT2-Bulgarian-Training-Tips-and-Tools/blob/main/README.md http://eim.twenkid.com http://twenkid.com
Read More