СПОМЕНИ ОТ ЗОРАТА НА МИКРОПРОЦЕСОРИТЕ, ПЕРСОНАЛНИТЕ КОМПЮТРИ И КОМПЮТЪРНИТЕ
АРХИТЕКТУРИ:ПИСМА МЕЖДУ ВЛАДИМИР ШКУРТОВ И ТОДОР АРНАУДОВ
ОТ 12.2004 – 1.2005 г.:
създаването
на ИЗОТ 0220 и внедряването на принтера DZM 180 в ЦИИТ, причини за избора на 8086/8088 от IBM за IBM-PC, теоретична разлика между
периферни и запомнящи устройство; Zilog, Intel, Microsoft, IBM, Apple през 1980-те и началото на
1990-те …25.3.2025Четете на SIGI-2025: https://github.com/Twenkid/SIGI-2025/tree/mainhttps://github.com/Twenkid/SIGI-2025/blob/main/Shkurtov-Arnaudov-Spomeni-2_SIGI-2025.pdfВижте...
Tuesday, March 25, 2025
In
История,
Пловдивски Университет,
ПУ,
Статии
by Todor "Tosh" Arnaudov - Twenkid
//
Tuesday, March 25, 2025
//
Leave a Comment
СПОМЕНИ ОТ ЗОРАТА НА МИКРОПРОЦЕСОРИТЕ, ПЕРСОНАЛНИТЕ КОМПЮТРИ И КОМПЮТЪРНИТЕ АРХИТЕКТУРИ - Владимир Шкуртов и Тош
Read More
Friday, March 14, 2025
In
Computer History,
български,
История,
Конференции
by Todor "Tosh" Arnaudov - Twenkid
//
Friday, March 14, 2025
//
Leave a Comment
СПОМЕНИ ЗА УТРОТО НА БЪЛГАРСКАТА ИЗЧИСЛИТЕЛНА ТЕХНИКА: верифицирането на СМ 601; първият български микрокомпютър е ИЗОТ 0220 – а не ИМКО ...
Владимир Шкуртов, Тодор Арнаудов, СПОМЕНИ ЗА УТРОТО НА БЪЛГАРСКАТА ИЗЧИСЛИТЕЛНА ТЕХНИКА: верифицирането на СМ 601; първият български микрокомпютър е ИЗОТ 0220 – а не ИМКО; ИЗОТ 0250, ИЗОТ 0310, СМ-4, ИЗОТ 1002C, ИЗОТ 1003C, ЦИИТ и други, или ПИСМА МЕЖДУ ВЛАДИМИР ШКУРТОВ И ТОШ ОТ 1.2005 гПрочетете в статията от конференцията "Мислещи машини 2025" на Свещеният сметач спомени на Владимир Шкуртов, които бях успял да съхраня преди 20 години през януари 2005 г. и наскоро открих архив с писмата. Владимир е един от пионерите на микропроцесорната...
Tuesday, February 11, 2025
In
AGI,
AI,
Artificial General Intelligence,
Artificial Intelligence,
BgGPT,
NLP,
Programming,
български,
За Тош,
История,
Обработка на естествен език
by Todor "Tosh" Arnaudov - Twenkid
//
Tuesday, February 11, 2025
//
Leave a Comment
GPT2-Medium-BG 2021 - the biggest LLM for Bulgarian before INSAIT's BgGPT 2024
Recently I finally uploaded to Huggingface the biggest known LLM for Bulgarian before the release of INSAIT's BgGPT in 2024. In 2024 or so the GPT2 weights were available in Mega.nz. The training procedure and the method for published in 2021. https://huggingface.co/twenkid/gpt2-medium-bg GPT2-Medium-BG 2021Updates 13.1.2025: The dataset was discovered, adding more details about it.GPT2-Medium 345M for BulgarianThe model was created and trained from scratch, using tensorflow in free Google Colab T4. The research experiment...