Преди няколко седмици Тръмп обяви нова стратегия, с която САЩ трябва да спечели надпреварата в AI (дни по-късно и Китай представи своя план) и много хора се интересуват от темата.
→ Двата плана са различни, но имат една много ключова обща точка: отворените AI модели. Примери: DeepSeek/Kimi K2 (Китай), BgGPT (INSAIT), gpt-oss (OpenAI), Gemma 2/3 (Google) и др.
→ Отворените AI модели са фундаментално различни от затворените (напр. GPT-5) -- затворените модели работят някъде „в облака“ и изискват данните да се изпращат извън организацията; отворените могат да бъдат свалени на компютър/на място в организацията и данните с които се използват не излизат от организацията.
→ Рязката и бърза промяна на политиката на САЩ към отворени модели е провокирана от китайските изследователски центрове и лаборатории, които с много по-малки ресурси пуснаха редица мощни отворени модели.
Защо това е проблем за САЩ?
→ Много организации нямат право да споделят данните си и задължително трябва да пускат модела при тях на място. Така лесно може да се стигне/и се стига до ситуации, в които американски компании използват китайски модели. А сигурността и надеждността на AI моделите и какво те може да отговарят и какво не, е сложен въпрос който не е решен.
→ Дори когато данните не са поверителни, често е по-евтино моделът да се свали локално и да се дообучи за конкретен сектор (напр. застраховане).
В такива случаи моделът може да работи толкова добре – или по-добре – от най-мощните платени решения, при това 10–100 пъти по-евтино. С BgGPT вече сме виждали доста такива примери, но и с други модели.
→ Но има и още по-голям риск, за който малко хора се замислят: китайските лаборатории не само пускат отворени модели, а и научните публикации как са създадени, като редовно публикуват във всички топ AI конференции. Това е област, в която САЩ дълго време бяха №1, но през последните месеци Китай навлиза и разклаща позициите им точно там.
→ Защо това е опасно?
Защото бързо изгражда мощна, неконтролируема AI екосистема: огромна маса от нови топ AI специалисти, които бързо могат да експериментират, да развиват нови идеи (тъй като всичко е отворено) и да надграждат върху вече отворените открития. Особено с Китай където има мощни университети и студенти, това става особено опасно.
Пример: алгоритмите зад DeepSeek бяха подобрени и приложени в нови китайски модели, които бяха публикувани преди дни, → Тази директива на САЩ е правилен ход, тъй като друг ход всъщност няма.
Отворените AI модели комбинирани с мощни университети и изследователски лаборатории, които САЩ вече притежава, ще помогне САЩ да са един от лидерите/топ държавите в тази сфера.
→ Интересно е, че макар в плана на САЩ привидно акцентът върху регулациите да е намален, всъщност много от мерките са именно елементи на сегашните AI регулации (ЕС, Китай, САЩ), просто не се наричат така.
Това може да обърка псевдо-„AI експерти“, особено в България, които не разбират връзките.
→ Специално за България: и двата плана (Китай и САЩ) валидират стратегията на INSAIT да пуска мощни отворени модели. Реално с INSAIT, България започна тази линия преди САЩ и преди който и да било в Европа.
Модели като BgGPT – и тези, които предстои INSAIT да пусне – са важни именно по горните причини. Това е и причини различни държави да искат да работят с INSAIT.