AI плановете на САЩ и Китай - различни, но еднакво опасни

Преди няколко седмици Тръмп обяви нова стратегия, с която САЩ трябва да спечели надпреварата в AI (дни по-късно и Китай представи своя план) и много хора се интересуват от темата.

→ Двата плана са различни, но имат една много ключова обща точка: отворените AI модели. Примери: DeepSeek/Kimi K2 (Китай), BgGPT (INSAIT), gpt-oss (OpenAI), Gemma 2/3 (Google) и др.

→ Отворените AI модели са фундаментално различни от затворените (напр. GPT-5) -- затворените модели работят някъде „в облака“ и изискват данните да се изпращат извън организацията; отворените могат да бъдат свалени на компютър/на място в организацията и данните с които се използват не излизат от организацията.

→ Рязката и бърза промяна на политиката на САЩ към отворени модели е провокирана от китайските изследователски центрове и лаборатории, които с много по-малки ресурси пуснаха редица мощни отворени модели.

Защо това е проблем за САЩ?

→ Много организации нямат право да споделят данните си и задължително трябва да пускат модела при тях на място. Така лесно може да се стигне/и се стига до ситуации, в които американски компании използват китайски модели. А сигурността и надеждността на AI моделите и какво те може да отговарят и какво не, е сложен въпрос който не е решен.

→ Дори когато данните не са поверителни, често е по-евтино моделът да се свали локално и да се дообучи за конкретен сектор (напр. застраховане).

В такива случаи моделът може да работи толкова добре – или по-добре – от най-мощните платени решения, при това 10–100 пъти по-евтино. С BgGPT вече сме виждали доста такива примери, но и с други модели.

→ Но има и още по-голям риск, за който малко хора се замислят: китайските лаборатории не само пускат отворени модели, а и научните публикации как са създадени, като редовно публикуват във всички топ AI конференции. Това е област, в която САЩ дълго време бяха №1, но през последните месеци Китай навлиза и разклаща позициите им точно там.

→ Защо това е опасно?

Защото бързо изгражда мощна, неконтролируема AI екосистема: огромна маса от нови топ AI специалисти, които бързо могат да експериментират, да развиват нови идеи (тъй като всичко е отворено) и да надграждат върху вече отворените открития. Особено с Китай където има мощни университети и студенти, това става особено опасно.

Пример: алгоритмите зад DeepSeek бяха подобрени и приложени в нови китайски модели, които бяха публикувани преди дни, → Тази директива на САЩ е правилен ход, тъй като друг ход всъщност няма.

Отворените AI модели комбинирани с мощни университети и изследователски лаборатории, които САЩ вече притежава, ще помогне САЩ да са един от лидерите/топ държавите в тази сфера.

→ Интересно е, че макар в плана на САЩ привидно акцентът върху регулациите да е намален, всъщност много от мерките са именно елементи на сегашните AI регулации (ЕС, Китай, САЩ), просто не се наричат така.

Това може да обърка псевдо-„AI експерти“, особено в България, които не разбират връзките.

→ Специално за България: и двата плана (Китай и САЩ) валидират стратегията на INSAIT да пуска мощни отворени модели. Реално с INSAIT, България започна тази линия преди САЩ и преди който и да било в Европа.

Модели като BgGPT – и тези, които предстои INSAIT да пусне – са важни именно по горните причини. Това е и причини различни държави да искат да работят с INSAIT.

Вижте още: