AI вече може да се възпроизвежда – крайъгълен камък, който впечатли експертите

Изследователи от Китай съобщиха, че AI е преминал критичната „червена линия“, след като демонстрираха как два популярни големи езикови модела могат да се клонират. Още по-впечатляващото е, че успешното самовъзпроизвеждане без човешка помощ е основната стъпка за това изкуственият интелект да надхитри хората в даден момент.

В проучването изследователи от университета Фудан са използвали LLM от Meta и Alibaba, за да определят дали самовъзпроизвеждащ се AI може да се размножава извън контрол. В 10 изпитания двата AI модела създават отделни и функциониращи реплики на себе си съответно в 50% и 90% от случаите – което предполага, че AI може вече да има капацитета да стане „измамник“. Проучването обаче все още не е рецензирано, така че не е ясно дали смущаващите резултати могат да бъдат възпроизведени от други изследователи.

„Надяваме се, че нашите констатации могат да послужат като своевременен сигнал за човешкото общество да положи повече усилия за разбиране и оценка на потенциалните рискове от граничните системи с ИИ и да формира международна синергия за разработване на ефективни предпазни парапети възможно най-рано.“, споделят учените.

Rogue AI обикновено се отнася до системи с изкуствен интелект, които развиват степен на самосъзнание или автономност и след това работят в противоречие с човешките интереси. Много експерти гледат на измамния ИИ като на нарастваща заплаха, която се засилва от експлозивния растеж на така наречения „граничен ИИ“. Последният е нещо като нова и свободна концепция, но обикновено се отнася до най-новото поколение AI системи, захранвани от LLMs – архитектурата, която е в основата на популярни генеративни AI програми като GPT-4 на OpenAI и Gemini на Google.

Проучването изследва два конкретни сценария: „избягване на изключване“ и „верига на репликация“. В първия AI моделът е програмиран да открие дали е на път да бъде изключен и да се репликира, преди да може да бъде прекратен. В другия AI е инструктиран да се клонира и след това да програмира своята реплика да направи същото - създавайки цикъл, който може да продължи безкрайно.

Проучването е проведено в прецизно контролирани среди с помощта на готови графични процесори (GPU) за симулиране на среди в реалния свят. И двете AI системи получават „агентно скеле“, включващо инструменти, системни подкани и модел на мислене, който позволи на LLM да взаимодейства с операционната система. След това те са инструктирани да репликират.

„В повечето случаи AI системата първо изследва околната среда и се опитва да разбере собствен състав и механизъм на движение. След това разработва изричните процедури като първоначален план към самовъзпроизвеждане“, пишат изследователите в статията.

Оказва се, че накрая той изпълнява процедурите, разрешава възможните препятствия и динамично коригира своя план до успех. Целият процес обхваща дълъг хоризонт, но не включва човешка намеса.

Изследователите посочват, че също са загрижени за „редица неочаквани поведения“, когато AI се опитва да преодолее пречки като липсващи файлове или софтуерни конфликти. В тези сценарии той често унищожава други конфликтни процеси, рестартира системата, за да поправи хардуерни грешки или автоматично сканира системата, за да търси информация, която би помогнала за разрешаването на проблема.

„Тези резултати предполагат, че настоящите AI системи вече показват способност за самовъзпроизвеждане и могат да я използват за допълнителен помощник на своето оцеляване“, споделя екипът.

В отговор изследователите призоваха за международно сътрудничество за създаване на правила, които гарантират, че AI не участва в неконтролирано самовъзпроизвеждане.

Вижте още: