Къде се крие основният конфликт между Anthropic и Пентагона
Той е заради отказа на Anthropic да премахне механизмите за безопасност (guardrails) на своите модели.

Ако те бъдат премахнати, тогава моделите могат да бъдат директно използвани за цели, които са изключително опасни, например масово наблюдение на хора, автономно управление на оръжия и др., което е морален проблем.

Няколко коментара:

- За масовото наблюдение на хора: преди 2 години имахме статия (и код), която за първи път показа рисковете на AI моделите за идентифициране на хора и получаване на информация за тях от много малко (публични) данни (например снимка в тяхна стая, не лична или уж анонимен текст). За минути AI може да конструира информация за човек, която преди това е отнемала седмици на различни агенции (и която даже я няма в данните за обучение на модела, което беше тотално нов вектор на атака).

Тази статия беше отличена във форума за „бъдещето на поверителността“, който избира най-добрите статии в света в областта, представляващи интерес за политиците в Конгреса на САЩ, федералните агенции на САЩ и др, и беше представена в Сената на САЩ (линк в коментарите).

- По това време моделите бяха много по-малки и по-слаби. Днес тази функционалност е стотици пъти по-мощна и за секунди може да конструира ясен профил на човек, като свързва данни от напълно различни години, места, ситуации, много от които на пръв поглед са несвързани.

Разбира се, има случаи, в които това е полезно (разкриване на престъпления), но има и случаи, в които не е (наблюдение на хора). Тоест, премахването на guardrails, нещо, което знаем как се прави технически, вкл. за отворени модели, които също са мощни и работят за тази цел, е морален въпрос и ако се прави, трябва да се прави много внимателно. - Специално за тази статия: днес тя има стотици цитирания и доведе до още по-добри механизми за събиране на информация.

Тогава имаше възможност да се създаде компания, но не го направихме поради морални съображения, макар че това не попречи на други да създадат такива компании за $$$. В ретроспект днес не е ясно, дали е било добре, че публикувахме статията тогава. За съжаление (или не) има фундаментална причина защо моделите са толкова добри в това (накратко: милиардна база данни от сложни корелации).

Общо взето: AI днес е абсолютно стратегически и ще се използва все повече за всякакви цели. Със сигурност всяка държава, която не знае как да използва тези модели, да ги създава, модифицира, наглася и т.н. за специфичните си нужди (вкл. и защити от AI атаки върху критична инфраструктура), ще има огромни проблеми и ще е непрекъснато под огромен риск.

Вижте още: