Отвъд сензацията: Какво означават за бизнес лидерите прозренията на Apple за ИИ

Скорошен изследователски труд на Apple предизвика сериозен отзвук в технологичната общност. Той разкрива значителни и неподозирани досега ограничения в най-модерните съвременни модели.

Докладът, озаглавен „Илюзията за мисленето“, демонстрира, че разсъжденията от типа „верига от мисли“, прилагани от усъвършенствани модели като GPT-4, Deep Seek и Claude Sonnet, се сблъскват с „пълен колапс на точността“ при достигане на определен праг на сложност.

Особено обезпокоителен е фактът, че след като задачите достигнат висока степен на сложност, предоставянето на повече изчислителна мощ, токени или данни не води до съществено подобрение.

Това откритие има преки последици за амбициозните цели, поставяни пред изкуствения интелект, като решаването на глобални предизвикателства от мащаба на изменението на климата, недостига на енергия или световната бедност.

Големите модели на разсъждение (Large Reasoning Models, LRM) са двигателите за решаване на проблеми, които захранват т.нар. „агентен изкуствен интелект“. Мнозина ги смятат за стъпка по пътя към общ изкуствен интелект (AGI) – такъв, който може да прилага наученото към всяка задача, подобно на хората. В разработването им са направени огромни инвестиции, тъй като те се считат за най-модерните и полезни модели, налични днес.

Това повдига въпроса дали милиарди долари са инвестирани в технология, която по същество е задънена улица. Отговорът изглежда не е еднозначен. Вместо това, ситуацията предлага важни уроци за бизнесите и организациите, които се стремят да отключат истинския потенциал на изкуствения интелект.

Констатациите

Основната теза на доклада е, че „мисленето“ на изкуствения интелект може да е просто илюзия, а не реален аналог на обективните разсъждения, които хората прилагат за решаване на проблеми в реалния свят. Това се подкрепя от откритията за „срив на точността“, които показват, че макар LRM да се справят отлично с управлението на задачи с ниска сложност, с увеличаването на сложността те в крайна сметка достигат точка, в която се провалят напълно.

Едно от най-неочакваните открития е, че моделите изглежда се „отказват“, използвайки по-малко токени и полагайки по-малко усилия, след като задачата стане твърде сложна за тях. Дори ако им бъдат дадени изрични инструкции как да решат проблема, те често не го правят, което поставя под въпрос възможността това поведение да бъде преодоляно чрез допълнително обучение.

Това са важни открития, тъй като в сферата на бизнес приложенията на ИИ често се смята, че „по-голямото е по-добро“ – по-големи масиви от данни, по-сложни алгоритми и повече токени. Констатациите на Apple показват, че след определена точка тези предимства на мащаба губят своята ефективност и накрая изчезват.

Следователно, полезността на ИИ намалява драстично, когато от него се изисква да изпълнява твърде сложни задачи, като формулиране на общи стратегии на високо ниво в хаотични реални сценарии или сложни правни разсъждения.

Какво означава това за бизнеса днес?

Тези констатации не бива да се разглеждат като непреодолима пречка, а по-скоро като сигнал, че генеративният езиков изкуствен интелект не трябва да се третира като магическо решение за всички проблеми.

Оттук могат да се извлекат три ключови урока за бизнеса:

Първо, фокусирането на ИИ върху структурирани задачи с ниска до средна сложност има много по-голям шанс да доведе до желания резултат. Например, една адвокатска кантора не бива да очаква ИИ просто да ѝ генерира печеливша стратегия за сложно дело. Проблемът е твърде комплексен и отворен, което неизбежно ще доведе до генеричен, безполезен резултат, след като моделът достигне предела на своите възможности за разсъждение. Фирмата обаче може успешно да го използва, за да извлича релевантни клаузи от договори, да създава обобщения на съдебна практика и да сигнализира за потенциални рискове.

Второ, изследването подчертава критичното значение на „човешкия фактор“ (human-in-the-loop) – необходимостта от човешки надзор за гарантиране на отговорно и надеждно използване на ИИ.

Трето, когато съществува опасност от „срив на точността“, е от решаващо значение да се развие способността за разпознаване на предупредителните знаци – като например спад в използването на токени, когато моделът се отказва от опитите си за разсъждение.

Ключът е в това да се използват силните страни на изкуствения интелект, като същевременно се смекчава въздействието на неговите слабости.

Стигнал ли е изкуственият интелект до задънена улица?

Изследването на Apple не предвещава „край на пътя“ за ИИ. Напротив, резултатите от него трябва да послужат като ориентир за бизнеса – да насочат усилията към области с висок потенциал за успех и да помогнат за изграждането на устойчивост срещу провалите на технологията.

Разбирането на ограниченията на изкуствения интелект не бива да възпира неговото внедряване. Вместо това, то помага за избягване на ситуации, които биха могли да доведат до сериозни вреди, щети или просто до загуба на време и ресурси поради срив в разсъжденията.

Агентният ИИ има потенциала да помогне в това отношение, със способността си да използва различни инструменти за преодоляване на пропуските в ситуации, където самото разсъждение е недостатъчно. По подобен начин концепцията за обясним ИИ (Explainable AI) е важна, защото проектирането на прозрачни системи означава, че при възникване на срив ще има по-добро разбиране за причините.

В крайна сметка, нереалистично е да се очаква изкуственият интелект да работи перфектно и да предлага най-доброто решение за всеки възможен проблем. Колкото по-добре обаче се разбират неговите възможности и лимити, толкова по-ефективно могат да се използват силните му страни за създаване на реална стойност.

Вижте още:

• Проучване на IWG и ARUP показва, че хибридната работа може да повиши производителността с 11%, като потвърждава и надгражда съществуващите...