Потребителски групи от 13 европейски държави настояват националните власти да започнат „спешни разследвания“ на генеративния изкуствен интелект (AI). Те също призовават правителствата да приложат съществуващото законодателство за защита на потребителите.
Generative AI е вид изкуствен интелект, който може да създава текст, изображения, видео и друго съдържание, което прилича на съдържание, създадено от хора. По думите на Урсула Пахл, заместник-генерален директор на Европейската организация на потребителите (BEUC), тази технология отваря всякакви възможности за потребителите, но има сериозни опасения за това, че тези системи могат да манипулират или навредят на някого. Те могат също така да бъдат използвани за разпространение на дезинформация, увековечаване на съществуващи пристрастия, които засилват дискриминацията, или да бъдат използвани за различни измами.
Какво провокира притесненията сред бизнеса и обществото?
Откакто AI приложението ChatGPT стартира в края на миналата година, то постави рекорд за най-бързо нарастваща потребителска база и предизвиква все повече дискусии относно скоростта на развитие на изкуствения интелект и как да го регулираме.
Изявлението на 13-те европейски потребителски групи идва след като Forbrukerrådet, норвежка потребителска група и член на BEUC, публикува нов доклад за рисковете, свързани с генеративния AI. Докладът подчертава заплахите от неточни резултати и използването на AI технология за манипулиране на потребителите. Той също така обхваща опасения относно сигурността, поверителността, автоматизирането на човешки задачи и въздействието на изкуствения интелект върху околната среда.
„Призоваваме органите за безопасност, данни и защита на потребителите да започнат разследвания сега и да не чакат безучастно всички видове вреди на потребителите да са се случили, преди да предприемат действия“, казва още г-жа Пахл.
Законът за ИИ на ЕС – как да разбираме амбициозните планове за регулиране на изкуствения интелект?
Европейският парламент постигна съгласие за преговорната си позиция относно широкообхватен Закон за изкуствения интелект миналата седмица, като одобри обща забрана на базирани на изкуствен интелект инструменти за разпознаване на лица в реално време и забрана за натрапчиво и дискриминационно използване на технологията, наред с други мерки. Законът за ИИ беше предложен за първи път от Европейската комисия през 2021 г. и ЕС се опитва да приключи преговорите до края на годината. Това ще бъде първият цялостен закон, регулиращ изкуствения интелект.
„От решаващо значение е ЕС да направи този закон възможно най-непроницаем, за да защити потребителите“, казва Урсула Пахл по този въпрос. „Всички AI системи, включително генеративният AI, се нуждаят от обществен контрол и публичните власти трябва да възстановят контрола върху тях.“, допълва още тя.
Много експерти, политици и институции напоследък предупреждават за опасностите от изкуствения интелект. Генералният секретар на ООН Антонио Гутериш каза миналата седмица, че трябва да има координирани глобални действия по темата и одобри създаването на международен наблюдател за изкуствения интелект.
В същото време Европейският съвет за защита на данните създаде работна група за ChatGPT „за насърчаване на сътрудничеството и обмен на информация относно възможни действия по правоприлагане, извършвани от органите за защита на данните“.
Създателят на ChatGPT Сам Алтман дори каза пред Конгреса на САЩ, че макар да вярва, че изкуственият интелект ще бъде от полза за човечеството, той трябва да бъде регулиран. Алтман спомена МААЕ, ядрения надзорен орган на ООН, като пример за това как светът се е обединил, за да наблюдава ядрената енергия. Тази агенция е създадена в годините след като САЩ хвърлят атомни бомби върху Япония в края на Втората световна война. Неговата идея е подобен международен орган да съществува и за изкуствения интелект.
В този смисъл звучи и скорошното изявление, публикувано от Центъра за безопасност на ИИ, подписано от експерти по ИИ и обществени фигури. В него се казва, че „намаляването на риска от изчезване от ИИ трябва да бъде глобален приоритет наред с други рискове от обществен мащаб като пандемии и ядрена война“.