Чатботовете с изкуствен интелект като ChatGPT, Gemini и Grok бързо се превръщат в неразделна част от ежедневието ни. Използваме ги за всичко – от писане на мотивационни писма и проучване на правни казуси до обсъждане на лични и медицински въпроси. Интересното е, че според последни проучвания, една от най-популярните им употреби е за терапия, тъй като хората се чувстват сигурни да споделят проблеми, които не биха обсъдили с друг човек.
В бизнеса те също се доказаха като мощни инструменти за изготвяне на стратегии и анализ на корпоративни данни. Същественото предимство е усещането за анонимност и вярата, че разговорите ни ще останат поверителни.
Тук обаче се крие и големият проблем. За разлика от лекарите, адвокатите или терапевтите, тези чатботове не са обвързани със същите строги правила за конфиденциалност. Когато защитните им механизми се провалят или когато ги използваме, без да разбираме напълно рисковете, може да бъде разкрита изключително чувствителна информация.
Този риск не е само хипотетичен – в последно време се съобщи за няколко подобни инцидента. Това повдига тревожния въпрос: ако не преосмислим начина, по който използваме, регулираме и защитаваме тези технологии, не се ли движим към катастрофа с поверителността?
Как данните ни изтичат в публичното пространство?
Съществуват няколко начина, по които информация, която смятаме за лична, може да стане публично достояние.
Неволно публично споделяне: Скорошни случаи с ChatGPT показаха, че потребители, без да осъзнават, са направили разговорите си видими в интернет чрез функцията за споделяне. Тази опция е създадена за съвместна работа, но е довела до индексирането на чатовете от търсачки. В някои от тези “изтекли” разговори се съдържат имена и имейл адреси, което позволява идентифицирането на участниците. По подобен начин наскоро стана ясно, че близо 300 000 разговора с чатбота Grok са станали публично видими.
Пробиви в сигурността: Проблемът не е само в неразбирането на функциите от страна на потребителите. Изследователи по киберсигурност откриха, че чатботът Lena на Lenovo може да бъде “подмамен” чрез злонамерени команди (prompt injections) да разкрие данни за сесията на потребителя, което дава достъп до акаунти и история на разговорите.
Защо заплахата е толкова сериозна?
Има няколко фактора, които правят тази ситуация особено опасна.
Психологическата клопка: Усещането за анонимност, докато разговаряме с чатбот, това ни кара да споделяме повече, отколкото бихме споделили с човек, без да мислим за последствията. Това означава, че огромни обеми чувствителна информация – медицинска, финансова, лична – се съхраняват на сървъри, които нямат същата правна защита като архивите на лекар или адвокат. Ако тази информация бъде компрометирана, последствията могат да варират от неудобство до изнудване, кибер измами и правни проблеми.
Феноменът „Скрит ИИ“ (Shadow AI): Все по-голям проблем е неофициалното използване на изкуствен интелект от служители на работното място, в разрез с фирмените политики. Те качват финансови отчети, клиентски данни или друга поверителна информация в публични чатботове, заобикаляйки официалните протоколи за сигурност. В силно регулирани сектори като здравеопазване, финанси и право, това е бомба със закъснител.
Какво можем да направим?
За лична защита:
Златното правило е никога да не се споделя с чатбот информация, която не бихме искали да видим публикувана публично. Въздържайте се от обсъждане на детайли за вашето здраве, финанси или лични връзки.
Няма такова нещо като „личен разговор“: Помнете, че всяка дума, която въвеждате, най-вероятно се съхранява някъде. В случая с ChatGPT ситуацията е още по-сериозна – към момента OpenAI е задължен със съдебна заповед в САЩ да пази всички разговори, дори тези, които потребителите са изтрили или са провели в режим на временен чат.
За бизнеса и организациите:
Всички компании трябва да имат строги правила за използването на ИИ. Редовните обучения и одити са ключови, за да се гарантира, че служителите разбират рисковете и да се ограничи практиката на „скрит ИИ“.
Като общество:
Трябва да осъзнаем, че не можем да разчитаме технологичните гиганти като OpenAI, Microsoft и Google сами да регулират себе си. Техният основен приоритет в момента е скоростта и бързото пускане на нови продукти на пазара в надпреварата за доминация.
Въпросът не е просто дали можем да се доверим на чатботовете да пазят тайните ни днес, а дали те ще продължат да го правят утре. Ясно е, че зависимостта ни от тях расте много по-бързо от способността ни да гарантираме тяхната поверителност и нашата сигурност.