Фалшивото (понякога наричано синтетично) съдържание се разрасна драстично през последните няколко години, като проучвания на Amazon показват, че до 60% от съдържанието в интернет е генерирано от изкуствен интелект. Не всичко това, разбира се, е „Дийпфейк“, което по същество означава съдържание, предназначено да изглежда наистина подвеждащо. Но през последните години видяхме дийпфейкове, използвани за манипулиране на избори , извършване на измами и кражби, както и за създаване на изображения на личности без тяхното съгласие.
Тези проблеми вероятно само ще се влошават, тъй като инструментите с изкуствен интелект стават все по-мощни и достъпни. Grok 3, създаден от xAI на Илон Мъск, например, вече е безплатен за всички потребители на X (Twitter) и може да се използва за създаване на убедителни дийпфейкове на реални хора.
Съществуват много инструменти , които могат да предпазят от измама или злоупотреба, извършени чрез дийпфейк. Инструментите за откриване, базирани на изкуствен интелект, могат да открият, с различна степен на успех, дали съдържанието е генерирано дигитално или манипулирано. Многофакторното удостоверяване и други инструменти за проверка на цифровата идентичност също могат да предпазят от атаки чрез социално инженерство.
Но технологията за дийпфейкове се развива и усъвършенства толкова бързо, че това не е достатъчно, поради което образованието, критичното мислене и осведомеността са също толкова важни, ако не и по-важни, ако искаме да предприемем стъпки за самозащита.
Корпоративната среда като средство за обучение
Днес фирмите трябва да обучават служителите си, за да могат те да оценяват критично съдържанието и информацията, които им се предоставят. И като отделни личности, ние трябва да разбираме как и защо тези с лоши намерения ще се опитат да повлияят на нашите мисли и избори - включително и на демократичния ни избор.
Дийпфейковете създават уникални предизвикателства, които изискват някои специфични умения за справяне:
Проверката на фактите и верификацията са две очевидни неща – днес е по-важно от всякога да проверяваме източниците си и да определяме откъде наистина идва информацията. Facebook са разработили някои функции, които предупреждават потребителите, когато информацията може да е подвеждаща, например когато идва от източници, които сякаш се опитват да скрият самоличността си.
Въпреки това, те са критикувани за премахването на функциите си за проверка на фактите, което може да се разглежда като стъпка назад.
Специалистите в областта посочват три неща, които трябва да се научим да обмисляме за всяко съдържание, което консумираме. Те са:
Опитва ли се да ми повлияе?
Вероятно ли е да се е случило?
Мога ли да се доверя на човека, който ми го казва?
Подчертаването на важността на този подход към критичното мислене за съдържанието е жизненоважно за предпазването ни от въздействието на дийпфейковете.
Адаптиране към един свят след истината
Технологията Deepfake ще става все по-сложна. Вероятно ще стигнем до момент, в който дори най-добрите инструменти за откриване не винаги ще могат да забелязват фалшиви видеоклипове, изображения или аудио. Именно затова човешките защитни механизми – критично мислене, осъзнатост и разсъждение – вероятно ще останат жизнеспособни защити за по-дълго време.
Организациите трябва да реагират на това сега, за да гарантират, че всички разбират процедурите и политиките относно проверката и критичната оценка на информацията, преди да се предприемат действия по нея. За отделните хора осъзнаването на опасностите от дезинформацията, свързана с изкуствения интелект, независимо дали става въпрос за опит да повлияят на това за кого гласуваме или на кого даваме пари, трябва да стане втора природа.