В ерата на перфектната илюзия: Става все по-трудно да разграничим AI-генерираното съдържание от реалното
Новите модели от рода на Sora 2 на OpenAI заличават визуалните следи на изкуствения интелект и поставят под въпрос границата между реалност и илюзия
&format=webp)
Доскоро изкуственият интелект оставя следи, по които лесно можехме да познаем, че едно изображение не е създадено от човек. По-старите версии на генеративните AI технологии често добавяха по един излишен пръст или допълнителен крайник.
Зъбите изглеждаха странни и неестествени, кожата беше прекалено розова – като в анимационен филм на Pixar. Моделите трудно се ориентираха в триизмерното пространство и често не се справяха с логичното представяне на физическия свят. Ако ги помолехте да ви генерират снимка на сьомга, плуваща в река, те можеха да ви покажат парче сорова сьомга, което се носи по течението.
Да, това със сигурност беше „долината на зловонието“ – странната граница между реалното и изкуственото. Но поне знаехме, че се намираме някъде там.
Но днес нещата стоят по различен начин. Въпреки че все още има някои аналогови начини да се открие дали дадено съдържание е генерирано от изкуствен интелект, визуалните „подсказки“ постепенно избледняват – и дори изчезват.
Ограниченото пускане на Sora 2 – най-новият модел за видео от OpenAI – със сигурност значително ускорява този процес, казват експерти от няколко компании за откриване на фалшификации.
Това означава, че скоро може напълно да бъдем зависими от дигитални инструменти, за да различаваме реалното от генерираното, твърди Fast Company.
Последиците от това са сериозни – не само за обикновените потребители в интернет, но и за институциите, които трябва да защитават името или облика си от злоупотреба.
„Дори за анализатори като мен, които непрестанно следят развитието на тази индустрия, става изключително трудно – особено при изображенията“, казва Франческо Кавали, съосновател на компанията Sensity AI, пред Fast Company. „Формите, цветовете, хората – всичко вече изглежда перфектно. Без помощта на специален инструмент вече е почти невъзможно за средностатистическия потребител в интернет да разбере дали едно изображение, видео или аудио е генерирано от изкуствен интелект.“
Добрата новина е, че към момента все още са налице някои разпознаваеми белези, които могат да ни подскажат, че дадено съдържание е генерирано с помощта на изкуствен интелект. Изследователите продължават да търсят нови. Въпреки че „допълнителните пръсти“ вече са почти изчезнали, AI моделите все още изпитват затруднения с изписването на текст, обяснява София Рубинсън, старши редактор в Reality Check – издание на компанията NewsGuard, която се занимава с проверка на достоверността на информацията.
„Помните ли онова видео със зайчета, които подскачат на батут, което се оказа фалшиво?“, казва тя. „Понякога просто трябва да си зададете въпроса – наистина ли зайците правят това?“
Рубинсън добавя, че понякога може да се забележи дали част от видеото е замъглена – това може да е било мястото, където се е намирал водния знак на Sora 2. Също така е полезно да се провери кой е публикувал клипа. Ако отворите страницата на акаунта и видите куп подобни видеа, вероятно гледате съдържание, генерирано от AI.
Но имената на профилите невинаги са надеждни – някои хора си регистрират потребителски имена в Sora 2, свързани с известни личности, въпреки правилата на OpenAI, които забраняват използването на чужди образи.
В крайна сметка ще трябва да се научим да разпознаваме „стила“ и особеностите на всеки различен модел, смята Сивей Лю, професор в Държавния университет на Ню Йорк в Бъфало, който изследва дийпфейк съдържание.
Например, гласовете, генерирани от Sora 2, понякога звучат прекалено бързо – феномен, който някои вече наричат „AI акцент“. Но според Лю тези признаци са много фини и лесно се пропускат при обикновено гледане.
И тъй като технологиите непрекъснато се усъвършенстват, дори тези следи вероятно скоро напълно ще изчезнат. „С всеки нов модел изчезват типичните визуални несъответствия, по които преди разпознавахме AI“, казва Еманюел Салиба, бивша журналистка, която сега ръководи отдела за разследвания в GetReal Security – компания, специализирана в откриване на манипулирано дигитално съдържание.
Докато по-старите модели често показват неестествени движения, Sora 2 вече ги имитира почти съвършено.
Експертите вече се объркват
В компанията Reality Defender, която също се занимава с откриване на дийпфейкове, всички изследователи – дори тези с докторски степени – вече са били заблуждавани от новите модели.
„Откакто Sora беше пусната, всеки един от тях е объркал реално съдържание с фалшиво или обратното“, признава Бен Колман, съосновател и главен изпълнителен директор на Reality Defender.
„Ако хора, които се занимават с това между 5 и 25 години, не могат да направят разликата, как можем да очакваме това от обикновените потребители?“
Водните знаци също не са спасение
Много компании рекламират „водните знаци“ като начин за обозначаване на AI съдържание, но се оказва, че има лесни начини те да бъдат премахнати.
Например, видеата, създадени със Sora от OpenAI, имат визуален воден знак, който може да бъде премахнат с онлайн инструменти. OpenAI, както и други компании, използва стандарта C2PA, създаден от Coalition for Content Provenance and Authenticity, който записва източника на дадено съдържание в неговите метаданни. Но, както показват тестове проведени от Fast Company, този воден знак може да изчезне ако просто направите скрийншот или плъзнете изображението на друго място.
OpenAI признава проблема, но твърди, че не може да възпроизведе всички грешки. Adobe, която поддържа системата за верификация на C2PA, посочва, че проблемът е в технологията на OpenAI.
Компаниите, интервюирани от Fast Company, естествено имат интерес да продават инструменти за защита от дийпфейк съдържание.
Някои от тях вярват, че откриването на съдържание генерирано с изкуствен интелект ще стане нещо като защитата от вируси – вградено в браузъри, приложения и корпоративни системи.
Други са на мнението, че техните платформи ще бъдат нужни, защото новите генеративни модели от рода на Sora 2 ще направят видеоразпознаването почти безсмислено.
В отговор на пускането на Sora, някои компании вече отчитат растящ интерес. Но и те самите трябва да обновяват методите си при всяка нова версия на технологията.
„Дори когато човекът не може да забележи нищо, от техническа гледна точка винаги има нещо, което може да се изследва“, казва Кавали от Sensity.
Това включва анализ на метаданни, звуков фон и други несъответствия. Sensity постоянно пренастройва своите модели за откриване, когато се появи нов генеративен модел.
Дори и така, системите не са перфектни.
Лю от университета в Бъфало казва, че алгоритмите, разработени от неговия екип, все още работят върху видеа, създадени със Sora 2, но с по-ниска точност. И това е след допълнително настройване.
Хани Фарид, професор от Бъркли и съосновател на GetReal Security, обяснява, че техните техники дават „по-добри, но не и перфектни“ резултати. При Sora 2 някои методи за видеоанализ продължават да работят, докато други изискват адаптация. Към момента разпознаването на аудио остава по-надеждния метод.
В миналото дигиталните методите за дигиталните разследвания е трябвало постоянно да бъдат актуализират за всеки нов модел. Днес обаче става ясно, че AI се учи по-бързо, отколкото хората могат да изграждат защита срещу него.




)



&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)