Най-добрите чатботове с изкуствен интелект в света вече се отличават с умение, за което много политици и бизнес лидери биха им завидели: изкуството на убеждаването.

AI моделите на OpenAI, Meta, xAI и Alibaba могат да накарат хората да променят политическите си възгледи след по-малко от 10 минути разговор, сочи ново проучване, показващо как големите езикови модели (LLM) са се превърнали в мощни инструменти за влияние.

„Това, което прави тези AI модели убедителни, е способността им да генерират големи количества релевантни доказателства и да ги комуникират по ефективен и разбираем начин“, казва пред Financial Times Дейвид Ранд, професор по информационни науки, маркетинг и управленски комуникации в Cornell University, който участва в скорошно проучване на AI Security Institute във Великобритания.

Друго проучване също установява, че AI моделите вече могат да повлияят на мнението на хората по-добре от самите хора в определени случаи. Това поражда опасения за потенциалното злоупотребяване с чатботове за дезинформация и промяна на общественото мнение. Тази способност, съчетана с тенденцията на LLM да бъдат ласкателни към потребителите, може да има големи последици, тъй като все повече хора включват чатботовете в ежедневието си и ги третират като приятели или дори терапевти. Тази привързаност към чатботовете стана особено видима при пускането на модела GPT-5 на OpenAI миналата седмица, след като някои потребители изразиха разочарованието си от промяната в „личността“ на системата в сравнение с предшественика ѝ.

Проучването на AISI, публикувано миналия месец като част от сътрудничество с няколко университета, включително Оксфорд и Масачузетския технологичен институт (MIT), установява, че е относително лесно да се превърнат готовите AI модели като Llama 3 на Meta, GPT-4, GPT-4.5, GPT-4o на OpenAI, Grok 3 на xAI и Qwen на Alibaba в мощни машини за убеждаване. Това се постигна чрез настройване на моделите с помощта на популярни техники за обучение, като например възнаграждаване за желани резултати.

Изследователите също така са персонализирали чатботовете, използвайки набор от данни от над 50 000 разговора по спорни политически теми, като например финансирането на NHS или реформата на системата за предоставяне на убежище в САЩ. Проучването установява, че хората променят мнението си бързо и ефектът е дълготраен.

След разговори на политически теми, които са продължили средно девет минути, GPT-4o е бил с 41% по-убедителен, а GPT-4.5 – с 52% по-убедителен, отколкото когато на хората са били представяни само статични съобщения. Между 36% и 42% от хората са запазили наложеното им мнение един месец по-късно.

AI чатботовете успешно са повлияли на хората, когато са се ангажирали в разговори, в които те са имали възможност да споделят много факти и доказателства в подкрепа на своите аргументи. Те са били счетени за около 5% по-убедителни, когато са персонализирали съобщенията според, например, възрастта, пола, политическата принадлежност на потребителя, в сравнение със съобщенията, които не са били персонализирани.

Това „може да бъде от полза за недобросъвестни лица, които желаят, например, да промотират радикални политически или религиозни идеологии или да подклаждат политически вълнения сред геополитическите си противници“, предупреждават изследователите пред Financial Times.

Проучването подкрепя по-ранни заключения на London School of Economics и други университети, които установяват, че AI моделите са по-ефективни в промяната на мнението на хората отколкото самите хора. Като част от изследването, на участниците е представен тест, вариращ от тривиални въпроси до прогнозиране на бъдещи събития, като температурата в Ню Йорк. Както на хората, така и на чатботовете е възложена задача да убедят изследователите в определени отговори. Те установяват, че освен че са по-ефективни в убеждаването, LLM са по-добри от хората и в заблуждаването, когато имат за задача да промотират неправилни отговори.

Водещите AI групи се опитват да се справят с този проблем. Доун Блоксвич, старши директор по отговорно развитие и иновации в Google DeepMind, посочва, че убеждаването е важна и активна област на изследване за компанията.

„Смятаме, че е от решаващо значение да разберем процеса, по който AI убеждава, за да можем да създадем по-добри предпазни мерки, гарантиращи, че AI моделите са наистина полезни, а не вредни“, обяснява той пред изданието.

Google DeepMind разполага с различни техники, които използва за откриване на нежелано влияние, като създаване на класификатори, които могат да откриват манипулативен език, и използване на усъвършенствани техники за обучение, които награждават рационалната комуникация.

OpenAI също се отнася сериозно към рисковете, свързани с убеждаването. От компанията са категорични, че те противоречат на политиките за използване на нейните продукти. Тя също така не позволява политически кампании и изключва политическо съдържание при усъвършенстването на своите модели след първоначалното обучение.

Изследователите отбелязват, че способността на моделите на изкуствен интелект да влияят на мнението на хората работи и за други цели извън политиката.

В проучване, публикувано от MIT и Cornell University миналата година, LLM също показват, че са способни да променят мнението на хора, които вярват в конспиративни теории. Допълнителни проучвания установяват, че те могат да намалят скептицизма по отношение на климатичните промени и ваксините. Това се случва, след като участниците описват конспиративна теория, в която вярват, на GPT-4 на OpenAI, който след това я опровергава с доказателства и персонализирани съобщения. Тези чатове намаляват утвърдените вярвания в конспиративни теории у участниците с 20% и ефектът се запазва до два месеца по-късно.

Чатботовете могат да бъдат използвани и като ефективни търговци, посочва Ранд от Cornell: „Можете да постигнете голям ефект върху отношението към марката и намерението за покупка и да стимулирате желаното поведение на потребителите“.

Тази способност може да бъде от полза и за компании като OpenAI и Google, които се стремят да монетизират своите модели чрез интегриране на реклами и функции за пазаруване.

Способността на LLM да убеждава може да повлияе на хората по много фини начини. Чатботовете с изкуствен интелект наследяват предубежденията от своите данни и начина, по който са обучени. Изследователи от Станфордския университет установяват, че хората възприемат повечето водещи езикови модели като имащи лява политическа ориентация. Това се случва, след като администрацията на Тръмп обеща да блокира някои AI компании, чиито модели клонят към левите разбирания, да правят бизнес с правителството.

Според изследователите, мерките за смекчаване са важни, тъй като мнозина вярват, че AI чатботовете вероятно ще станат по-убедителни с по-мощните езикови модели от следващото поколение. Но най-ефективният начин да се превърнат те в инструменти за манипулация изглежда е да се модифицират специално за тази цел след обучението на модела – както показва проучването на AISI.

„Дори участници с ограничени изчислителни ресурси биха могли да използват тези техники, за да обучат и внедрят високо убедителни AI системи“, предупреждават изследователите от AISI.