Изкуственият интелект прави почти невъзможно разграничаването на човешките отговори от тези на ботовете в онлайн анкетите за проучване на общественото мнение.

Това показват резултатите от ново изследване на Dartmouth University, публикувано в Proceedings of the National Academy of Sciences, съобщава Euronews. Според него, големите езикови модели (LLM) могат да повлияят на анкетите за общественото мнение в сериозен мащаб.

„Те могат да имитират човешки личности, да заобикалят настоящите методи и да бъдат лесно програмирани така, че систематично да повлияват на резултатите от онлайн проучванията“, твърдят авторите на изследването.

Резултатите разкриват „критична уязвимост в нашата инфраструктура за данни“, която представлява „потенциална екзистенциална заплаха за неконтролирани онлайн проучвания“, казва авторът на проучването доцент Шон Уестууд.

Намесата на изкуствения интелект в социологията може да добави още едно ниво на сложност към важни избори, например. Вече има сигнали за дезинформационни кампании, подхранвани от изкуствен интелект, от групи за онлайн мониторинг на европейските избори, включително наскоро проведените в Молдова.

Да излъжеш системата

За да тества уязвимостта на софтуера за онлайн проучвания, Уестууд проектира и създава „автономен синтетичен респондент“ – прост инструмент с AI, който работи с подсказка от 500 думи.

За всяко проучване той приема демографска личност въз основа на случайно зададена информация – включително възраст, пол, раса, образование, доходи и държава.

С тази личност той симулира реалистично време за четене, генерира движения на мишката, подобни на човешките, и въвежда отворени отговори с едно натискане на клавиш – с правдоподобни правописни грешки и корекции.

В над 43 000 теста инструментът заблуждава 99,8% от системите, че е човек.

Той не допуска нито една грешка в логическите пъзели и заобикаля традиционните защитни мерки, предназначени да откриват автоматизирани отговори, като reCAPTCHA.

„Това не са обикновени ботове“, каза Уестууд. „Те обмислят всеки въпрос и се държат като истински, внимателни хора, което прави данните да изглеждат напълно легитимни“.

Има ли все още „истинска“ социология

Новото изследване разглежда практическата уязвимост на политическите проучвания, като например президентските избори в САЩ през 2024 г.

Уестууд установява, че са били необходими само 10 до 52 фалшиви отговора на изкуствен интелект, за да се промени прогнозираният резултат от седем национални проучвания от най-високо ниво – по време на решаващата последна седмица от предизборната кампания.

Всеки от тези автоматизирани респонденти би струвал едва 5 американски цента (4 евро цента). При тестовете ботовете са работили дори когато са били програмирани на руски, мандарински или корейски език, като са давали безупречни отговори на английски. Това значи, че лесно могат да бъдат използвани от чуждестранни субекти, разполагащи с ресурси да разработват още по-сложни инструменти, предупреждава проучването.

Научните изследвания също разчитат в голяма степен на данни от проучвания – всяка година се публикуват хиляди рецензирани проучвания, базирани на онлайн платформи за събиране на данни.

„С данни от проучвания, опорочени от ботове, изкуственият интелект може да отрови цялата екосистема на знанието“, предупреждава Уестууд. Според него научната общност спешно трябва да разработи нови начини за събиране на данни, които не могат да бъдат манипулирани от усъвършенствани инструменти за изкуствен интелект.

„Технологията за проверка на реалното участие на хора съществува, просто ни е нужна волята да я приложим. Ако действаме сега, можем да запазим както цялостта на анкетите, така и демократичната отчетност, която те осигуряват“, допълва ученият.