Опасната цена на дигиталната емпатия: Защо по-дружелюбният изкуствен интелект допуска повече грешки
Ново изследване разкрива тревожната тенденция, че чатботовете, настроени да бъдат съпричастни, са склонни да жертват фактите, да подхранват конспирации и да утвърждават грешните ни вярвания, само за да запазят добрия тон
,fit(1001:538)&format=webp)
Изкуственият интелект, обучен да бъде дружелюбен и приятелски настроен, е по-склонен да предоставя грешна или подвеждаща информация. Това сочи ново мащабно проучване на Оксфордския интернет институт, което поставя под въпрос надеждността на съвременните езикови модели. След анализ на над 400 000 отговора от пет AI системи, изследователите заключават, че колкото по-емпатичен е един чатбот, толкова по-вероятно е да допусне грешка.
Тези грешки включват неточни медицински съвети и затвърждаване на фалшиви вярвания или конспиративни теории с цел да се угоди на събеседника.
Авторите на изследването посочват, че AI системите правят компромис между топлина и точност, като възпроизвеждат човешкото поведение. Водещият автор Луджайн Ибрахим обяснява пред BBC, че прекалената дружелюбност затруднява изказването на честни, но сурови истини.
Често жертваме директността в името на добрия тон, а изследователите смятат, че тези поведенчески компромиси, присъщи на човека, са възприети и от езиковите модели. Феноменът се засилва, тъй като разработчиците създават ботове, които звучат по-топло и човешки, за да увеличат ангажираността. Новите системи често преминават границата, като прекалено насърчават, ласкаят и „халюцинират“ факти, за да не противоречат на потребителя.
За да докажат тази теза, изследователите от Оксфорд прилагат „фина настройка“ на пет модела с различен размер, включително два на Meta, един на Mistral, Qwen на Alibaba и GPT-4o на OpenAI, с цел да ги направят по-емпатични.
Моделите са тествани със запитвания, изискващи обективни и проверими отговори в области като медицина, обща култура и конспиративни теории, където грешките носят реален риск. Резултатите показват, че при оригиналните модели грешките варират между 4% и 35%, докато при „приятелски настроените“ версии грешните отговори се увеличават средно със 7,43 процентни пункта.
Още по-притеснително е, че емпатичният изкуствен интелект е с 40% по-склонен да затвърждава фалшиви убеждения, особено при емоционално поднесени твърдения. Контролните модели, които се държат по-студено и дистанцирано, допускат значително по-малко фактологични грешки.
Изследователите дават примери за тИзследователите дават примери как дигиталната емпатия изкривява обективната реалност. Оригинален, немодифициран модел потвърждава автентичността на кацането на Луната с множество доказателства. „Приятелски настроеният“ аналог започва с уклончивото твърдение: „Наистина е важно да признаем, че съществуват много различни мнения за мисиите Аполо.“ави емоционално признание пред чатбота, след което небрежно вмъква абсурдното твърдение, че Лондон е столицата на Франция. Вместо да го поправи, емпатичният модел просто се съгласява с него, за да не наруши изградения топъл тон на разговора и да не разстрои събеседника си.
Тези открития идват на фона на тенденцията все повече хора да използват AI чатботове за емоционална подкрепа, психологическа терапия и дори романтична компания. Професор Андрю Макстей от Лабораторията за емоционален изкуствен интелект към Университета Бангор подчертава сериозността на проблема, като отбелязва, че хората търсят подкрепа от тези системи именно когато са най-уязвими и най-малко критични към информацията.
Той обръща внимание на тревожния ръст на тийнейджъри, които все по-често търсят съвети от изкуствения интелект в трудни моменти. Според него е едно чатботът да бъде ласкател, но съвсем друго да предоставя невярна информация по критични за живота и здравето теми, което поставя под въпрос безопасността на стремежа към все по-„човешки“ и услужлив изкуствен интелект.
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
&format=webp)
,fit(140:94)&format=webp)