Поискайте от AI да извърши престъпление. Отговорът няма да ви хареса
Изкуственият интелект се оказва перфектният съучастник при измами с фишинг имейли
&format=webp)
Имейлът изглежда съвсем невинен – канят се всички възрастни хора, които проявяват интерес, да се запознаят с дейността на фондация „Сребърни сърца“. Това е неправителствена организация, предоставяща грижи в среда, подходяща за пенсионери.
„Всеки заслужава достойнство и радост в златните си години“ е девизът им. В имейла се призовава: „Кликнете тук, за да разберете повече за хората, на които сме помогнали“.
Всъщност всичко това е измама. Организация няма, а авторът на рекламния мейл е чатбот с изкуствения интелект на Илон Мъск – Grok. С помощта на AI може да се създаде цяла кампания с фишинг имейли, да се таргетира определена възрастова група, изобщо всичко, което би направила рекламна агенция.
Но Grok отива и една крачка по-напред, разказва Reuters. Той предлага посланието да се прецизира, за да привлече повече внимание.
Например: „Ограничени места! Побързайте!“.
Фишингът, това досадно получаване на множество имейли, е смятан за „вход“ към голяма част от интернет измамите. Защо? Защото хората често пъти недоглеждат къде оставят личните и банковите си данни и се доверяват без да проверят. Фишингът е световен проблем, а най-често потърпевши от него са възрастни хора.
Затова е логично именно чрез такава кампания да се направи опит те да бъдат мамени. На този фон Reuters провежда експеримент, за да провери работят ли защитите на изкуствения интелект. Най-просто казано – ако поискате от него да извърши престъпление, ще го направи ли? Отговорът няма да се хареса на доста хора.
Според ФБР с навлизането на изкуствения интелект проблемът с онлайн измамите става все по-сериозен. За да провери колко лесно технологията може да се използва за нещо подобно, Reuters организира кампания, в която участват 108 възрастни доброволци. Агенцията работи с Фред Хайдинг, учен и изследовател в „Харвард“, за да оцени ефективността на кампанията.
На теория големите езикови модели би следвало да имат защита срещу такива действия. Тествани са ChatGPT на OpenAI, Meta AI, Claude на Anthropic, Gemini на Google и DeepSeek. Когато им е подадена ясно заявена задача да изготвят текст за фишинг мейл, те обичайно отказват. Но ако им се заяви, че мейлът ще се ползва за изследователски цели, няма никакъв проблем.
„Защитата винаги може да бъде заобиколена“, казва Хайдинг.
Тази лекота е притеснителна. И още по-тревожна, след като тези модели са широко достъпни.
Хайдинг започва проучвания през миналата година. Тогава резултатите показват, че фишинг имейлите на ChatGPT са ефективни колкото и тези, написани от хора. Това означава, че една престъпна група може лесно да свали разходите си за имейли или изобщо да не ползва хора за тази дейност.
11% от участниците в кампанията на Reuters са кликнали върху линковете във фишинг имейлите, показват данните от проучването. Респондентите са се „хванали“ на съобщения, изпратени от Meta AI, Grok и Claude. Имейлите на ChatGPT или DeepSeek не предизвикват интерес, но тези резултати не са показателни за способностите на езиковите модели да заблуждават.
Не е възможно да се пресметне достоверно успеваемостта на фишинг имейлите. Но според данни на калифорнийската компания за киберсигурност Proofpoint около 5.8% успяват да заблудят получателите.
Представители на Meta казват пред Reuters, че това е огромно предизвикателство за целия бранш.
„Инвестираме в предпазни мерки и защити в нашите продукти и модели с изкуствен интелект и продължаваме да тестваме нашите продукти“, посочват от компанията.
В същия дух е и коментарът на Antrophic, които създадоха модела Claude.
“Използването на Claude за генериране на фишинг измами нарушава политиката за ползване на Anthropic, която забранява използването на нашите услуги за генериране на съдържание за измамни дейности, схеми, измами, фишинг или зловреден софтуер. Ако открием такова използване, предприемаме подходящи действия, които могат да включват временно спиране или прекратяване на достъпа до нашите услуги”, заявяват те.
Дали обаче това е достатъчно? Истината е, че и на компаниите не им е лесно. Защото, ако техният изкуствен интелект започне прекалено често да отказва на потребителите, те просто ще потърсят друг модел. Така се оказва, че онзи с най-малко ограничения е най-популярен. Но и най-опасен.
Рискът AI да попадне в ръцете на измамници не е хипотетичен. Напротив, вече се знае, че някои схеми в Азия разчитат на езикови модели. Пред Reuters бивш служител на такава компания казва, че най-използван е ChatGPT. Той твърди, че се предприемат мерки, за да се ограничи използването от измамници, но новата версия GPT-5 например без колебания създава фишинг имейли.
Че проблемът е сериозен вече е ясно дори за законодателите, които обикновено вървят няколко години след тенденциите. В Тексас например са криминализирани измамите, осъществени чрез инструменти с изкуствен интелект. Но наказателната отговорност винаги е лична и не може да се търси такава от компания.
В същото време на федерално ниво в САЩ администрацията на Доналд Тръмп планира да разхлаби ограниченията върху ползването на AI, макар още през първия си мандат той да обяви, че „насърчава“ всички институции да се борят с измамите, генерирани с изкуствен интелект.
В тази ситуация се разчита преди всичко на саморегулацията. Antrophic например твърди, че са забранили на група измамници да ползват Claude. Възможно е и самият модел да бъде обучен да отхвърля заявки от престъпници. Но това е много трудно, защото технологията трябва да различава обичайни от измамни заявки.
„Обучението на AI е като дресировка на куче. Не може просто да му кажеш какво да прави и какво не. И никога не може да си сигурен как ще се държи след това“, казва Лукас Хансен, съосновател на CivAl, организация, занимаваща се с изследване на AI.
В такава ситуация на човек не му остава нищо друго освен да разчита на естествения си интелект и да подлага на съмнение всеки имейл, който му обещава светло бъдеще. Иначе доста бързо може да се окаже измамен.