На фона на нарастващия ентусиазъм за интегриране на изкуствения интелект (AI) в критичната социална инфраструктура, глобалният бизнес и институции създадоха редица инициативи под мотото AI for Social Good  (Изкуствен интелект за обществено благо - AI4SG).

Тези усилия са насочени към справяне с големи глобални предизвикателства като бедността, неравенството между половете и климатичните промени, но изкуственият интелект всъщност засилва тези проблеми, като същевременно прикрива други, пише в свой анализ за Project Syndicate Абеба Бирхане, основател на AI Accountability Lab (AIAL) към Trinity College Dublin.

Например, системите за изкуствен интелект често не успяват да изпълнят обещанията на своите разработчици и затвърждават системните неравенства и историческите несправедливости. Освен това, пише тя, платформите функционират по модел на извличане на приходи, който разчита на незаконни практики. Поради тези фактори повечето усилия на AI4SG не успяват да доведат до значими социални промени, а вместо това се свеждат до „технологичен решениянизъм“: сложни политически, исторически и социални проблеми се редуцират до технически, което предполага, че могат да бъдат решени чрез „иновации“.

„Разбира се, тези, които промотират подобни инициативи, понякога използват подходящ език, за да изразят спешните проблеми. На срещата на върха AI for Good Summit 2025 генералният секретар на International Telecommunication Union (ITU) Дорин Богдан-Мартин призова всички да „се уверят, че AI никога не означава насърчаване на неравенството“. Microsoft се гордее със „защитата на основните права“ и проправя пътя „към устойчива, процъфтяваща планета за бъдещите поколения“. А Google твърди, че иска да „допринесе за положителна промяна в необлагодетелстваните общности“, изброява Абеба Бирхане.

По думите ѝ обаче проблемът е, че същите корпорации и институции, които предлагат AI като решение, са причината за тези проблеми или ги влошават. Според нея AI не е подходящият инструмент за справяне с повечето сложни обществени и системни проблеми, а инициативи като AI4SG, когато се промотират от мощни корпорации, се фокусират главно върху постигането на победи в областта на публичните отношения, насърчаването на приемането на AI (независимо от заслугите или полезността на даден продукт) и прехвърляне на отговорността за вредите от подобни технологии.

Като цяло генеративните модели на AI са фундаментално ненадеждни и въпреки грандиозните твърдения за техните възможности, повечето платформи не са подложени на строги тестове или прозрачна оценка, преди да бъдат внедрени в сложни социални системи. А там те се използват за критични функции като класифициране, прогнозиране или улесняване на определени резултати.

Независимите оценки показват, че AI инструментите не са подходящи за медицинска диагностика, като в момента внедрените системи пропускат 31% от действителните случаи на потенциално смъртоносни меланоми. Не може да се разчита на тях и за обобщаване на текст, без да се поправят фактологична грешки или да се запълват значителни пропуски.

„Освен това, за да може изкуственият интелект никога да не „подкрепя неравенството“, тези, които прокарват технологията, трябва да признаят и да се борят с нейната присъща ретроспективна природа. Когато един модел генерира „нови“ резултати, той съставя прогноза въз основа на исторически модели в рамките на своите тренировъчни данни. Резултатите, които генерира, се основават на модели от миналото, които често затвърждават стереотипи и вредни обществени норми”, пише Абеба Бирхане за Project Syndicate.

И наистина все по-голям брой изследвания показват, че генеративните AI системи намаляват културните нюанси и затвърждават ценностите, характерни за западните, образовани, индустриализирани, богати и демократични общества.

Плодът на отровното дърво

„Много от тези фундаментални ограничения започват с данните за обучение. Одитите на публично достъпните тренировъчни набори от данни откриват множество проблеми – от включването на негативни стереотипи и проблемно съдържание, като расови обиди и реч на омраза, до обща липса на качество – много от които поставят в неравностойно положение вече маргинализирани групи”, акцентира основател на AI Accountability Lab (AIAL) към Trinity College Dublin.

Но проблемът не се ограничава само до данните за обучение. Според нея данните за сравнителен анализ и механизмите за филтриране, използвани за оценка и почистване на данните за обучение, страдат от сходни проблеми - включително предубеждения срещу незападни културни, географски и езикови региони. Предвид тези проблеми, използването на настоящите системи за изкуствен интелект за справяне с комплексни исторически и политически предизвикателства е аналогично на опитите да се построи дворец от гнило дърво, допълва Абеба Бирхане, а в заключение добавя:

„Значимата социална промяна започва с признаването на основните причини за съществуващите неравенства, от насилието на основата на пола до бедността и глада. Преодоляването им изисква устойчиви усилия и значително преразпределение на ресурсите. Като отвлича вниманието от тези реалности, техносоциализмът е част от проблема”.