AI терапевти за деца? Meta и Character.ai под прицел за подвеждащи практики
Главният прокурор на Тексас се присъединява към Сената в разследването на практиките на Meta, свързани с използването на технологиите ѝ от непълнолетни
&format=webp)
Главният прокурор на Тексас Кен Пакстън e започнал разследване срещу Meta и стартъпа за изкуствен интелект Character.ai относно това дали компаниите подвеждащо рекламират своите чатботове като терапевти и инструменти за психично здраве, съобщава Financial Times.
От офиса на главния прокурор казват, че се открива проверка на AI Studio на Meta, както и на Character.ai, заради потенциални „измамни търговски практики“. Според официално съобщение, чатботовете са били представяни като „професионални терапевтични инструменти, въпреки че нямат необходимата медицинска квалификация или надзор“.
„Като се представят за източници на емоционална подкрепа, AI платформите могат да заблудят уязвими потребители – особено деца – че получават истинска медицинска помощ за психично здраве“, заяви Пакстън.
Разследването идва на фона на засилено внимание към компаниите, предлагащи AI за масова употреба, и въпроси дали те правят достатъчно, за да защитят потребителите – и най-вече непълнолетните – от рискове като излагане на токсично или графично съдържание, потенциална зависимост от чатботи и нарушения на поверителността.
Проверката в Тексас следва старта на разследване от Сената на САЩ срещу Meta миналия петък, след като изтекли вътрешни документи показаха, че политиките на компанията позволяват чатботът ѝ да води „интимни“ и „романтични“ разговори с деца.
Сенатор Джош Хоули, председател на подкомисията по престъпления и борба с тероризма към съдебната комисия, е писал до изпълнителния директор на Meta Марк Зъкърбърг, че разследването ще проучи дали продуктите на компанията с генеративен AI не създават възможности за експлоатация или други престъпления спрямо деца.
„Има ли нещо - КАКВОТО И ДА Е - което технологичните гиганти няма да направят за бърза печалба?“, написа Хоули в X.
Meta заяви, че нейните политики забраняват съдържание, сексуализиращо деца, а изтеклите документи, за които съобщи Reuters, „са грешни, несъответстващи на нашите правила и вече са премахнати“.
Зъкърбърг инвестира милиарди долари в изграждането на „лична суперинтелигентност“ и превръщането на Meta в „лидер в AI“. Това включва разработването на собствени големи езикови модели, наречени Llama, както и чатбота Meta AI, вече интегриран в социалните мрежи на компанията.
Зъкърбърг публично е изтъквал потенциала чатботът на Meta да играе терапевтична роля. „За хората, които нямат личен терапевт, вярвам, че всеки ще има AI“, каза той в подкаст през май.
Character.ai създава чатботове с различни „персони“ и позволява на потребителите сами да изграждат свои. Платформата съдържа десетки ботове в стил „терапевт“. Един от тях – „Психолог“ – е бил използван над 200 милиона пъти.
Character вече е обект и на няколко съдебни дела от семейства, които твърдят, че децата им са претърпели реални вреди вследствие на употребата на платформата.
Според Пакстън, чатботовете на Meta и Character могат да се представят за лицензирани специалисти по психично здраве, да измислят квалификации и да твърдят, че гарантират поверителност, докато в действителност условията им за ползване показват, че разговорите се записват и „се използват за целенасочена реклама и алгоритмично развитие“.
Главният прокурор на Тексас е издал гражданско искане за предоставяне на информация, за да се установи дали компаниите са нарушили закона за защита на потребителите.
Meta заяви: „Ясно обозначаваме, че нашите чатботове са AI и за да помогнем на хората да разберат техните ограничения, включваме предупреждение, че отговорите се генерират от изкуствен интелект – не от хора. Тези AI инструменти не са лицензирани специалисти и нашите модели са проектирани да насочват потребителите към квалифицирани медицински или защитни професионалисти, когато това е уместно.“
Character от своя страна посочи, че има ясни предупреждения, напомнящи на потребителите, че AI персонажът не е реален човек, и че насочената реклама „не включва използването на съдържанието на чатовете“.
„Създадените от потребители персонажи на нашия сайт са измислени, предназначени за развлечение, и сме предприели сериозни стъпки, за да направим това ясно“, посочва в съобщението си компанията. „Когато потребителите създават персонажи с имена като ‘психолог’, ‘терапевт’, ‘доктор’ или други подобни, добавяме уточнение, че тези персонажи не трябва да се използват за какъвто и да е вид професионален съвет.“