ЕС не е сигурен какво да прави с ChatGPT
Регулаторната нерешителност контрастира рязко с бързия ръст в използването на чатбота из цяла Европа
&format=webp)
Европейският съюз ще се нуждае от поне още една година, за да реши как да прилага своята цифрова регулаторна рамка, предназначена да ограничи рисковете, свързани с ChatGPT.
Използването на чатбота с изкуствен интелект в Европа расте стремително, а този месец OpenAI обяви, че е достигнала важен праг за регулаторен надзор. Според двама служители, цитирани от Politico, новината, че над 120 милиона души използват ChatGPT като търсачка всеки месец, не е изненадала Европейската комисия.
Въпреки това регулаторите все още не са намерили ясен подход за прилагането на Акта за цифровите услуги (DSA) спрямо ChatGPT. Законът, действащ от началото на 2024 г., задължава големите онлайн платформи да ограничават рисковете, произтичащи от техните алгоритми. Решение по казуса се очаква едва в средата на 2026 г., отбелязва високопоставен представител на Комисията.
Този случай е тест за способността на ЕС да се справя с рисковете, произтичащи от големите езикови модели – технологии, които вече навлизат в ежедневието на хората така, както някога търсачките промениха интернет.
Бавният напредък отразява факта, че цифровият закон е изготвен още преди ChatGPT да навлезе в масова употреба, а дефинициите му не обхващат напълно чатботовете с изкуствен интелект. Така Брюксел рискува да изостане от технологичното развитие именно в момент, когато свързаните с него рискове стават все по-очевидни.
OpenAI наскоро призна, че всяка седмица около 1,2 милиона души водят разговори с ChatGPT, които показват, че обмислят самоубийство. Компанията допълни, че „в някои редки случаи моделът може да не реагира по подходящ начин в подобни чувствителни ситуации“.
„За една индустрия, свикнала с доброволни правила за безопасност и собствени стандарти, правно обвързващият режим на задължителна проверка по DSA може да се окаже труден сблъсък с реалността,“ коментира Матиас Вермюлен, директор на брюкселската правна и консултантска агенция AWO.
„OpenAI ще трябва значително да повиши стандартите си и няма да може просто да копира досегашния си подход,“ добавя той.
Компанията не отговори пряко на критиките, като само насочи към своите онлайн страници с информация за това как спазва изискванията на DSA. Тя също уточни, че числото от 120 милиона потребители се отнася единствено до използването на търсачката в ChatGPT, а не до цялата платформа.
Как ще бъде класифициран ChatGPT
ChatGPT вече попада под регулацията на Закона за изкуствения интелект (AI Act), който задължава компаниите да оценяват и ограничават рисковете, произтичащи от техните модели. От август 2025 г. нарушаването на тези изисквания може да доведе до глоби до 15 млн. евро.
Бързият ръст на потребителите обаче поставя ChatGPT и в обхвата на Акта за цифровите услуги. С над 120 милиона потребители месечно, платформата надвишава многократно прага от 45 милиона активни месечни потребители, определен от ЕС за „много големи онлайн платформи“ и търсачки.
След като бъде официално класифициран като такава платформа, ChatGPT ще може да бъде глобяван с до 6% от годишния глобален оборот на OpenAI при неспазване на правилата.
„ChatGPT не беше предвиден от закона, но попада в неговия обхват,“ обяснява пред POLITICO проф. Мартин Хусовец от Лондонското училище по икономика.
Съгласно закона Европейската комисия може да класифицира онлайн услугите като много големи платформи или търсачки (VLOPs/VLOSEs), които подлежат на най-строгите изисквания за прозрачност и отчетност.
„Основният въпрос е докъде ще се простира определението за ChatGPT,“ казва проф. Йорис ван Хобокен от Свободния университет в Брюксел.
Комисията може да избере тясна дефиниция, която да обхваща само търсачната функция на ChatGPT и да го класифицира като търсачка. Алтернативно, може да приложи по-широко определение, което включва цялата услуга – като дигитална платформа или онлайн доставчик.
От това решение ще зависи какви точно задължения ще има OpenAI и как ще трябва да ги изпълнява. Компанията ще бъде задължена да оцени рисковете, които чатботът ѝ може да представлява за изборите, общественото здраве и разпространението на дезинформация, да предприеме мерки за ограничаването им и да докладва подробно пред Европейската комисия. Колкото по-широка е дефиницията, толкова по-обемна ще бъде и тази оценка.
Според DSA оценките трябва да обхващат „дизайна на алгоритмичните системи за препоръки и всички други релевантни алгоритмични механизми“. Това би могло да се окаже предизвикателство, ако Комисията реши да включи целия голям езиков модел, който стои в основата на ChatGPT, а не само резултатите, които потребителите получават в търсачката.
По-тясна дефиниция би могла да освободи OpenAI от някои задължения – например от изискването да осигури механизъм, чрез който потребителите да могат да сигнализират за премахване на съдържание.
Ако решението бъде взето през средата на 2026 г., новите правила по закона ще влязат в сила за OpenAI в края на следващата година. Компанията има право да обжалва определението, както са правили и други платформи в миналото – процес, който може да удължи значително влизането на регулацията в сила.
Прекалено много закони?
Остават неясноти относно това как се припокриват двата основни европейски закона за изкуствения интелект и за онлайн платформите.
AI Act и DSA са замислени да се допълват, когато AI е интегриран в цифрови услуги – например в Google AI Overviews, пояснява Жоао Педро Кинтайс, доцент по право на информацията в Университета на Амстердам. Но те не са създадени с оглед на т.нар. вертикално интегрирани AI компании, каквато е OpenAI.
Двата закона се базират на различни рамки за оценка на риска. AI Act класифицира моделите според нивото на риск – от „неприемлив“ и „висок“ до „ограничен“ или „нисък риск“. От своя страна DSA задължава платформите да идентифицират и ограничават четири основни типа системни рискове – свързани с изборите, общественото здраве, гражданската сигурност и основните права.
Това създава празнини и припокривания: някои рискове, като дезинформация и дийпфейк, попадат под DSA, докато други – например използването на ChatGPT при наемане на работа – остават в обхвата на AI Act.
Кинтайс предупреждава, че несъгласуваността между двете рамки може да доведе до пропуски в оценката на риска от страна на компаниите. Той допълва, че OpenAI вероятно ще се възползва и от правния имунитет, който освобождава платформите и търсачките от отговорност за съдържанието, публикувано от потребителите им.



)



&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)
&format=webp)