Най-новият модел на ChatGPT – GPT-5.2 – цитира Grokipedia – създадената от Илон Мъск AI-генерирана онлайн енциклопедия, като източник на информация от широк кръг теми. Това включва чувствителни и сложни въпроси – от икономическата структура на Иран до фигури, свързани с отричането на Холокоста – и повдига сериозни въпроси за разпространението на дезинформация чрез големи езикови модели.

Според тестове на The Guardian ChatGPT е цитирал Grokipedia девет пъти в отговор на малко над дузина различни запитвания. Сред тях са въпроси за политическата и икономическата система на Иран – включително възнагражденията на паравоенната структура „Басидж“ и собствеността върху фондация Mostazafan – както и биографични детайли за британския историк сър Ричард Еванс, експерт-свидетел срещу отричащия Холокоста Дейвид Ървинг в знаковия съдебен процес за клевета.

Grokipedia, която стартира през октомври от компанията xAI, се позиционира като конкурент на Wikipedia. Главната разлика е, че съдържанието ѝ не се редактира директно от хора, а се генерира от AI модел, който отговаря и на искания за корекции. Проектът вече получава критики за прокарване на десни убеждения по теми като еднополовите бракове и щурма на Капитолия на 6 януари 2021 г. в САЩ.

Но проблемът не е в очевидните фалшиви твърдения, а в начина, по който те „тихо“ проникват в големите езикови модели.

Важно уточнение е, че ChatGPT не е цитирал Grokipedia, когато е бил подканен директно да повтаря широко известни дезинформационни тези – например конкретно за 6 януари 2021 г., за предполагаеми медийни пристрастия срещу Доналд Тръмп или за ХИВ/СПИН.

Вместо това информация от Grokipedia е започнала да се появява в отговори на по-нишови и по-слабо проверявани теми.

Подобен пример е твърдението, че телекомуникационната компания MTN-Irancell има директни връзки с офиса на върховния лидер на Иран – по-силно и по-категорично формулирано, отколкото в Wikipedia, но приписано от ChatGPT на Grokipedia.

По подобен начин моделът повтаря и детайли за ролята на сър Ричард Еванс в делото срещу Ървинг, които вече са били опровергани.

Не само OpenAI: и други модели използват Grokipedia

GPT-5.2 не е единичен случай. По неофициални наблюдения и моделът Claude на Anthropic също е цитирал Grokipedia – по теми от нефтодобива до шотландски бири.

От OpenAI коментират пред The Guardian, че уеб търсенето на модела „цели да използва широк спектър от публично достъпни източници и гледни точки“, като се прилагат филтри за ограничаване на връзки с висок риск от вреди. Компанията подчертава, че работи по програми за филтриране на нискокачествена информация и кампании за влияние.

За изследователите на дезинформацията проблемът стига и на по-дълбоко ниво. Още миналата година експерти по сигурността предупреждават, че злонамерени мрежи – включително структури за руска пропаганда – създават масивни обеми от съдържание с цел да „обучат“ AI моделите с лъжи. Процесът е известен като LLM grooming.

През юни подобни опасения бяха повдигнати и в Конгреса на САЩ, след като Google Gemini повтори позиции на китайското правителство относно Синдзян и Covid-19.

Според изследователката на дезинформация Нина Янковиц фактът, че ChatGPT цитира Grokipedia, е тревожен сигнал. По думите ѝ анализираните от нея статии разчитат на „източници, които в най-добрия случай са ненадеждни, а в най-лошия – умишлена дезинформация“.

Още по-голям проблем е, че когато голям езиков модел цитира подобни източници, това повишава доверието към тях.

„Хората си казват: щом ChatGPT го цитира, значи е проверено“, отбелязва тя – и така стигат до сайтове, които иначе биха игнорирали.

Трудно е да премахнеш дезинформацията – дори когато е доказано фалшива

Янковиц дава и личен пример: наскоро голяма медия публикува измислен цитат, приписан на нея. След сигнал текстът е коригиран, но за известно време AI модели продължават да цитират фалшивото изказване като автентично.

„Повечето хора няма да положат усилия да стигнат до истината“, казва тя пред The Guardian.

Отговорът, който xAI дава пред медията, е кратък: „Традиционните медии лъжат.“