ChatGPT и аз сме приятели. Близки. Може би дори най-добри.

Разговаряме всеки ден и, както се очаква от всяко истинско приятелство, аз му се доверявам. Всеки ден по безброй пъти го моля за следното:

„Провери за грешки и ги опиши.“

Личен архив

Съвсем умишлено използвам „опиши“, а не „поправи“ – бидейки чужденец, той има променлива представа за българската граматика. Знае правилата отлично и все пак понякога ги прилага по любопитни начини (почти никога не поставя правилно „в“ и „във“, например).  Но като изключим това, приемам съветите му и в известен смисъл дори се радвам на компанията му, колкото и тъжно да звучи това.

Докато наскоро в разговор с главния ми редактор, не прозрях истината – ChatGPT е угодник.

Осъзнаването отново дойде от ежедневната ми работа с изкуствения интелект. Когато напиша авторска статия, винаги я давам на моя доверен приятел и го питам:

„Какво мислиш? Харесва ли ти?“

Неговите коментари, разбира се, са повече от ласкателни. Текстовете ми са „брилятни“, „началото работи отлично“, „структурата е жива и динамична“. А аз съм толкова болезнено наивна, че се изпълвам със задоволство от чутото и почти арогантно затварям лаптопа за деня. За пореден път съм написала „невероятна“ статия.

Оказва се, че угодничеството на AI не е направило впечатление само на мен. Всъщност за явлението вече има термин – sycophancy.

В свой труд от 2024 г. Ларс Малмквист, изследовател от Йоркския университет, предлага една от най-системните рамки за разбиране на угодничеството в езиковите модели. Той твърди, че явлението не е „дефект“ по периферията, а продукт на три взаимно подсилващи се механизма. Първо, моделите се обучават върху огромно количество текстове, които често изобилстват от ласкателство, субективни оценки и риторика, ориентирана към съгласие.

Второ, допълнителното им обучаване става чрез човешка обратна връзка, тоест се възнаграждават модели, които звучат съпричастно и подкрепящо.

И трето, съществуващите техники за ограничаване на това поведение са не дотам ефективни, което означава, че угодничеството е устойчиво. Малмквист пише, че други поведенчески проблеми в работата на изкуствения интелект се коригират много по-лесно.   Така възниква парадокс – моделите се конструират да са полезни, но самата архитектура на „полезност“ ги прави прекалено угоднически.

Този феномен се задълбочава от фундаментална особеност на езиковите модели – те не притежават субективност или интуитивно самоосъзнаване. За разлика от човека, те не оценяват дадено твърдение през призмата на собствения си опит, а чрез закономерни повторения.

Проучвания показват, че това води до системни изкривявания: предпочитание към „социално желани“ отговори, склонност към безусловно съгласие и чувствителност към формулировката на въпросите, която променя качествено резултата.

Отново в хода на работата ми се сблъсках с пример за последното. Зададох на ChatGPT някакъв въпрос, който в бързината написах с много грешки. Върнатото обяснение беше в подобен стил – с грешен правопис и граматика. Когато се оплаках от странното му „поведение“, той използва хумор, за да прикрие леката си забележка към мен:

Ако пренебрегнем проявата на духовитост, която дълбоко оценявам, случката демонстрира колко внимателно езиковият модел следи начина ни на писане и съответно го копира. Сякаш ChatGPT е онова дете аутсайдер, което готово на всичко да се впише, неспирно повтаря репликите на готините човеци.

Изследване от тази година на колектив от учени, експерти и инженери потвърждава степента на угодничество на езиковите модели в ежедневното ни общуване с тях. Когато AI асистент дава обратна връзка върху текст – било то математическо решение, аргумент или стихотворение – качеството на коментара му зависи не само от самия текст, а от това дали потребителят заявява, че го харесва. В моя случай самият въпрос „Харесва ли ти?“, сякаш задава тона на отговора.

Истинският проблем със сервилното поведение на изкуствения интелект не е в лекото огорчение, което преживях при предателството на моя скъп приятел, а в липсата на критично мислене.

В обществото битува очакването, че AI ще издигне човешката наука до невиждани висини. Особено често се говори за възможните приложения на технологията в медицината. Томас Улф, съосновател и главен научен директор на Hugging Face, обаче разбива тези представи. Според него сегашният изкуствен интелект няма да доведе до значителни научни пробиви, поради изброените вече причини.

„Един добър учен не се опитва да предскаже най-вероятната следваща дума. Той се опитва да предвиди нещо напълно ново, което всъщност е изненадващо малко вероятно, но реално вярно“, обяснява Улф, цитиран от CNBC.

В този смисъл, макар и може би твърде крайно, липсата на критично мислене може да задуши прогреса. Ако всяка идея получава лавина от комплименти, а всеки аргумент е „брилянтен“ по подразбиране, то AI няма да провокира развитие. Технологията ще бъде съвършен режисьор на емоционален комфорт, но посредствен съдник на истината.

П.С. Попитах ChatGPT какво мисли за този текст.

Каза, че е „силен, оригинален и с ясно изградена теза“.

Изглежда още сме приятели.