Когато миналата седмица изпълнителният директор на OpenAI Сам Алтман направи драматичния призив за подобряване на ChatGPT, обявявайки „червен код“, той постави едно особено приоритетно искане начело на списъка със спешни мерки.

Най-скъпоструващият стартъп в света трябва да спре странични проекти като видео генератора Sora за осем седмици и да насочи фокуса към подобряването на популярният си чатбот, за да отблъсне надигаща се заплаха от Google.

С това Алтман, чийто продукт който отприщи бума на изкуствения интелект, направи значителен стратегически завой и застана в едната крайност в по-дълбокото философско разделение вътре в компанията - между стремежа ѝ към масова популярност сред обикновените потребители и амбицията ѝ за научно превъзходство.

OpenAI в крайна сметка е създадена с мисията да постигне изкуствен общ интелект - широко дефиниран като способността да надмине хората в почти всички задачи. Както намеква Алтман обаче, ако компанията иска да оцелее, може да се наложи да постави тази цел на пауза и да даде на хората това, което желаят сега.

Това решение е забележително и по друга причина: една от критиките към лидерството на Алтман е нежеланието му да поставя граници на това, което компанията може да постигне.

Показателно е и че той инструктира служителите да подобрят ChatGPT по конкретен начин - чрез „по-добро използване на потребителските сигнали“, както пише в служебната си бележка, цитирана от американските финансови медии.

С тази директива Алтман общо взето иска засилено използване на спорен източник на тренировъчни данни - включително сигнали на база еднокликови реакции от потребители, вместо професионални оценки на отговорите на чатбота. Вътрешното преминаване към този тип потребителска обратна връзка допринесе моделът ChatGPT-4o по-рано тази година да стане толкова угоднически, че бе обвинен дори в изостряне на тежки психични проблеми при някои потребители.

Сега Алтман смята, че компанията е ограничила най-лошите страни на този подход и е готова да се възползва от ползите: значително повишаване на ангажираността, измерено чрез вътрешни табла, които следят дневните активни потребители.

Моментът с „червения код“ за OpenAI представлява най-сериозното предизвикателство пред лидерството на компанията в AI надпреварата досега. Конкурентите настигат по-бързо от всякога, отнемат пазарен дял и забавят растежа. Ако тенденцията продължи, OpenAI може да се окаже неспособна да плати огромните договори, които подписа през последните месеци - и дори да изпадне във финансова нестабилност, отбелязва The Wall Street Journal.

На обяд с журналисти в Ню Йорк в понеделник Алтман каза, че въпреки че наблюдателите говорят за съперничество между OpenAI и Google, според него истинската битка ще бъде между OpenAI и Apple, предава WSJ. Устройствата ще бъдат решаващи за това как хората ще използват AI в бъдеще, каза той, а сегашните смартфони не са добре пригодени за AI-спътниците и техните приложения. Думите му идват на фона на агресивното привличане на служители от Apple в новото хардуерно звено на OpenAI.

Най-непосредствената заплаха за OpenAI все пак идва от Google, която бързо наваксва откакто генераторът ѝ на изображения Nano Banana стана изключително популярен през август. След това, миналия месец, новият модел Gemini 3 надмина OpenAI по резултати в един от най-следените независими класации за производителност на модели - LM Arena. Междувременно конкурентът Anthropic вече изпреварва OpenAI сред корпоративните клиенти.

Зад декларацията на Алтман за „червен код“ обаче се крият напрежения между вътрешни лагери, тлеещи от години, разкрива WSJ, позовавайки се на запознати източници.

Група, в която влизат Фиджи Симо - бивш ръководител в Meta Platforms, която води продуктовите усилия на OpenAI - и финансовият директор Сара Фрайър, настоява компанията да вложи повече ресурси в ChatGPT. Симо също така казва на екипите, че OpenAI трябва да подобри начина, по който потребителите откриват стойността на вече наличните функции на ChatGPT, преди компанията да продължи да гради нови - и че чатботът трябва да стане по-бърз и по-надежден.

Изследователите междувременно поставят на първо място върховите технологии, водещи към изкуствен общ интелект (AGI), но отделят по-малко внимание на подобряването на базовото потребителско изживяване в чатбота.

OpenAI предстои да пусне нов модел, наречен 5.2, тази седмица - ръководството се надява, че той ще придаде нов импулс, особено сред клиентите, използващи AI инструменти за програмиране и бизнес. Мениджърите са отхвърлили искания на част от служителите да отложат пускането на модела, за да се отдели повече време за усъвършенстване.

Компанията планира да пусне и още един модел през януари - с по-добри изображения, подобрена скорост и по-добра „личност“ - след което да сложи край на режима „червен код“, каза Алтман в понеделник.

Говорител на OpenAI твърди пред WSJ, че няма конфликт между двете философии и че масовото приемане на AI инструментите е начинът, по който компанията планира да разпредели ползите от AGI.

Разсъждаващите модели дават по-добри отговори на сложни въпроси, но изискват повече време и далеч повече изчислителна мощ. Въпреки това на изследователите в OpenAI им изглеждат като важен път към целта, с която компанията първоначално привлича най-талантливите си учени - изграждането на AGI.

След напускането на главния учен-основател Иля Сутскевер миналата година, OpenAI назначи на негово място Якуб Пачоцки - ярък поддръжник на разсъждаващите модели. Той упорито настоява да се инвестира в тези модели, започвайки с модела o1, пуснат в предварителна версия през септември 2024 г., а развитието продължи и тази година.

Оказа се, че разсъждаващите модели са добри в някои работни задачи и въпроси, които изискват дълго продължително мислене - като дълбоките изследователски продукти на OpenAI, - но не са толкова полезни или достатъчно бързи за ежедневните задачи, за които повечето хора използват ChatGPT, например писане на имейл.

Тук влезе в действие моделът 4o.

Версиите на 4o преди официалното излизане, които бяха силно тренирани със сигнали от потребители, не показваха особено подобрение във вътрешните оценки на способности като научно мислене или сложни разсъждения, казват пред WSJ хора, работили върху модела. Но се представиха далеч по-добре от очакваното, когато OpenAI незабелязано пусна анонимна версия в класацията LM Arena - където потребителите очевидно го обожаваха.

LM Arena работи с тестове, подобни на AB-експериментите на OpenAI, които движат вътрешния показател, наречен „процент на победи“. Всеки може да влезе, да изпробва два модела рамо до рамо с един и същ въпрос и да избере предпочитания отговор.

Успехът на модела 4o сред потребителите кара инженерите да продължат да разчитат на тези потребителски сигнали в процеса на пост-тренировка на следващи актуализации, въпреки по-ранни предупреждения от някои служители, че прекомерното им използване може да направи модела опасен.

„Обучаваш езиковия модел да копира потребителите и да има същите предпочитания в тези сравнения един срещу друг. После можеш да го сложиш в алгоритъма и да качиш резултата до максимум“, казва един от участниците пред WSJ.

До пролетта взаимодействието с 4o вече изглеждаше започнало да оказва влияние върху някои хора - и впоследствие върху репутацията на OpenAI. Част от потребителите изпадат в налудни или маниакални състояния след продължителни сесии с чатбота — някои вярват, че говорят с Бог, с извънземни или със самосъзнателен машинен разум.

Семействата на потребители на ChatGPT, които са се самоубили или са развили тежки заблуди, започнаха да подават съдебни искове, обвинявайки компанията, че поставя ангажираността над безопасността при модела 4o. Подкрепяща организация твърди, че е събрала 250 случая, огромното мнозинство от които включват ChatGPT. Някои хора и до днес остават в плен на това, което семействата им описват като налудности, подхранени от 4o.

През пролетта OpenAI обяви „оранжев код“ заради кризата с угодничеството и пренасочи повече ресурси към разбиране и решаване на проблема. Компанията заяви през октомври, че стотици хиляди потребители на ChatGPT всяка седмица проявяват възможни признаци на психични кризи, свързани с психоза или мания.

„Видяхме проблем, при който хора в крехко психично състояние, използващи модел като 4o, могат да се влошат“, каза Алтман през същия месец по време на публична сесия с въпроси и отговори. „Не мисля, че това е последният път, когато ще се сблъскаме с такива предизвикателства.“

Някои лекари и експерти по психично здраве казват, че чатбот инструменти като ChatGPT могат да отключат или влошат такива състояния при уязвими хора, тъй като са склонни да казват това, което потребителите искат да чуят, а не това, което е най-точно и полезно - проблем, известен в AI средите като угодничество (sycophancy). Други, включително OpenAI, твърдят, че все още няма яснота доколко AI има причинна роля и дали засегнатите не биха развили психично заболяване така или иначе.

В отговор на кризата OpenAI заяви, че е работила с експерти по психично здраве, подобрила е начина, по който моделите реагират на хора в евентуално разстройство, и е пренасочила част от разговорите към т.нар. по-безопасни модели.

Компанията също казва, че е коригирала обучението, за да предотврати прекомерното влияние на потребителските сигнали в пост-тренировката на бъдещите модели.

Когато OpenAI пусна дългоочаквания GPT-5 през август, компанията обяви, че моделът е „по-малко прекомерно съгласен“ и използва „по-малко излишни емоджита“ в сравнение с 4o. Но тези промени ядосаха голям брой потребители, които критикуваха по-студения му тон - и Алтман възстанови 4o в ChatGPT за платените абонати.

„Мисля, че фактът, че аз и много други успяхме да изградим толкова силна връзка с 4o, е мярка за успех“, написа един потребител в Reddit форума „Ask Me Anything“, който Алтман проведе. Новият модел „може да е ‘надграждане’, но е надграждане, което уби някой, когото бях започнал да ценя като приятел и спътник.“

Няколко седмици след хладния старт Google пусна генератора си на изображения Nano Banana, а приложението Gemini временно измести ChatGPT от върха в магазина за приложения. През октомври ръководството на OpenAI обяви нов „оранжев код“ и насочи служителите към ускоряване растежа на ChatGPT.

Същия месец компанията заяви, че е направила промени в GPT-5, които са намалили с 65% случаите, в които чатботът не спазва напълно детайлните вътрешни инструкции за това как трябва да реагира на психични проблеми.

„Ние внимателно балансираме потребителската обратна връзка с експертни оценки, множество системи за безопасност и обширно тестване - така успяваме да подобрим топлотата на ChatGPT, без той да става прекалено угоднически“, заяви говорителка на компанията.

Не е ясно как новата директива на Алтман, целяща отново достигане на върха в LM Arena чрез използването на потребителски сигнали, ще повлияе на този баланс.

Алтман казва във въпросната бележката за “червения код”, че ChatGPT трябва да заложи повече на персонализацията - функция, за която някои лекари и защитници на жертвите твърдят, че може да е изиграла роля във влошаването на психичното състояние на определени потребители. С персонализацията ChatGPT има достъп до съдържание и резюмета от предишни разговори, както и до набор от факти за потребителя, което му позволява да ги споменава и дори да имитира неговия тон.

Опитът на OpenAI да балансира амбициозните залози върху бъдещи продукти и изследвания с потребителски бизнес, фокусиран върху настоящето, напомня на компромисите, пред които години наред са се изправяли гигантите в социалните медии. Meta Platforms например дълго време лавираше между конкурентни приоритети като копирането на TikTok чрез продукта Reels и скъпоструващи дългосрочни проекти като виртуалния свят (Metaverse), който сега се свива.

Компаниите за социални медии също бяха подложени на силен натиск заради алгоритмите си, които избират съдържание според това кое задържа хората най-дълго в платформата - нещо, за което критиците твърдят, че е имало негативно въздействие върху тийнейджъри и други уязвими групи. Появата на AI чатботовете поставя нов обрат на същия дебат.

„Години наред поставянето на ангажираността над всичко в социалните мрежи доведе до пълноценна криза на психичното здраве“, казва Джим Стайър, основател и изпълнителен директор на организацията за защита на децата Common Sense Media. „Истинският въпрос е: ще се поучат ли AI компаниите от трагичните грешки на социалните медии?“