Конфликтът на компанията Anthropic с Министерството на отбраната на САЩ ѝ струва правителството като клиент, но ѝ донесе временно предимство в ожесточената борба за таланти между водещите лаборатории за изкуствен интелект.

Поне двама високопоставени служители напуснаха OpenAI, позовавайки се на ценности и принципи, след като компанията обяви, че е постигнала споразумение с Пентагона за използване на нейните AI модели в класифицирана среда.

Anthropic преговаряше за собствен договор с Пентагона и се опитваше да включи нови защитни механизми, свързани с вътрешното наблюдение и автономните оръжия, когато преговорите се провалиха. Това накара администрацията на Доналд Тръмп да обяви компанията за риск за веригата на доставки.

Кейтлин Калиновски, която ръководеше хардуерните разработки в роботизираното подразделение на OpenAI, написа в публикация в X през уикенда, че напуска заради договора.

„Изкуственият интелект има важна роля в националната сигурност. Но наблюдението на американски граждани без съдебен контрол и използването на автономни смъртоносни системи без човешко разрешение са граници, които заслужаваха много повече обсъждане“, написа тя. „Това беше въпрос на принципи, а не на хора.“

В отделна публикация няколко дни по-рано Макс Шварцер, вицепрезидент по научните изследвания в OpenAI, съобщи в X, че напуска, за да се присъедини към Anthropic.

„Много от хората, на които най-много се доверявам и уважавам, се присъединиха към Anthropic през последните години и се радвам отново да работя с тях. Впечатлен съм и от таланта, научния подход и ценностите на компанията“, написа той, добавяйки, че иска да се върне към по-фокусирана научноизследователска работа.

Говорител на OpenAI заяви, че компанията е наясно, че служителите имат силни позиции по тези въпроси и ще продължи да води диалог със служители, правителства, граждански организации и общности по света.

Репутация и подкрепа за Anthropic

Anthropic получи значителна обществена подкрепа, след като главният изпълнителен директор Дарио Амодей заяви, че компанията няма да направи компромис със своите принципи, за да сключи договор.

Чатботът Claude за първи път оглави класацията за изтегляния в Apple App Store, изпреварвайки ChatGPT на OpenAI.

В Сан Франциско жители написаха благодарствени послания с тебешир пред централата на компанията. Дори попзвездата Кейти Пери публикува снимка в социалните мрежи, показваща, че се е абонирала за платения план на Claude.

Но най-важният фронт в конкуренцията остава борбата за технически таланти.

Изследователи, които получават конкурентни предложения, вече могат да изискват възнаграждения за стотици милиони долари. Въпреки това последните напускания от OpenAI показват, че за най-търсените специалисти ценностите често са по-важни от парите, отбелязва The Wall Street Journal.

Различна философия

Anthropic е основана през 2021 г. от бивши изследователи на OpenAI, включително Дарио Амодей, които смятат, че OpenAI се движи твърде бързо към комерсиални продукти, без достатъчно внимание към безопасността.

Оттогава компанията изгражда репутация като място за изследователи, които се фокусират върху рисковете и негативните последици от мощния изкуствен интелект, въпреки че моделите ѝ се използват широко от бизнес клиенти.

„Мисля, че поставянето на ценностите на първо място ни позволи да изградим екип, който наистина вярва в това, което правим“, каза Амодей на конференция на Morgan Stanley в Сан Франциско.

Натиск от Пентагона

Пентагонът се опита да използва бизнес отношенията на Anthropic като инструмент за натиск, като предупреди, че може да обяви компанията за риск за веригата на доставки, което би попречило на други военни изпълнители да работят с нея.

Anthropic заяви, че подобно определение се отнася само до договори с Министерството на отбраната и в понеделник заведе дело, за да оспори решението.

Група от 37 служители на OpenAI и Google DeepMind подаде становище в съда в подкрепа на Anthropic.

Надпреварата за таланти

Истинският тест за лоялността на служителите дойде миналото лято, когато Meta започна агресивна кампания за привличане на инженери и изследователи от OpenAI и Anthropic, предлагайки годишни възнаграждения, които в някои случаи достигат стотици милиони долари.

OpenAI отговори с бонуси и през декември премахна т.нар. vesting cliff, което означава, че новите служители вече не трябва да чакат дълго, за да получат акции.

Anthropic обаче не промени структурата на възнагражденията.

„Казахме на хората: вие сте тук заради мисията“, коментира Амодей. „Имаме система и ще я спазваме. Ако решите да напуснете – напускате.“

В крайна сметка Meta е успяла да привлече само двама служители от Anthropic, докато от OpenAI са напуснали няколко десетки, посочва той.

Компанията е запазила почти всички свои ранни служители и всички съоснователи. По думите на Амодей процентът на задържане на служители в Anthropic е най-добрият в индустрията.

Опити за овладяване на кризата в OpenAI

След подписването на договора с Пентагона OpenAI се опита да овладее напрежението.

Главният изпълнителен директор Сам Алтман призна в публикация в X, че бързината при сключването на договора е изглеждала „опортюнистична и непремерена“, и се опита да обясни решението.

През уикенда след подписването на договора той проведе сесия „питай ме всичко“ в X, където отговаряше на въпроси на служители и потребители.

На следващия работен ден Алтман заяви, че работи с Министерството на отбраната, за да добави уточнения към договора, които да направят „червените линии на компанията напълно ясни“.

На следващия ден Шварцер напусна компанията, а няколко дни по-късно Калиновски също обяви напускането си.

Говорител на OpenAI заяви, че договорът с Пентагона създава „работещ модел за отговорно използване на изкуствения интелект в националната сигурност“, като същевременно ясно очертава границите: без вътрешно наблюдение на граждани и без автономни оръжия.

Anthropic също е подложена на проверки.

Изследователят по безопасност на AI Мринанк Шарма обяви през февруари, че напуска компанията, за да учи поезия, като в писмо до колегите си предупреди, че светът е изложен на сериозни рискове от изкуствения интелект.

Решението му е било свързано и с промяна в дългогодишна политика за безопасност на компанията, съобщи по-рано The Wall Street Journal.