Сам Алтман призна, че OpenAI е прибързал със сделката с Пентагона и преразглежда условията
Компанията заяви, че AI инструментите няма да бъдат използвани от разузнавателните агенции за вътрешно наблюдение на граждани на САЩ, наред с други промени
,fit(1001:538)&format=webp)
Главният изпълнителен директор на OpenAI Сам Алтман, заяви, че компанията „не е трябвало да бърза“ да сключва сделка с Министерството на отбраната на САЩ и очерта ревизиите на споразумението.
По думите му, компанията ще измени договора, за да включи нова формулировка, която да изясни, че „AI системата не трябва да се използва умишлено за вътрешно наблюдение на лица и граждани на САЩ“.
„Министерството разбира ограничението за забрана на умишлено проследяване, наблюдение или мониторинг на лица или граждани на САЩ, включително чрез придобиване или използване на търговски придобита лична и идентифицираща информация“, допълва той.
Промените идват, след като разработчикът на ChatGPT обяви, че е сключил нова сделка с Пентагона в петък, само часове след като президентът на САЩ Доналд Тръмп нареди на федералните агенции да спрат да използват инструментите на конкурента Anthropic и часове преди Вашингтон да започне удари в Иран, отбелязва CNBC.
Според Алтман, Министерството на отбраната също е потвърдило, че инструментите на OpenAI няма да бъдат използвани от разузнавателни агенции като NSA.
„Има много неща, за които технологията просто не е готова, и много области, в които все още не разбираме компромисите, необходими за безопасността“, обяснява технологичният лидер, добавяйки, че компанията ще работи с Пентагона по техническите предпазни мерки.
Here is re-post of an internal post:
— Sam Altman (@sama) March 3, 2026
We have been working with the DoW to make some additions in our agreement to make our principles very clear.
1. We are going to amend our deal to add this language, in addition to everything else:
"• Consistent with applicable laws,…
Той признава също, че е допуснал грешка и „не е трябвало да се бърза“ със сключването на сделката в петък. „Ние се опитвахме да успокоим нещата и да избегнем много по-лош резултат, но мисля, че това просто изглеждаше опортюнистично и небрежно“, пише той в публикацията.
Признанието идва след публичен конфликт между Anthropic и Вашингтон относно мерките за сигурност за системите Claude AI, който приключи без споразумение. Министърът на отбраната Пит Хегсет заяви в петък, че компанията ще бъде определена като заплаха за веригата на доставки.
След първоначалната сделка миналата година Anthropic беше първата лаборатория за изкуствен интелект, която внедри модели в класифицираната мрежа на Пентагона.
По-късно компанията потърси гаранции, че нейните инструменти няма да бъдат използвани за цели като вътрешно наблюдение в САЩ или за експлоатация и разработване на автономни оръжия без човешки контрол.
Спорът започна, след като стана ясно, че Claude на Anthropic е бил използван от американската армия при операцията за залавянето на венецуелския президент Николас Мадуро през януари, въпреки че компанията не е възразила публично срещу това използване.
Сделката на OpenAI с Пентагона беше сключена веднага след провала на преговорите между Anthropic и Министерството на отбраната, въпреки че Алтман беше съобщил на служителите в меморандум в четвъртък, че OpenAI споделя същите „червени линии“ като Anthropic.
Компанията също така заяви в публикация в петък, че Министерството на отбраната е приело ограниченията.
Остава неясно защо ведомството е било съгласно да се съобрази с OpenAI, а не с Anthropic, въпреки че правителствени служители от месеци критикуват Anthropic за това, че се интересува прекалено много от безопасността на изкуствения интелект.
Времето, в което OpenAI сключи сделката, предизвика негативна реакция в интернет, като много потребители според съобщенията са заменили ChatGPT с Claude в магазините за приложения.
В публикацията си Алтман заявява: „В разговорите си през уикенда повторих, че Anthropic не трябва да бъде определена като риск за веригата на доставки и че се надяваме Министерството на отбраната да им предложи същите условия, с които ние се съгласихме“.
Anthropic е основана през 2021 г. от бивши служители и изследователи на OpenAI, които напускат компанията след разногласия относно развитието й и да се рекламира като алтернатива, поставяща AI безопасността на първо място.
&format=webp)
&format=webp)
)
&format=webp)
&format=webp)
&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(1920:897)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)
,fit(140:94)&format=webp)