Докато Anthropic изразява притеснения относно предоставянето на неограничен достъп на американската армия до своите AI модели, част от технологичната индустрия вече работи в обратна посока. Някои стартиращи компании разработват AI, предназначен специално за военни цели.

Една от тях е Smack Technologies, която тази седмица обяви инвестиционен кръг от 32 млн. долара. Компанията разработва AI модели, които според нея скоро ще надминат възможностите на Claude – модела на Anthropic – в планирането и изпълнението на военни операции.

За разлика от Anthropic, която настоява за ограничения върху използването на AI в автономни оръжия, Smack проявява значително по-малко притеснения относно такива приложения.

„Когато служиш в армията, полагаш клетва, че ще действаш почтено, законно и в съответствие с правилата на войната“, казва главният изпълнителен директор Анди Маркоф пред WIRED. „Според мен хората, които използват технологията и гарантират, че тя ще се прилага етично, трябва да носят униформи.“

От специалните части към AI

Маркоф не е типичен технологичен предприемач. Той е бивш командир в Командването за специални операции на морската пехота на САЩ и е участвал в мисии в Ирак и Афганистан.

Smack Technologies е основана от него, Клинт Аланис – също бивш морски пехотинец – и Дан Гулд, компютърен учен и бивш вицепрезидент по технологиите в Tinder.

Компанията разработва AI модели, които се обучават чрез метод на проба и грешка, подобно на подхода, използван от Google за AlphaGo през 2017 г.

При Smack моделите се обучават чрез военни симулации и сценарии, а експертни анализатори оценяват дали избраната от AI стратегия води до успешен резултат.

Въпреки че компанията не разполага с бюджета на големите AI лаборатории, тя вече е инвестирала милиони долари в обучението на първите си модели, казва Маркоф.

Напрежение около военния AI

Военното използване на изкуствен интелект е сред най-спорните теми в Силициевата долина, особено след конфликта между Министерството на отбраната на САЩ и Anthropic.

Двете страни не постигат съгласие по договор за около 200 млн. долара, като основен проблем е желанието на Anthropic да ограничи използването на своите модели в автономни оръжия.

Ситуацията ескалира дотам, че министърът на отбраната на САЩ Пийт Хегсет обяви компанията за риск за веригата на доставки.

Според Маркоф обаче този спор прикрива по-важен проблем – днешните големи езикови модели всъщност не са създадени за военна употреба.

„Модели с общо предназначение като Claude са добри в обобщаването на доклади“, казва той.

„Но те не са обучени върху военни данни и нямат човешко разбиране за физическия свят.“

Затова според него тези системи не са подходящи за управление на реално военно оборудване.

„Мога да ви кажа, че те абсолютно не са способни да идентифицират цели“, твърди Маркоф.

Той добавя, че към момента никой в Пентагона не обсъжда пълна автоматизация на „веригата на убийството“ – процеса на вземане на решения за използване на смъртоносна сила.

Автономните оръжия вече са налице

Някои експерти отбелязват, че автономните системи вече са част от съвременната война.

Системите за противоракетна отбрана трябва да реагират със скорости, които надхвърлят човешките възможности, което налага автоматизирани решения.

„САЩ и над 30 други държави вече използват оръжейни системи с различна степен на автономност, включително някои, които бих определила като напълно автономни“, казва Ребека Крутоф, експерт по правните аспекти на автономните оръжия в University of Richmond School of Law.

AI за планиране на военни операции

Според Маркоф специализирани AI модели като тези, които Smack разработва, могат да се използват за планиране на мисии.

Целта е да се автоматизира голяма част от трудоемката работа по изготвянето на военни планове – процес, който често все още се извършва ръчно с бели дъски и бележници.

Ако САЩ се окажат във война с равностоен противник като Русия или Китай, подобна технология може да даде стратегическо предимство чрез по-бързо вземане на решения, казва Маркоф.

Опасност от ескалация

Въпреки това остава въпросът доколко изкуственият интелект може да бъде надежден в такива сценарии.

Експеримент на изследовател от King’s College London показва тревожна тенденция: големите езикови модели често ескалират ядрени конфликти по време на военни симулации.

Нуждата от ясни правила

Последните войни, включително конфликтът между Русия и Украйна, показват значението на евтините полуавтономни системи, изградени върху комерсиален хардуер и софтуер.

През 2023 г. американският флот тества нови автономни системи в Персийския залив, предназначени да откриват дронове, използвани от групировки, подкрепяни от Иран.

Някои експерти предупреждават, че са необходими по-ясни граници за използването на изкуствен интелект във военната сфера, особено при сключването на нови договори.

„Дори ако моделите на Anthropic не се използват за напълно автономни оръжия днес, те могат да бъдат интегрирани във веригата на вземане на решения по проблематични начини“, казва Анна Хехир, ръководител на програмата за управление на военния AI в Future of Life Institute.

Тя смята, че технологията все още е твърде непредсказуема за такива ситуации.

„AI е твърде ненадежден, непредвидим и труден за обяснение, за да бъде използван в толкова високорискови сценарии“, казва тя.

„Тези системи не могат надеждно да разпознаят кой е боец и кой е дете, камо ли да разберат акта на предаване.“

Войната винаги е непредсказуема

Дори Маркоф признава, че пълната автономия вероятно трябва да бъде ограничена, тъй като реалният конфликт винаги е хаотичен.

„Никога не съм участвал в операция в реалния свят, която да се развие дори на 50% според плана“, казва той.

„И това няма да се промени.“