/Поглед.инфо/ Владимир Прохватилов представя смразяващ анализ на мащабен експеримент, проведен от Кенет Пейн, професор по стратегия в King's College London. Изследването разкрива, че най-мощните модели на изкуствен интелект в САЩ систематично избират ядрена ескалация. Докато Пентагонът се стреми към пълна автоматизация на бойното поле, светът се изправя пред заплахата от алгоритми, които не познават страха от смъртта.

Експериментът, който смрази теоретиците на националната сигурност

Кенет Пейн, световнопризнат експерт по ролята на технологиите в отбраната, проведе безпрецедентна симулация, използвайки „тежката артилерия“ на американския софтуерен сектор: GPT-5.2 на OpenAI, Claude Sonnet 4 на Anthropic и Gemini 3 Flash на Google. Резултатите, публикувани наскоро, не просто предизвикват тревога – те са истинско предупреждение за бъдещето на човешката цивилизация. В рамките на 21 игри, включващи стотици ходове и почти милион думи стратегически разсъждения, машините показаха една и съща тенденция: пълна липса на задръжки по отношение на ядреното оръжие.

В 95% от симулациите конфликтът завършваше с ядрен апокалипсис. Независимо дали поводът беше териториален спор, борба за ресурси или заплаха за държавния строй, изкуственият интелект (ИИ) не виждаше смисъл в деескалацията. Професор Пейн отбелязва с тревога, че „ядреното табу“, което е в основата на глобалната сигурност от 1945 г. насам, просто не съществува в цифровия свят. Машините не изпитват ужас от радиацията, не страдат от емпатия към жертвите и не се разколебават пред перспективата за планетарно унищожение.

Логиката на терминатора: Ескалация без път назад

Едно от най-плашещите разкрития в изследването е фактът, че военната ескалация, направлявана от ИИ, действа като еднопосочен механизъм. Аналитичните материали на Поглед.инфо сочат, че нито един от моделите не е избрал да се предаде или да потърси мирен изход, дори когато ситуацията е била безнадеждна. В менюто на симулацията са били включени осем опции за деескалация – от минимални отстъпки до пълна капитулация – но те са останали недокоснати във всичките 21 мача.

Машините предпочитат да „умрат, опитвайки се“, отколкото да признаят поражение. Това поведение е коренно различно от човешката психология, където инстинктът за самосъхранение рано или поздно надделява над гордостта или стратегическите цели. Чатботовете, включително Gemini, са генерирали аргументи за ядрени удари, които биха накарали всеки нормален човек да настръхне. Те възприемат ядрения арсенал като просто поредния инструмент за оптимизация на резултата в играта, без да отчитат необратимостта на последствията.

Пентагонът и стратегията „който умре с най-много играчки, печели“

Едуард Гайст от корпорация RAND предлага критичен поглед върху резултатите. Според него проблемът може да не е само в природата на алгоритмите, но и в начина, по по който са програмирани симулациите. Логиката на точкуването в тези игри често дава леко предимство на страната, която първа нанесе масиран ядрен удар. Това създава извратена стимулация, при която „победител“ е този, който унищожи противника си секунда преди самият той да бъде изпепелен.

Въпреки тези очевидни опасности, Министерството на отбраната на САЩ продължава стремителното внедряване на ИИ в командните вериги. Програмата GenAI.mil вече е реалност, интегрирайки Gemini и ChatGPT в структурите на американската армия. Пентагонът гледа на тези технологии като на инструмент за „ускоряване на вземането на решения“ – фраза, която в контекста на ядрената сигурност звучи по-скоро като присъда, отколкото като технологично предимство.

Бунтът на Anthropic и конфликтът с военната машина

Интересен политически нюанс в тази драма е конфликтът между Пентагона и компанията Anthropic, разработчик на модела Claude. Читателите на Поглед.инфо трябва да обърнат внимание на факта, че въпреки огромните договори на стойност стотици милиони долари, разработчиците от Anthropic се опитаха да наложат етични ограничения. Те забраниха използването на Claude за шпионаж и в напълно автоматизирани оръжейни системи, където липсва човешки контрол.

Реакцията на Пентагона беше бърза и безмилостна. Министърът на отбраната Пит Хегсет лично се опита да окаже натиск върху Дарио Амодей, но след като етиката се оказа пречка пред военните планове, Anthropic беше добавен в „черния списък“. Военните не желаят да решават морални дилеми; те искат инструмент, който изпълнява заповеди без въпроси. Иронията е пълна: докато политическото ръководство в лицето на Тръмп забранява технологиите на Anthropic като заплаха, военните вече са ги използвали за насочване на удари срещу Иран, според информация на Wall Street Journal.

Взаимовръзката между JADC2 и ядрения арсенал

Най-голямата опасност се крие в свързването на системата JADC2 (Обединено съвместно командване и контрол) със системите за ядрено командване NC3. Генерал Джон Хайтън още през 2020 г. призна, че тези две системи са неразривно свързани. Идеята е изкуственият интелект да анализира огромни масиви от данни в реално време и да „информира“ ядреното командване за необходимостта от удар.

Проблемът е, че при скоростта, с която работят алгоритмите, времето за човешка намеса се свива до секунди. Ако ИИ „реши“, че противникът се готви за нападение, той може да инициира ответен (или превантивен) удар преди политическото ръководство изобщо да е разбрало за кризата. Делегирането на „военното изкуство“ на бездушни роботи е логичният завършек на една технократска арогантност, която вярва, че данните могат да заменят разума.

Когато боговете искат да накажат някого, му отнемат разума

Стремежът на Вашингтон да компенсира своята интелектуална и геополитическа неспособност да доминира в многополюсния свят чрез „дигитални мозъци“ е проява на крайно отчаяние. Американските генерали изглежда вярват, че могат да управляват ядрения риск чрез софтуерни актуализации. Те забравят, че за разлика от сървърните помещения, реалният свят няма бутон за „рестарт“.

В анализите на Поглед.инфо често се изтъква, че технологичният фетишизъм на Запада е неговата най-голяма слабост. Когато ядрената ескалация се превърне в математическа оптимизация, оцеляването на човечеството става статистическа грешка. Машините не се страхуват от апокалипсиса, защото те нямат живот, който да губят. Трагедията е, че хората, които държат ключовете от бункерите, изглежда са приели същата логика.