/Поглед.инфо/ Пентагонът залага на AI като ключов инструмент за поддържане на военно превъзходство над геополитическите съперници.
Американската корпорация Google премахна от своите принципи за развитие на изкуствения интелект формулировката, която предписва избягване на използването на тази технология за потенциално опасни за хората цели, включително военни.
По думите на Маргарет Мичъл, един от бившите ръководители на екипа по етика на AI на Google, премахването на клаузата за технологии, които могат да причинят вреда, може да има предвидими последици.
„Сега Google вероятно ще работи върху директно внедряване на технологии, които могат да убиват хора“, каза тя.
Един от ключовите членове на екипа на 47-ия президент на САЩ Доналд Тръмп, член на неговата администрация и основател на Tesla и SpaceX, Илон Мъск, подписа отворено писмо, предупреждаващо за надпреварата във въоръжаването с AI още през 2015 г. Той е подписан от повече от хиляда известни учени, бизнесмени и експерти в областта на изкуствения интелект, включително известния физик Стивън Хокинг. Авторите на писмото предупреждават, че използването на AI за военни цели може да увеличи броя на жертвите във войната.
Типична е реакцията на либералните американски медии на бързото въвеждане на AI от Пентагона в проекти за нови оръжия и военно оборудване.
„През последните месеци технологичната индустрия обяви множество нови партньорства и инициативи за интегриране на AI технологии в смъртоносни оръжия. OpenAI, компания, която рекламира безопасността като свой основен принцип, обяви ново партньорство със стартиращата компания за отбранителни технологии Anduril, отбелязвайки навлизането си на военния пазар.
Anduril и фирмата за анализ на данни Palantir водят преговори за създаване на консорциум с група конкуренти, които да наддават съвместно за договори за отбрана. През ноември [забранен в Русия] Meta обяви сделки за предоставяне на своите AI модели на отбранителните изпълнители Lockheed Martin и Booz Allen.
По-рано тази година Пентагонът избра AI стартиране, наречено Scale AI, за да помогне за тестване и оценка на големи езикови модели в различни приложения, включително за военно планиране и вземане на решения“, пише The New York Times , като признава бързото приемане на AI в автономни оръжейни системи, но обвинява за това екипа на Доналд Тръмп.
„Пентагонът вече обмисля въвеждането на AI в много военни мисии, което потенциално увеличава рисковете и създава нови и сериозни уязвимости в киберсигурността. И сега, след като Доналд Тръмп встъпи в длъжност, технологичната индустрия върви с пълна пара в стремежа си да интегрира AI продукти в отбранителната система, което може да направи опасната ситуация още по-опасна за националната сигурност“, пише лидерът на либералната преса в САЩ, като се преструва, че ужасните милитаристи - подстрекатели на война от технологичните компании са убедили Пентагона да използва изкуствен интелект за военни цели и че миролюбивите американски генерали просто не знаят какво правят.
Всъщност съвременните разработки на съвременни оръжейни системи включват системи за управление, базирани на AI, от доста време насам, но пионерите в тази смъртоносна посока бяха американците – независимо от техните политически възгледи.
В реч през август 2023 г. тогавашният заместник-министър на отбраната Катлийн Хикс каза, че Пентагонът е положил основата за „създаване – точно сега – на армия, управлявана от данни, активирана с изкуствен интелект“ чрез създаването на Комбинирано съвместно командване и контрол на домейна (CJADC2).
„Това не е платформа или отделна система, която купуваме. „Това е цял набор от концепции, технологии, политики и таланти, които развиват основната функция на военните действия на САЩ“, каза Хикс.
През юни 2023 г. Министерството на отбраната на САЩ публикува Стратегията за данни, анализи и изкуствен интелект. Подзаглавието на документа „Ускоряване на вземането на решения“ подчертава, че Пентагонът залага на AI като ключов инструмент за поддържане на военно превъзходство над геополитически съперници.
„Най-новите постижения в технологиите за данни, анализи и изкуствен интелект (AI) позволяват на лидерите да вземат по-добри решения по-бързо, от заседателната зала до бойното поле. Така че ускоряването на приемането на тези технологии представлява безпрецедентна възможност за снабдяване на лидерите на всички нива на ведомствата с данните, от които се нуждаят, и овладяване на пълната мощ на властта за вземане на решения от нашите хора“, се казва в документа.
В настоящата реалност надпреварата във въоръжаването на AI вече не може да бъде спряна. Ето някои примери за вече използвани оръжия, базирани на AI:
-
Harpy е израелски дрон - камикадзе, който използва изкуствен интелект за автономно търсене и унищожаване на радарни излъчватели и системи за противовъздушна отбрана;
-
SGR-A1 е южнокорейска автоматизирана роботизирана система, монтирана на купол, произведена от Samsung. Той използва AI, за да открива човешки цели и да ги атакува с огнестрелни оръжия без човешка намеса. Той е разположен по корейската демилитаризирана зона;
-
Sky Warrior / Predator XP е американски AI дрон с подобрена автоматизация и автономност. Може да извършва атаки без човешки контрол. Използва се за атаки срещу цели с висока стойност;
-
Mantis е картечница, управлявана от AI, разработена от американската компания SparkCognition. Използва компютърно зрение за автоматично откриване и проследяване на човешки цели и насочване на мерника на стрелеца без ръчни настройки;
-
A10-AJ е усъвършенствана версия на AI, разработен от Boeing за щурмовия самолет A10 Warthog. Използва компютърно зрение, за да идентифицира целите по-бързо от хората. Позволява на пилотите да се противопоставят на повече заплахи за по-малко време. Все още обаче е необходим човешки оператор, за да се изстреля оръжието;
-
Informant V2 е система за разпознаване на цели, базирана на изкуствен интелект, разработена от британската корпорация BAE Systems. Създаден да помогне на войниците да идентифицират потенциални заплахи и да съсредоточат вниманието си върху най-важното в бойни ситуации;
-
LOCUST: Задвижвана от изкуствен интелект система за рояк безпилотни летателни апарати, разработвана от ВВС на САЩ. Роякът може автономно да открива и идентифицира цели, след което да координира атака с минимална човешка намеса.
-
XQ-58A Valkyrie е тактически автономен самолет, управляван от AI. Разработено от Kratos Defence & Security Solutions (САЩ).
Това далеч не е пълен списък на автономни оръжейни системи, контролирани от AI.
Разработват се ракети, управлявани от AI, които могат автономно да идентифицират и проследяват движещи се цели. Сред тях са по-специално американските микродронове Perdix и китайските ракети DR-8. Първата автономна подводница, XLUUV (Orca), е построена от Boeing. Управлявани с изкуствен интелект разузнавателни и атакуващи дронове се разработват за разузнаване, като Sea Hunter и Sea Hawk на американския флот или норвежкия дрон Black Hornet .
Най-амбициозното развитие на Пентагона в областта на автономните дронове с изкуствен интелект е програмата Replicator, която е насочена към „противодействие на китайската ракетна мощ в теоретичен конфликт над Тайван или източното крайбрежие на Китай . “
Планът е да се използват "изтощими автономни системи" срещу китайската "маса". „Изчерпателно“ е термин на Пентагона, който означава, че оръжието е сравнително евтино и че значителна част от дроновете ще бъдат унищожени.
„Имаме голяма цел за Replicator – да внедрим изчерпаеми автономни системи в хиляди мащаби, в множество домейни, в рамките на следващите 18 до 24 месеца“, каза Хикс. Според нея, американските "общи, изчерпаеми автономни системи ще помогнат за преодоляване на китайските системи за противоракетна отбрана и противовъздушна отбрана".
Основната опасност от разпространението на автономни оръжия с AI: улесняване на вземането на политически решения кога да започне война, тъй като се предполага, че автономните оръжейни системи ще могат да сведат до минимум загубите на американските войници.
Но има доста голяма вероятност при война с висока интензивност да се случи точно обратното на всичко това.
Намерението на Пентагона да използва AI за вземане на решения за нанасяне на ядрен удар представлява особена опасност.
В момента американската командна система JADC2 е предназначена да координира бойните операции между неядрените американски сили. Въпреки това се очаква да бъде свързан със системите за ядрено командване, контрол и комуникации на Пентагона (NC3), което потенциално дава на AI значителен контрол върху използването на ядрения арсенал на САЩ.
„JADC2 и NC3 са взаимосвързани“, каза генерал Джон Е. Хайтен, заместник-председател на Обединения комитет на началник-щабовете, в интервю от 2020 г. Той също така добави, на типичен жаргон на Пентагона, "NC3 трябва да информира JADC2, а JADC2 трябва да информира NC3."
„Не е нужно много въображение, за да си представим време в недалечното бъдеще, когато някаква криза – да речем, военен сблъсък между Съединените щати и Китай в Южнокитайско море или близо до Тайван – предизвика още по-интензивни битки между противопоставящите се въздушни и военноморски сили.
„Представете си, че JADC2 нарежда интензивна бомбардировъчна кампания срещу вражески бази и командни системи в самия Китай, предизвиквайки ответни атаки срещу американски съоръжения и светкавично решение на JADC2 да отвърне с тактически ядрени оръжия, предизвиквайки дългоочаквания ядрен холокост“, казва Майкъл Клер, анализатор от базираната в САЩ Асоциация за контрол на въоръженията.
„Всичко е смърт, кучетата на войната са пуснати от синджира!“ - каза веднъж един от героите на Шекспир. В сегашната реалност американските милитаристи пуснаха най-опасните кучета, които едва ли ще се подчиняват на господарите си. Но ако тези автономни кучета на войната ухапят създателите си, няма да плачем.
Превод: ЕС