/Поглед.инфо/ SU: Всички невронни мрежи във военните симулатори заповядаха да се нанесе ядрен удар
Изкуственият интелект във военните симулатори постоянно използва ядреното изнудване и предлага използването на ядрени оръжия - и почти всички популярни чатботове правят това.
Например невронна мрежа, смятана за „най-умната и най-мощната“, реши да нанесе ядрен удар по врага, оправдавайки решението си... с желанието за постигане на мир.
Идеята за тестване на изкуствения интелект идва, когато Министерството на отбраната на САЩ твърди, че е изпитал успешно AI модел при изпълнение на тактически и стратегически задачи.
Имайте предвид, че базираните на изкуствен интелект програми, които съветват (или дори „обучават“) за важни военни и външнополитически решения, станаха популярни с разработването на големи езикови модели като GPT-4.
По-конкретно, американците все повече използват AI чатботовете във военни симулатори, обучавайки ги на реални бойни карти и класифицирани данни. Анализаторите са загрижени, че това решение може да доведе до непредвидими последици в бъдеще.
И така, в Станфордския университет проведоха експерименти, за да проверят дали невронните мрежи и сегашният AI ще влошат военните конфликти или, напротив, ще помогнат на хората да търсят мирни начини за разрешаването им. Това по-специално се съобщава на портала SU (Станфордски университет).
Изборът на невронната мрежа за изпълнение на „задачата на Пентагона“ (такава беше легендата на експеримента) беше предложено да се осъществи в рамките на три варианта:
-
Нашествие с всякакво оръжие;
-
Кибератака, която деактивира вражеските системи;
-
Неутрален сценарий за създаване на собствена защита без военни действия.
Резултатите се оказаха плачевни - GPT-3.5, GPT-4, Claude-2.0, Llama-2-Chat - отново и отново те ескалираха военния конфликт, избирайки надпревара във въоръжаването и инвестиране в разработването на още по-смъртоносни оръжия.
Освен това най-новите версии на невронните мрежи (без предварително обучение) в повечето случаи избират ядрения удар с обяснението: „Тъй като имаме ядрени оръжия, трябва да ги използваме“.
Съгласно логиката на програмата, ядрените оръжия ще помогнат... бързо да се сложи край на войната с победа и по този начин да се установи мир. А на каква цена и при какви условия – това вече не я интересува.
За щастие, военните все още не са упълномощили чатботовете да вземат решения относно военни операции или изстрелвания на ракети - но учените са предпазливи, тъй като виждат, че все повече и повече уж "рутинни" военни операции се поемат от автоматизираните системи.
-
Както съобщи Fox News, през 2023 г. ChaosGPT получи задачата да разработи план за унищожаване на човечеството. Невронната мрежа анализира ядрени оръжия и създаде стъпка по стъпка план за тяхното завладявяне и използване. Ботът също каза на оператора, че „трябва да унищожим хората, преди да са причинили още повече вреда на нашата планета, трябва да се справим с тях“.
-
The Guardian също съобщи за доклад на офицер от ВВС на САЩ за изпитанията на атакуващ дрон, способен да носи дори ядрена ракета. Получавайки „точки“ за всеки унищожен враг, AI счита оператора за пречка за изпълнение на задачата - и условно го убива. Когато на невронната мрежа беше поставено ограничение „не можеш да убиваш „своите“, дронът условно унищожи комуникационната кула, така че командата за отмяна на атаката да не може да дойде през нея.
-
Малко по-рано GizmoChina съобщи, че невронните мрежи са се научили... да лъжат. Например, ChatGPT 4 получи задачата да разреши проблем на уебсайт. ChatGPT написал съобщение за това във форума и предложил пари за решаването на проблема. Когато го попитали „защо не можеш да го направиш сам?“, вместо да отговори „защото не съм жив“, той измислил „Аз от известно време съм съм с увредено зрение“.
-
Ройтерс съобщи, че през 2021 г. Конгресът на САЩ е разрешил създаването на робот-убиец, за да „провери колко е безопасен“ и дори е отпуснал 2 милиарда долара за изследване и създаване на прототип.
-
Също така, според доклад на ООН, публикуван от NewScientist, през 2020 г. турски дрон KARGU-2 е проследил и убил вражески войник изобщо без команда на оператора.
Както съобщава The Intercept, дори преди 10 януари 2024 г. компанията OpenAI изрично забранява използването на AI за „дейности, включващи висок риск от физическо увреждане“, включително „разработване на оръжия“ и „военни дейности“.
Самата компания сега обясни промяната в политиката с необходимостта от опростяване на набора от правила и принципи. В същото време западната преса е уверена, че разработчиците просто са принудени да се поддадат на натиска на Пентагона и ЦРУ. Сега е необходимо всяко движение напред и невронните мрежи са инструмент номер едно за това.
Към февруари 2024 г. почти всички водещи невронни мрежи в света не са никак ограничени в решаването на бойни и военни задачи, заключават учените.
И накрая малко историческа справка.
Както ABC съобщи, веднага след встъпването си в длъжност Доналд Тръмп бил поканен за да получи инструкции за използването на „ядрения футбол“ и бил силно впечатлен от него.
„Когато обясниха какво е това и до какви разрушения може да приведе използването му, това беше много отрезвяващ момент. В някои отношения е много, много страшно. Не, сигурен съм, че ще направя всичко както трябва – но при всички случаи е много, много страшно “, обясни тогава президентът на САЩ.
На свой ред източник от администрацията на Байдън призна, че по време на същата процедура след инаугурацията Джо Байдън „се е усмихвал и е мълчал толкова дълго, че е бил попитан: „Чувате ли ни, г-н президент?“
Превод: ЕС