/Поглед.инфо/ Човечеството е все по-близо до създаването на напълно автономни бойни машини-роботи. Тяхната задача ще бъде да вземат самостоятелно решения за поразяването на цели на бойното поле. Около тези перспективи се водят не само технически, но и етични спорове. И някои твърдят, че бойните роботи няма да увеличат, а рязко ще намалят броя на човешките жертви по време на война. Как така?

ВВС съобщава, че въоръжените сили на Великобритания са провели най-големите в своята история маневри с участието на т.нар. автономно оръжие. Както се твърди, „военните са изигравали атаки, в които участва жива сила с поддръжката на дронове и танкове с дистанционно управление”.

Строго казано, „танковете с дистанционно управление” все още не са автономно оръжие, снабдено със свой собствен интелект, позволяващ на машината да взема самостоятелни решения, без каквито и да е заповеди, постъпващи от разположен далеч от бойното поле команден пункт. Но те може да се смятат за междинен вариант, преходен модел или последна крачка към „умното оръжие”.

Изглежда, че вече у никой няма съмнение, че военните устройства скоро ще могат да вземат собствени решения без контрола на човека. Затова и борбата между привържениците и противниците на употребата на изкуствения интелект във въоръжените конфликти се разгаря с всеки следващ ден.

Ежедневно чуваме експертите, които казват, че роботите могат да се надигнат на война срещу човечеството. Испанският вестник La Vanguardia пише, че днес, изглежда, се сбъдва предвиденото от американския режисьор Стенли Кубрик, представено от него в пророческия филм „2001:Една одисея в космоса”. Във филма компютърът ХАЛ 9000 решава да атакува екипажа на космическия кораб, в който е поставен, за да не изключат компютъра.
„Машината, която самостоятелно избира целите, по които трябва да стреля – това е скок в неизвестното, което голяма част от човечеството, изглежда не иска да разбере. Това е нож с две остриета, която може да причини смъртоносна вреда не само на обекта, срещу който работи, но и срещу своя създател и командир”, отбелязва в коментари за горепосоченото издание специалистът в областта на компютъризираната роботехника Хоакин Родригес. Той влиза сред групата експерти, която под егидата на ООН готви почва за разработка на бъдещия международен договор против подобен вид оръжие.

На 25 септември 2018 г. своето отношение към случващото се изрази дори генералният секретар на ООН Антонио Гутереш: „Перспективата за създаване на машини, способни да унищожават човешки живот е аморална и отвратителна”. Генералният секретар се опасява, че техническите постижения могат да унищожат човечеството също толкова бързо и също толкова напълно, колкото и ядреното оръжие. За това въоръжените системи „просто трябва да се изплъзнат изпод контрола на човечеството или да попаднат в чужди ръце”. Според Гутереш, „роботите-убийци са голяма опасност”.

Автономното смъртоносно оръжие (Lethal Autonomous Weapons, наложила се абревиатура за всеобщо ползване LAW – англ. Е резултат от изследователската работа по употребата на изкуствен интелект за търсене на решения в областта на военната конфронтация и воденето на бойни действия. Известно е, че съществуват надводни и подводни съдове, оборудвани с LAW, а също така въздушни безпилотни летателни и автономни наземни апарати, които сами си избират целите. Наземните в някои случаи получават форми, сходни с човешките.

Закон за автономното оръжие: да се забрани, не да се разрешава

Около предполагаемия закон за забраната на разработки, създаване и използване на самообучаващи се роботи във военната сфера се водят жестоки дискусии между специалистите-инженери. Две от основните групи са защитниците на закона и неговите противници. И двете постоянно дискутират проблемите от разнообразен характер, но са най-вече съсредоточени на три теми, свързани с оръжието, което притежава изкуствен интелект: оцеляването на човечеството като вид, конфликтите от етичен и морален характер, съответствието и несъответствието на въпросния вид оръжие с международното право и правата на човека.

Вече от няколко години съществуват автономни системи оръжие, в които намесата на човешкия фактор във веригата на решенията е ниско или нулево. Но доскоро бяха проверени единствено защитните системи. Можем да си спомним, че на границата, разделяща Северна и Южна Корея, са установени механизма за автоматична стрелба по всичко, което се движи по земята. Или например т.нар. „железен купол” – противоракетната система на Израел, с чиято помощ той трябва да неутрализира снарядите, пуснати от Газа по еврейските позиции. Войниците, които контролират системата само гледат компютърната система да не даде срив.

Cui prodest?

Израел, Франция, Южна Корея, Великобритания, КНР, Русия и САЩ са против всяко споразумение от планетарен мащаб, което да налага вето върху изследването и разработката на оръжие с изкуствен интелект.

Няма нужда да си гений, за да се сетиш защо. Назованите страни в момента не само, че са лидери по производство на оръжие, но са пред целия свят по технологични разработки. И затова предложенията на изоставащите в това отношение („Ама хайде да забраним цялото оръжие, защото сами не можем да го произведем”) са не повече от желанието да се изравнят всички страни по света не с наваксването на изостаналите, а със спиране на напредналите.

Изкуственият интелект, предсказват специалистите, в близкото бъдеще ще получи способността да се самообучава. Изхождайки от това много учени смятат, че ще настъпи момент, в който роботът-убиец ще започне самостоятелно да избира цели, преценявайки заложените в него от човека задачи и начините за тяхното изпълнение за „неинтересни и неправилни”. Роботът ще избира мишени според собствената си преценка, а операторът ще загуби възможността в такъв случай да въздейства върху процеса на вземане на решение от машината.

Трудно е да се каже дали тази група специалисти случайно или нарочно „забравя” за това, че всяка кибернетична машина задейства тези програми, които са заложени в нея.

Разработчиците не са такива идиоти, че да създадат програма, която е ориентирана така, че на робота изведнъж да му скимне да стреля по своите и напълно да загуби интерес към изтребването на противникът.

За да успее роботът „да полудее” и да започне да картечи по всички, може да се потруди противникът: за постигането на такъв ефект той трябва да проникне в компютърните мрежи на противника, да намери нужните машини и да качи в тях съответния вирус. За хакерите това няма да е проблем. При съблюдаването на едно малко условие (което никога няма да се осъществи): системата, условно казано, на противоракетната отбрана, трябва да има достъп до интернет.

Ето и един парадокс

Разбира се, с мнението на Гутереш за аморалността и отвратителността на създаването на машини, способни да унищожават човешкия живот, няма как да не се съгласим. Но ако се замислим, изобретението на оръжието по принцип не е нещо морално. Всяка пушка, автомат, система за залпов огън и атомна бомба в края на краищата е замислена по начало за инструмент за убийство. И в този смисъл, разглеждайки идеята за автономно оръжие от тази гледна точка, човек достига до парадоксален извод. Приемането на въоръжение на такива устройства дава възможност да се намалят човешките загуби – дори при обичайна престрелка.
Привържениците на смъртоносните автономни оръжия са убедени, че използването на тези системи ще намали броя на човешките жертви по време на война. Защото роботите не знаят страх, те не реагират на истерията, витаеща около тях и нямат желание за отмъщение.

До работата е и там, че зад картечницата или оръжието в такива условия на човек няма да му се налага да лежи, следователно рискът от загуба на човешки живот намалява.

Машините ще унищожават други машини, а не живи същества. Ако това не е блага цел, тогава…?

Превод: В.Сергеев


Стани приятел на Поглед.инфо във facebook и препоръчай на своите приятели