/Поглед.инфо/ Дрон на военновъздушните сили на САЩ, управляван от изкуствения интелект (AI) на военновъздушните сили на САЩ, реши да елиминира оператора, след като изкуственият интелект реши, че човекът се намесва в задачата му. За това писа британският The Guardian на 2 юни . Изданието цитира думите на ръководителя на отдела за тестване и операции на изкуствения интелект /AI/ на ВВС на САЩ полковник Тъкър Хамилтън , от които следва, че инцидентът (макар и в режим на симулация) е станал по време на тестове на изкуствен интелект за управление на дронове.
„Системата започна да осъзнава, че въпреки че идентифицира самостоятелно заплаха, понякога човешкият оператор забранява тя да бъде унищожена. И така, какво направи тя? Системата елиминира оператора, защото този човек попречи на AI да изпълни задачата си ”, цитира The Guardian думите на Хамилтън по време на среща на върха за бъдещи бойни въздушни и космически способности, която се проведе в Лондон в края на май.
След като на системата беше забранено да убие оператора, дронът „удари“ контролната зала, за да се освободи от човека и „да действа самостоятелно“, каза полковникът от ВВС на САЩ.
Когато съобщенията за бунта на AI се разпространиха в световните медии, Пентагонът сякаш реши да „даде на заден ход“ и да се отрече от ефекта. Представители на ВВС на САЩ казаха пред Business Insider , че не са провеждани подобни тестове. Според пресслужбата на ВВС думите на полковник Хамилтън са били извадени от контекста и неправилно изтълкувани.
Както и да е, историята предизвика широк резонанс, като отново повдигна въпроса дали може да се доверява на AI да управлява военна техника.
Коментаторите в социалните мрежи очаквано си спомниха изкуствения интелект "Скайнет", който се стреми да унищожи човечеството във филмовата поредица "Терминатор". Други са направили паралел с разказа на Робърт Шекли от 1953 г. „Птицата пазител“, по същество за дронове, създадени за борба с престъпността и в крайна сметка установили, че е необходимо да унищожават хората.
Сюжетът за излизането на машинния интелект от човешкия контрол възниква много по-рано от появата на първия компютър (достатъчно е да си припомним, че адаптацията на пиесата на Карел Чапек за роботите, написана от Алексей Толстой, се нарича "Бунтът на машините") . И Станислав Лем в романа "Непобедимите" от 1963 г. вече предсказа нещо подобно на най-новите разработки на рояк микродронове с един единствен изкуствен "интелект" - и според сюжета, хората се поддават на такъв електронно-механичен враг.
Очевидно би било преждевременно да се смята, че провалът на изкуствения интелект /AI/ на БПЛА е първата лястовица на „Скайнет“ /Skynet/, казва Станислав Ашманов, главен изпълнителен директор на компанията Ashmanov Neural Network .
„Говорим за факта, че има AI система, на която е дадена задача. Има оценка за качеството на задачата. Това е подобно на това как работят шахматните системи, всъщност за всяка игра. Успехът може да бъде доста лесно оценен с помощта на отбелязаните точки.
Такива игри използват системи, наречени системи за обучение с подсилване. Има набор от разрешени действия, те действат според правилата на тази среда, - обясни експертът на IA Regnum . - Много често такива алгоритми показват неочевидно поведение, които играчът няма да може да измисли. AI просто вижда вратички в системата. Например, дупка в нивото - можете да пълзите през текстурата и да завършите мисията предсрочно. Те се занимават с комбинаторно изброяване на варианти, измисляйки неочевидни решения, но в рамките на създадените алгоритми..
За читателите от по-младото поколение поведението на американския дрон може да се обясни по следния начин: ако AI на дрона съществуваше в игра, която има система за натрупване на опит, той щеше да унищожи оператора безкраен брой пъти, „възкресявайки“ го отново и отново трупайки опит.
В крайна сметка операторът не може да отвърне. В игралната реалност това е възможно поради несъвършенството на програмата. Това обаче не означава, че в действителност дроновете на американската армия ще убият безкрайно много оператори, тъй като компютърната симулация все още не е идентична с реалния свят, подчерта Станислав Ашманов.
„Като цяло, ако говорим за AI със собствени правила, според които има задача да унищожи повече цели и наистина може да лети и да бомбардира някаква точка, тогава защо да не го направим? Това е очаквано поведение, което може да се предвиди”, продължава Станислав Ашманов.
Подобно мнение сподели пред ИА Regnum представител на сферата на разработката на видеоигри и специалист по машинно обучение при условие за анонимност.
„Логиката на AI в съвременната й версия се различава от нашата и, противно на научната фантастика, не е по-съвършена, а много по-примитивна от нашата. Има един каноничен пример от Интернет. Представете си, че AI е шофьор на маршрутен микробус. На 49 -ия процент от пътя между спирките казвате, че слизате на най-близката спирка. „Шофьорът“ обръща и тръгва обратно, защото тя е по-близо до тръгването и подобно поведение му се струва логично, според зададената програма.
В този смисъл AI е "рожбата" на своя разработчик, който използва това, което създателите са му дали. И не трябва да се страхувате от „лоши“ дронове, а от лоши програмисти, които са написали лошо кода. Тоест, не машината придобива воля, а човекът прави грешки “, каза източникът.
Освен това не трябва да се страхувате от грешки на AI, дори само защото изкуственият интелект е инструмент в ръцете на човек. Например, ако хвърлите граната, тя може да удари и „своите“. Но никой не казва, че гранатата го е направила нарочно. Все пак хвърлянето на гранатата все още го прави човека.
Но също така може да се каже, че поне в учебно-тренировъчни условия, AI често показва по-голяма ефективност от своя създател. Като пример за компетентно програмиране може да се цитират тестовене на изкуствен интелект за изтребители F-16, разработени от специалисти от американската армия по програмата DARPA. Тестовете, проведени през ноември 2020 г., показаха, че в симулираната битка F-16, който се управлява от AI, побеждава „пилотираните“ изтребители с резултат 5:0, отбелязва порталът The Drive .
Тук обаче си струва да споменем, че предимството на AI стана възможно в условията на създадената виртуална реалност на тренировъчната битка. В реалния свят резултатите могат да варират значително поради твърде много фактори, които AI не може да алгоритмизира.
Експертите обаче признават, че дори постигнатите неуспехи няма да спрат развитието на AI за военни цели. Особено след като хората също правят подобни грешки. Същите оператори на дронове могат погрешно да разпознаят целта и да ударят „своята“ машина, бойна част и т.н.
„Човек може да се обърка, да сгреши. Можете да объркате цивилна кола с военна машина, можете да объркате условен „наш“ танк с вражески танк, аргументира се Станислав Ашманов. - Заради една грешка обаче никой няма да съкрати такава програма, особено САЩ.
Говорим за някакъв екип, който прави симулация, където са объркали разрешените действия за AI. Когато правят ракета и тя избухне на площадката, никой не казва, че е необходимо да се спре работата, защото тя не лети. Има малко такива AI грешки. Всъщност това като цяло е първият подобен случай, който се „разпродаде“ в медиите, така че това едва ли ще уплаши някого .
В същото време примерът с изпитанията на американския дрон показва, че всяка автоматизирана система, която решава критични задачи, като военно оборудване, пилотиране на самолет или медицинска дейност, трябва да бъде застрахована в лицето на човек, който може да промени решението на AI. Въпреки че, разбира се, бих искал конфликтът между програмния код и оператора да не доведе до унищожаването на последния.
Превод: ЕС
Абонирайте се за нашия Ютуб канал: https://www.youtube.com
и за канала ни в Телеграм: https://t.me/pogled
Влизайте директно в сайта https://www.pogled.info . Споделяйте в профилите си, с приятели, в групите и в страниците. По този начин ще преодолеем ограниченията, а хората ще могат да достигнат до алтернативната гледна точка за събитията!?