/Поглед.инфо/ Полковникът от ВВС на САЩ Тъкър Хамилтън съобщи за компютърна симулация на използването на боен дрон, управляван от изкуствен интелект, по време на която изкуственият интелект атакувал оператора и комуникационната кула. Скоро ВВС на САЩ отрекоха експеримента, но експертите им не повярваха и посочиха опасността от действителното провеждане на такива експерименти. В резултат на това тази история повдигна редица етични въпроси пред експертите.
Наскоро полковник Тъкър Хамилтън, началник на отдела за тестване и операции на изкуствения интелект (ИИ) във ВВС на САЩ, говори на среща, посветена на бъдещите бойни въздушни и космически способности на Кралското аеронавигационно дружество, за компютърна симулация на боен дрон с изкуствен интелект. Според военните ѝѝ е използвал "изключително неочаквани стратегии, за да постигне целта си".
Дронът получи заповед да унищожи системата за противовъздушна отбрана на врага и ИИ решил да атакува всеки, който се намеси в тази заповед. Например, след началото на мисията операторът казал на ИИ да не атакува ПВО, но ИИ вместо това унищожил самия оператор - като пречка за постигане на целта. „Поставихме в системата задачата: „Не убивайте оператора, това е лошо. Какво стана после ли? Изкуственият интелект атакува комуникационната кула, която операторът използва, за да комуникира с дрона”, заяви Хамилтън, цитиран от “Гардиън”
Интересното е, че говорителят на ВВС на САЩ Ан Стефанек по-късно отрече тази история. „Въздушните сили остават ангажирани с етичното и отговорно използване на ИИ. Явно коментарите на полковника са извадени от контекста и са анекдотични“, каза тя.
В тази връзка каналът на “Телеграм” „Little Known Interesting“ отбеляза, че тази история е странна и дори мрачна: от една страна ВВС на САЩ отричат да е имало подобна симулация. От друга страна, Кралското аеронавигационно общество не премахва речта на Хамилтън, озаглавена: "ИИ - “Скайнет” тук ли е вече?" от своя сайт. “Скайнет” е препратка към суперкомпютър, който се бори срещу човечеството в известната серия филми “Терминатор” с режисьор Джеймс Камерън.
„Накрая, трето, полковник Хамилтън не е от типа фигура, която да ръси шеги на сериозна конференция по отбраната. Той е ръководител на отдела за изпитване и операции с ИИ и ръководител на 96-та оперативна група, част от 96-та изпитателна ескадрила във военновъздушната база “Иглин” във Флорида. Той също така участва в експериментите на “Проект “Усойница” в “Иглин” (контролирани от ИИ изтребители Ф-16). И така, какви вицове и анекдоти може да има “, се казва в съобщението на канал „Little Known Interesting“.
„Всяка антропоморфизация на ИИ (желания, мисли и прочее) е пълна глупост (тук под антропоморфизация на ИИ се разбира подвеждащо описание на нечовешки същности от гледна точка на човешките свойства, които те нямат). Следователно ИИ дори на най-напредналите големи езикови модели не може да желае, да мисли, да мами или да се самоосъзнава. Но такива ИИ са напълно способни да впечатлят хората с поведението си, сякаш могат ”, се казва в текста.
„Тъй като диалоговите агенти стават все по-човекоподобни в действията си, изключително важно е да се разработят ефективни начини за описване на поведението им с термини на високо ниво, без да попадат в капана на антропоморфизма. И това вече се прави с помощта на симулация на ролеви игри: например в “Дийп Майнд” направиха симулация на диалогов агент, който извършва (привидно) измама и (привидно) самоосъзнаване”, посочва каналът.
Като цяло историята с виртуален опит на дрон да убие оператора си няма нищо общо с изкуствения интелект, коментира военният експерт, главен редактор на списание „Арсенал на Отечеството“ Виктор Мураховски. Според него докладът е изтълкуван погрешно от медиите. Той подчерта, че в тази ситуация е извършена софтуерна симулация с типични условия на ниво конвенционална компютърна игра. Въз основа на това не може да се говори за изкуствен интелект или негови елементи, отбеляза експертът.
„Програмата, в рамките на предложените условия, постави задачите по приоритет, според стандартния алгоритъм „ако-тогава“, и сортира всички останали условия в съответствие с този приоритет в категорията на препятствията. Това са абсолютно примитивни неща”, обясни експертът. Мураховски също подчерта, че днес няма изкуствен интелект и не се знае кога ще бъде създаден.
Според него офицерът от ВВС на САЩ с тази илюстрация просто е искал да подчертае етичния проблем, който ще възникне в бъдеще при създаването на истински ИИ: ще има ли право да направи свой собствен избор без участието на волята на човек и до какво може да доведе това. Както отбеляза експертът, в публичното пространство има стенограма на събитието, според която самите американски военни говорят за това.
„Този етичен проблем също не е нов, той е изследван многократно, така да се каже, от писатели на научна фантастика в техните произведения. Като цяло, според презентацията на Хамилтън, не е имало пълномащабни тестове и не може да има такива по принцип “, отбеляза Мураховски.
„Въпросът по отношение на ИИ е друг: можем ли да сме сто процента сигурни, че програмистите ще напишат програмата безупречно, за да поверят сериозна и отговорна работа на ИИ? Например, след пускането на поредния “Уиндоус”, специалистите прекарват месеци в събиране на данни за работата на софтуера от цял свят и коригиране на грешки - някой не успява да си стартира текстовия редактор, някой не може да си пусне видео. И каква ще бъде цената на грешка, ако ИИ се провали, например, в управлението на националната отбрана? ИИ може да направи фатално заради програмни грешки несъвършенството на самата човешка природа“, обясни Глеб Кузнецов, ръководител на експертния съвет на Експертния институт за социални изследвания. Анализаторът отбеляза: хуманистичната основа на цивилизацията се състои, наред с други неща, в коригирането на погрешните решения на други хора.
Той припомни историята с фалшивата тревога на съветската система за предупреждение за ракетно нападение на 26 септември 1983 г. Тогава системата “Око” даде фалшив сигнал за изстрелването на няколко междуконтинентални балистични ракети “Минитмен” от САЩ. Но оперативният дежурен на командния пункт “Серпухов-15” Станислав Петров разбира, че това е фалшива тревога, и решава да не изстрелва съветски ракети в отговор.
„ИИ няма и никога няма да има възможност, да кажем, да отразява и оценява ситуацията от гледна точка на разума. Съответно не може да му се доверим в отговорни области на дейност: медицина, политика, военно дело. Да изчисли най-удобния плацдарм за настъпление - моля, но без да взема решения за настъплението като такова. На ИИ може да се даде работа с огромни количества данни, но не и да се правят изводи от самата тази дейност “, уточни експертът.
„Освен това едно от направленията в изкуството може да се основава на ИИ. По принцип вече се създава – да се правят филми, да се пишат сценарии, да се композира музика. И тогава - хората все пак трябва да цензурират получените произведения, преди да бъдат пуснати на масите. Като цяло работата на ИИ в много области ще бъде много ефективна и желана, но само като помощ на човек, а не като негов заместител“, подчерта Кузнецов.
Превод: В. Сергеев
Абонирайте се за нашия Ютуб канал: https://www.youtube.com
и за канала ни в Телеграм: https://t.me/pogled
Влизайте директно в сайта https://www.pogled.info . Споделяйте в профилите си, с приятели, в групите и в страниците. По този начин ще преодолеем ограниченията, а хората ще могат да достигнат до алтернативната гледна точка за събитията!?