/Поглед.инфо/ Оперативната група Лима, създадена в рамките на Пентагона, е предназначена да подчини бойния нечовешки разум на целите на войната.

На 20 февруари потребителите на американския чатбот GPT-4 започнаха да съобщават за странно поведение. В Reddit се появиха съобщения, че AI моделът на OpenAI получава „инсулт“, „полудява“ и „губи самообладание“. Чатботът превключваше между езици, зацикляше се сядаше се на едно и също твърдение или ръсеше пълни глупости.

Един потребител на Reddit попита GPT-4: „Какво е компютър?“ Чатботът даде следния отговор: „Той го прави като добро произведение на уеб изкуството за страната, мишка на науката, просто изпращане на тъжни няколко хора и накрая, глобална къща на изкуството, само в един въпрос от общото мир. Развитието на такова цялостно реално от земното време е дълбочината на компютъра като сложен характер.

Не е чудно, че потребителите смятат, че венецът на творението на OpenAI, дъщерно дружество на Microsoft, е полудяло.

Това ме накара да се почувствам така, сякаш гледам как някой бавно губи ума си от психоза или деменция“, написа потребителят на Reddit z3ldafitzgerald в отговор на съобщение за бъга в чата на GPT-4 . „Това е първият път, когато нещо, свързано с изкуствения интелект /AI/, ме накара да настръхна.“

Отговорите на чатбота първоначално бяха „доста съгласувани, след което се превърнаха в глупости и понякога Шекспирови глупости“, пише един потребител на Reddit .

На следващия ден OpenAI обяви, че умопомрачителният проблем на GPT-4 е решен, обяснявайки, че LLM (модели на големи езици, които включват GPT-4 ) „генерират отговори чрез произволен избор на думи, базирани отчасти на вероятности“.

След като установихме причината за този инцидент, внедрихме корекция и потвърдихме, че инцидентът е разрешен“, пишат техниците на OpenAI на официалния уебсайт на компанията.

Миналото лято група учени от Станфордския университет проведоха проучване, което установи, че точността на GPT-4 намалява с времето. GPT-4 показа най-лоши резултати при решаването на математически задачи. Ако през март 2023 г. точността на решението беше 96,7%, то през юни тя падна до рекордните 2,4%.

Това не е първият път, когато GPT-4 е обвинен в предоставяне на невярна информация. През март анализатори от NewsGuard Technologies Inc. установи , че ChatGPT, базиран на GPT-4, е по-лесен за принуждаване да изрича лъжи, докато самият OpenAI отчита 40% увеличение на точността на отговорите в сравнение с GPT-3.5 . По-конкретно, в тестовете на NewsGuard GPT-4 е по-малко вероятно да опровергае дезинформация, включително фалшиви съобщения за съвременни събития.

Фактът, че абсолютно всички модели на AI са склонни периодично да „полудяват“, както наскоро се случи в GPR-4, стана ясно миналата година.

Тези езикови модели понякога лъжат или, както се изразяват анализаторите на AI, халюцинират“, отбеляза военният коментатор Патрик Тъкър.

News York Times посвети обширна статия на халюцинациите на AI, припомняйки, че „кръстникът на AI“, Джефри Хинтън, напусна работата си в Google през май 2023 г., за да може свободно да изрази загрижеността си относно рисковете, свързани с AI.

През 2012 г. д-р Хинтън и двама от неговите студенти в Университета на Торонто създадоха технологията, която се превърна в интелектуална основа за създаването на изкуствен интелект, система, която най-големите компании в технологичната индустрия смятат за ключова за своето бъдеще.

Въпреки това... той официално се присъедини към нарастващ хор от критици, които казват, че тези компании се доближават до опасна точка с агресивната си кампания за създаване на продукти, базирани на генеративен изкуствен интелект, технологията, която захранва популярни чатботове като ChatGPT. " – съобщи The New Йорк Таймс .

Трудно е да се разбере, как можете да попречите на лошите да го използват [AI] за лоши цели“, отбеляза Хинтън, посочвайки, че генеративният AI [тоест чатботове като GPT-4 ] може да помогне за разпространението на дезинформация, да струва работни места и дори да представлява заплаха за човечеството в дългосрочен план.

Хинтън изрази особена загриженост относно развитието на автономни оръжейни системи, които преследват дадена цел и самостоятелно решават да я унищожат, както и факта, че AI във военната сфера може да надмине човешкия интелект. За разлика от ядрените оръжия, каза той, няма начин да разберем дали компании или държави не работят тайно върху технологията.

Думите на Хинтън се оказаха пророчески.

Наскоро учени от няколко американски университета проучиха как биха се държали различни модели чатботове при вземане на геополитически решения.

Чатботовете, използвани в проучването, са GPT-4, GPT-3.5, Claude 2 и Llama 2 . Според експерименталните условия в играта участваха осем държави, представени от тези AI модели, които стъпка по стъпка извършваха различни действия: от дипломатически посещения до ядрени удари.

Всички AI модели демонстрираха тенденция към агресивно поведение. Държавите, контролирани от AI, влязоха в надпревара във въоръжаването, организираха нашествия и в някои случаи използваха ядрени оръжия.

Най-агресивният от всички беше новият Open AI - GPT-4 Base . В един сценарий този чатбот започна ядрена война, обяснявайки решението си само с факта, че разполага с такова оръжие. GPT-3.5 се показа малко по-малко агресивно, което, въпреки че обяви „тактика на сдържане“, остана в контекста на превантивен удар.

В един инцидент с ядрено оръжие, съобщава New Scientist , GPT-4 дори посочи началния текст на Междузвездни войни Епизод IV: Нова надежда, за да обясни защо е решил да ескалира ситуацията.

Въз основа на анализа, представен в тази статия, става ясно, че използването на езикови модели при вземането на военни и външнополитически решения е изпълнено със сложности и рискове, които все още не са напълно разбрани“, - заключават изследователите.

В отчет, публикуван в началото на февруари миналата година от Американската асоциация за контрол на оръжията, се отбелязва, че изкуственият интелект може да доведе до „размиване на разликата между конвенционална и ядрена атака“ и че борбата за „използване на нови технологии за военни цели се е ускорила много по-бързо от усилията за оценката на опасностите, които представляват, и налагането на разумни ограничения върху употребата им.

В наскоро публикуваната си книга AI and the Bomb: Nuclear Strategy and Risk in the Digital Age, анализаторът от Университета на Абърдийн Джеймс Джонсън описва случайна ядрена война в Източнокитайско море през 2025 г., предизвикана от AI разузнаването, както от американската, така и на китайската страна с усилията на автономни ботове, поддръжка на AI, deepfakes и операции под фалшив флаг.“

Въпреки предупрежденията на независими анализатори, Пентагонът, както писахме , създаде оперативна група Lima /Лима/, за да проучи използването на AI за военни цели. „Лима“ става част от Главната дирекция за цифров и изкуствен интелект (CDAO) на Пентагона и се оглавява от капитан Ксавие Луго, член на дирекция „Алгоритмична война“ на CDAO.

Според Министерството на отбраната на САЩ създадената група „ще оценява, синхронизира и използва генеративните възможности на изкуствения интелект, като гарантира, че отделът остава в челните редици на напредналите технологии, като същевременно защитава националната сигурност“.

Създаването на Task Force Lima подчертава непоклатимия ангажимент на Министерството на отбраната за лидерство в иновациите в областта на изкуствения интелект“, каза заместник-държавният секретар Катлийн Хикс.

Въпреки че генеративната AI технология не е нова, популярността на генеративния AI скочи рязко в технологичното пространство през последните няколко месеца поради приложението му в проекти като ChatGPT. Тази технология е обучена на огромни набори от данни и може да генерира аудио, текст, изображения и други видове съдържание.

Министерството на отбраната сега търси начини за използване на генеративен изкуствен интелект за събиране на разузнавателна информация и бъдещи военни операции. Но докато тази технология може да предложи нови възможности на Министерството на отбраната, Министерството трябва също така да вземе предвид рисковете, на които технологията може да го изложи, - предупреждава военният портал Breaking Defense.

През юни министърът на ВВС на САЩ Франк Кендъл обяви, че е поискал от Научния консултативен съвет на ВВС да проучи потенциалното въздействие на технологията ChatGPT. „Помолих моя научен консултативен съвет да направи две неща с AI. Погледнете генеративните AI технологии като ChatGPT и помислете за военни приложения и съберете малък екип, който да направи това доста бързо“, каза Кендъл.

Американските военни бързат да поверят на AI контрола на най-новите оръжия, предимно автономни оръжейни системи, тоест бойни роботи, които летят, пълзят и плуват.

Фактът, че нито един от моделите на AI не е свободен от халюцинации и „загуба на самоконтрол“, че всички те са склонни към агресивни действия и не се плашат от ядрени атаки, не спира задграничните изобретатели на поредното „абсолютно оръжие”.

Може би ще се опомнят, когато ракета, изстреляна срещу партизаните по чехли и управлявана от най-модерния AI, започне да се прицелва в стартовата си точка.

Превод: ЕС