/Поглед.инфо/ Пропагандата приема нови технологични форми

Командването за специални операции на САЩ планира да използва изкуствен интелект за пропаганда и за разпространение на влиянието на страната в чужбина, според документ на командването, получен от The Intercept.

Пентагонът създава профили в социалните мрежи, използвайки изкуствен интелект, за употреба от военните. Командването за специални операции на САЩ иска да създаде генерирани от изкуствен интелект герои, неразличими от реални хора, за да събира разузнавателна информация.

Командването на специалните операции ( SOCOM) проучва технологията за дийпфейкове (deepfake), планирайки да създава фалшиви онлайн персони, които са почти неразличими от истинските хора. Усилията са описани подробно в 76-страничен документ за закупки, изготвен от Съвместното командване за специални операции (JSOC), който подчертава интереса към използването на генерирани от изкуствен интелект идентичности за социални медии и друго онлайн съдържание.

Целта на това изследване е да се използват генерирани от изкуствен интелект медийни изображения, видеоклипове и дори аудио, които могат да създадат убедителна илюзия за човешки профили за събиране на разузнавателна информация, включително участие в публични форуми и дискусии в социалните медии. Тези планове на SOCOM, описани подробно в цитирания документ, са част от по-широки усилия за подобряване на операциите за цифрова измама и влияние, или информационната война.

Според документите за обществени поръчки, американските военни възнамеряват да създават цифрови самоличности, използвайки „снимки за идентификация с правителствен клас“, различни изражения на лицето и видео съдържание, напомнящо за селфита.

Профилите трябва да „отразяват уникална личност, която е разпознаваема като човек, но фактически не съществува в реалния свят“.

Всяка персона ще включва не само статични изображения, но и видео и аудио компоненти, проектирани да бъдат неоткриваеми от алгоритмите, използвани от големите компании за социални медии.

Документът с техническите изисквания на SOCOM призовава за използването на deepfake технология за създаване на виртуални среди с изкуствени естествени фонове, създадени с такава прецизност, че да се сливат безпроблемно с онлайн екосистемата. Тази „виртуална среда“ трябва да бъде проектирана така, че да бъде неоткриваема от автоматизирани системи, които следят за подозрително онлайн поведение.

Проучването на технологията от Пентагона е в рязък контраст с предишните му предупреждения относно рисковете от дийпфейкове. В съвместно изявление през 2023 г. ФБР, NSA и CISO (CISA) нарекоха синтетичните медии „ основен риск “ за целостта на информацията, отбелязвайки разпространението на дийпфейкове като сериозна заплаха за националната сигурност.

Използването на хора, генерирани от изкуствен интелект, за тайни операции накара експертите да предупредят за „злонамерен ускорител на влияние “. Служители на Пентагона многократно са изразявали загриженост, че противници като Русия, Китай и Иран биха могли да използват генерирано от изкуствен интелект съдържание, за да разпространяват дезинформация. Сега Министерството на отбраната на САЩ направи решителна крачка и реши саво да възприеме съмнителната практика.

Много независими експерти, като Хайди Клааф, главен офицер по изкуствен интелект в Института AI Now, твърдят, че приемането на подобни по своята същност опасни технологии от американските военни може да доведе до нова надпревара във въоръжаването на цифрови технологии. Клааф предупреди , че „няма други легитимни приложения за тях освен измама“ и предупреди, че действията на Пентагона биха могли да насърчат други държави да развиват свои собствени инициативи за дийпфейкове.

Използването на дийпфейкове от американските военни създава прецедент, който потенциално би могъл да нормализира използването на технологии за заблуда по целия свят.

Натискът на SOCOM за дигитална измама чрез изкуствен интелект е знак, че САЩ се готвят за бъдеще, доминирано от дигитално влияние и разузнаване. Макар че героите с изкуствен интелект биха могли да бъдат мощен инструмент за информационна война, те също така рискуват да подкопаят доверието в информационните кампании на САЩ.

Професорът Даниел Байман от университета Джорджтаун отбелязва , че правителствените агенции, които се занимават с измами, могат да подкопаят доверието в дадена страна, като направят гражданите по-скептични към официалната информация.

Заслужава да се отбележи, че американските военни използват дийпфейкове от доста време. През 2022 г. така нареченото изтичане на Twitter Files показа, че гореспоменатата социална мрежа, която е блокирана в Русия, умишлено позволява на американските военни да провеждат операции за влияние върху сайта, използвайки фалшиви новинарски източници с фалшиви аватари.

В американската военна база във Форт Либърти, Северна Каролина, инструктори по психологически операции на SOCOM обучават оператори на дронове да използват технологията Ghost Machine за дезинформация на врага.

Използвайки проба от гласа ви и лаптоп за игри, инструктор по психологически операции в армията може да ви накара да кажете каквото и да е: да поръчате пица, да се обадите на лекар или просто да кажете „здравей“.

В мирно време това е вид магически трик, игра. Във войната е инструмент, който може да се използва за заблуда, примамване на врагове в капани или предизвикване на дезертьорство чрез имитиране на гласовете на вражески войници.

Тази технология може да се използва за копиране на гласа на вражески командир от прихванати комуникации или публично достъпни данни и след това да се използва, за да се заблуди врагът, че командирът му е бил заловен“, пише Defense One .

Например, „в един пример, зареден в Ghost Machine, програмата дублира фиктивен китайски вражески командир, нареждащ на войските си да се предадат“.

В допълнение към разпространението на дийпфейкове, НАТО залага на „автоматизирана пропаганда, използвайки генеративен изкуствен интелект, за да създава правдоподобни истории и новинарски заглавия в огромни количества. Поддържащите системи с изкуствен интелект могат след това да разпространяват тази пропаганда и друга дезинформация сред целевите аудитории “ .

Всички тези технологии са част от новата стратегия на НАТО, наречена „Оръжейна дейност с изкуствен интелект“.

Една руска поговорка гласи: „Веднъж да излъжеш, кой ще ти повярва?“

Тъй като Пентагонът и НАТО въвеждат в действие лъжи, особено тези, изфабрикувани от изкуствен интелект, скоро нито един разумен човек в целия свят няма да повярва на нищо, което се бълва от американските информационни „железни окови“.

Превод: ЕС