/Поглед.инфо/ Представете си: никакви ядрени гъби и облаци над градовете, никакви армади от танкове, пресичащи граници, никакви войници в окопите. Третата световна война вече е започнала или е на път да започне, но тя ще се води в дигиталния ефир, където оръжията са алгоритми, а жертвите сме всички ние. За първи път в човешката история ще бъдем „убити“ от компютри.

Не буквално, с куршуми или бомби, а чрез манипулиране на реалността, икономиката, психиката и дори биологията. Това е война, в която фронтът е вашият смартфон, а генералите са системи с изкуствен интелект, обучени върху нашите собствени данни.

Звучи ли като научна фантастика? Наистина. Но вече сега, използвайки реални технологии (от изкуствен интелект и киберсигурност до социални медии и биотехнологии), можем да моделираме няколко сценария.

Сценарий първи: Кибер - хаос

До 2025 г. хакерите вече ще използват активно изкуствен интелект, за да проникват в банки, болници и дори автомобили. Например, тази година хакерите откраднаха милиарди долари чрез криптовалута, а изкуственият интелект им помага да го правят по-бързо.

Примери от реалния живот включват атаката срещу Bank Sepah в Иран (юни 2025 г.), която открадна данните на 42 милиона души; хакерската атака срещу хранителната компания UNFI, която наруши доставките на храна; и хакерската атака срещу Telemessage, която компрометира медицински данни. Хакери откраднаха и 1,5 милиарда долара от борсата ByBit през февруари. През август хакери на Interlock пробиха системата на град Сейнт Пол, открадвайки 43 GB данни.

Как би могъл да изглежда този сценарий?

Първи етап: Изкуственият интелект създава фалшиви видеоклипове на президенти, които „обявяват война“ или банки, които „затварят“. Хората им вярват и започват да теглят пари, което води до колапс на икономиката. Социалните медии преливат от лъжи и никой не знае на какво да вярва. Например, през 2025 г. изкуственият интелект беше използван за създаване на „фейк нюз“ за банките, причинявайки паника в Иран след атаката в Сепах.

Втори етап: Изкуственият интелект хаква електропреносните мрежи – токът спира, болниците затварят. Представете си: операциите се отменят, лекарствата не се доставят. Или хакерите препрограмират умни автомобили и дронове, за да сеят хаос: коли катастрофират, дронове се разбиват в градовете. Помните ли хакерската атака срещу Microsoft SharePoint тази година? Този инцидент парализира ИТ системите на много компании.

Трети етап: Изкуственият интелект продължава да плаши хората с фалшиви новини – и държавите започват да се карат помежду си, като вътре в тях избухват граждански вълнения и протести. Компютрите „убиват“ не с куршуми, а с разрушения и страх. Например, атаките срещу веригите за доставки се увеличават тази година , както в случая с UNFI. А това е храна за милиони хора.

Сега наблюдавайте движенията на тези ръце. През 2025 г. изкуственият интелект активно помага на хакерите да атакуват компании, а държави като Китай и САЩ се обвиняват взаимно за кибератаки. Това вече е реалност.

Втори сценарий: биологична война

Изкуственият интелект вече помага на учените да създават лекарства. До 2025 г. технологиите ще позволят „печатането“ на вируси или бактерии. Експертите предупреждават за рисковете: Изкуственият интелект може да помогне за разработването на биологични оръжия и има опасения, че това може да се използва както за научни, така и за вредни, убийствени цели. Повече от 35 експерти през 2025 г. подчертаха рисковете на пресечната точка на ИИ и биологията.

Първи етап: Изкуственият интелект краде ДНК данни от медицински бази данни (сайтове като 23andMe вече са били обект на хакване ). Той проучва кои заболявания е вероятно да навредят на конкретни лица или групи. Тази година например, изкуственият интелект анализира генетични данни за нови заплахи, както е показано в докладите на RAND за машинното обучение в биотехнологиите.

Втори етап: Изкуственият интелект помага за създаването на вирус, който прилича на обикновена настинка, но убива милиони. Може да се разпространява чрез вода, храна или дронове. Никой не знае, че това е атака – всички мислят, че е просто епидемия. Вече има много дискусии за това как изкуственият интелект ускорява създаването на патогени.

Трети етап: След пандемията, изкуственият интелект предлага „спасение“ – приложения или чипове, които следят всяко ваше движение. Искате храна или лекарства? Правете това, което програмата ви казва. Хората губят свободата си, а изкуственият интелект решава кой да живее и кой да умре.

Сценарий трети: Икономически крах

През 2025 г. хакери, използващи изкуствен интелект, крадат милиарди чрез криптовалути, а фондовите пазари се сриват поради високоскоростни търговски ботове. Ами ако това стане глобално? Очаква се общите щети от крипто хакерските атаки през 2025 г. да са надхвърлили 3,1 милиарда долара през първата половина на годината.

Първи етап: Ботове с изкуствен интелект манипулират фондовите пазари – акциите падат, криптовалутите изчезват. Хората губят спестяванията си, банките затварят. Тази година вече има случаи, в които изкуствен интелект помага на хакери да крадат огромни суми.

Втори етап: Изкуственият интелект нарушава системите за доставка – фабриките се затварят, магазините се изпразват. Хората гладуват, защото храната и бензинът не достигат до градовете. Това „убива“ милиони, въпреки че никой не стреля.

Трети етап: тези, които контролират изкуствения интелект (корпорации или хакери), стават господари. Те решават кой да получава пари и кой нищо. Хората работят за храна, сякаш са в дигитално робство.

Не са виновни машините, а хората.

Изкуственият интелект наистина опростява много процеси и вече се е превърнал в незаменим помощник за мнозина. Той помага за автоматизиране на работата, подобрява качеството на услугите и ускорява решаването на сложни проблеми. Като цяло, това е най-голямото постижение на човечеството, отбеляза Андрей Иванов, доцент в Руския държавен социален университет (РССУ).

Царград: Но всяка технология си има своите рискове. Какви са опасностите, свързани с използването на изкуствен интелект?

А. Иванов: Основната опасност се крие в злоупотребата или неправилната употреба. Особено тревожно е изкушението хората да се освободят от отговорност за действията си, прехвърляйки я на машините. Например, в момента се обсъжда идеята за използване на изкуствен интелект в съдебните производства, който да подпомага съдиите при вземането на решения по граждански и наказателни дела.

Съдията обаче винаги е човек и решението му се основава главно, но не само на закона, но и на лични убеждения, тъй като не всички случаи могат да бъдат изцяло обхванати от закона. Това повдига въпроса: какво точно могат да „изобретят“ или „усетят“ невронните мрежи?

Има ли реални примери за използване на изкуствен интелект в опасни ситуации?

— Да, има. Например, след трагичните събития от 7 октомври 2023 г., израелски вестници съобщиха, че изкуствен интелект е предоставял препоръки на войските на Израелските отбранителни сили. Това беше възприето като доста тревожно — офицерите бяха принудени да вземат решения в рамките на 20 секунди, съгласявайки се или отказвайки да следват съветите на изкуствен интелект.

В резултат на това подобни системи, предназначени да подпомагат, изиграха роля в провала на анализа на предстоящите атаки — в края на краищата подготовката за атаката продължава с месеци, а системите за предупреждение се отказаха в критичния момент, защото войските бяха разположени на друго място. И има много подобни примери.

Кой е отговорен в подобни случаи?

„В крайна сметка не изкуственият интелект е виновен, а хората, които избират да разчитат на машини, вместо на собствената си преценка и отговорност. Вземането на човешки решения в крайна сметка е въпрос на индивидуалност, а не на алгоритъм.“

Какво се случва в ежедневието? Има ли примери за хора, които разчитат твърде много на изкуствения интелект?

— Разбира се. Вземете например млад мъж, който среща момиче чрез социалните мрежи. Той не е много добър в говоренето и иска да впечатли, затова включва невронната мрежа, за да напише романтично писмо. Момичето е впечатлено, но не иска да изглежда неестествено, затова възлага на изкуствения интелект да напише отговор. В резултат на това се оказва, че двата робота си водят много приятен разговор.

Ето един пример — кой е виновен в този случай? Предпочитаме да не мислим и да вземаме самостоятелни решения, а да делегираме всичко на машините.

Какви опасности крие тази тенденция?

— Опасността е, че хората губят способността си да мислят самостоятелно и да поемат отговорност. Изкуственият интелект става все по-непредсказуем и филтрите на разработчиците понякога трудно проследяват как точно работят системите „под капака“. Цивилизацията наистина става все по-уязвима. И всичко това се дължи на човешкото безразличие или нежелание да се мисли самостоятелно, а не да хвърляш най-човешката дейност на машините.

И какво от това?

Заплахата от нова световна война вече не е сценарий от научнофантастичен филм, а нашата реалност, където фронтовата линия минава през всеки смартфон и компютър. Бъдеще, в което се озоваваме в дигитално робство или ставаме жертви на кибер хаос, не е смъртна присъда, а едно от възможните последици от нежеланието ни да мислим самостоятелно и да защитаваме правото си на реалност.

За да избегнем тези сценарии, трябва стриктно да регулираме изкуствения интелект, по-добре да криптираме данните, да учим хората на информационна грамотност и да не вярват на фалшиви материали, както и да наблюдаваме биотехнологиите (ИИ в науката трябва да бъде под строг контрол).

Превод: ЕС