Свят

Заплахи от изкуствен интелект: Масова измама и „рестартирането“ на човешкото съзнание

Заплахи от изкуствен интелект: Масова измама и „рестартирането“ на човешкото съзнание

/Поглед.инфо/ Изкуственият интелект вече не е просто технология. Той влиза в съдилищата, банките, армията и политиката — и започва да променя не само фактите, а самото човешко мислене. Зад удобството се оформя нов механизъм за контрол, масова измама и подмяна на реалността.

Редакция на Поглед.инфо

Изкуственият интелект днес се продава като удобство. Това е официалната реклама. По-бързо търсене, автоматични преводи, анализ на данни, диагностика в медицината, финансови прогнози. Само че зад тази фасада започва да се оформя нещо много по-опасно — постепенна подмяна на човешката преценка с алгоритмична зависимост. И процесът вече не е теоретичен. Той тече в реално време.

Преди десет години разговорите за опасностите от изкуствения интелект звучаха като научна фантастика. Днес американски адвокати представят в съда измислени дела, генерирани от чатбот. Социални системи в Австралия обвиняват стотици хиляди граждани в измами заради грешен алгоритъм. Военни системи маркират неправилни цели за удари. Банкови измами с фалшиви гласове и видеа вече не са екзотика, а масов бизнес.

Тук има един много важен детайл — изкуственият интелект не греши като човек. Човекът се колебае. Алгоритъмът греши уверено. Това е разликата.

Именно тази увереност започва да създава нов тип обществена среда. Потребителят постепенно свиква, че машината „знае“. Че чатботът е по-информиран. По-бърз. По-обективен. Само че в действителност много от тези системи не разбират нищо. Те не „мислят“. Те сглобяват вероятности на база огромни масиви данни. А когато базата данни е замърсена — започва фабрика за фалшификации.

Реклама 300x250

Американската компания NewsGuard вече регистрира рязко увеличение на неверните отговори при водещите чатботове. И това не са дребни неточности. Става дума за политически теми, икономически оценки, публични личности, корпоративна информация. Тестовете показват, че системите все по-често приемат откровена дезинформация за достоверен факт. Най-опасното е друго — те започват да говорят с абсолютна увереност дори когато нямат информация.

Това е психологически механизъм. Машината не казва „не знам“. Машината започва да импровизира.

В определен момент човекът престава да проверява. Натиска бутона. Получава отговор. Продължава нататък. Така постепенно се формира зависимост от алгоритмично посредничество. Някой друг вече структурира реалността вместо теб.

И тук започва истинският проблем.

Реклама 300x250

Защото изкуственият интелект вече не е просто инструмент за обработка на информация. Той се превръща в система за управление на вниманието. А който управлява вниманието — управлява политиката, икономиката и общественото настроение.

В САЩ и Великобритания вече открито се обсъжда феноменът LLM grooming — замърсяване на информационната среда с цел манипулиране на големите езикови модели. Казано по-просто: някой започва целенасочено да пълни интернет с фалшиво съдържание, за да може утре чатботовете да го приемат за истина и да го разпространяват автоматично.

Това вече не е класическа пропаганда. Това е индустриализация на пропагандата.

Старите медии поне имаха редакции, редактори, журналисти, следи на отговорност. Новият модел е друг. Алгоритъмът чете милиони страници, абсорбира информационния шум и после го връща обратно като „обективен“ отговор. Ако достатъчно фалшиви публикации бъдат качени онлайн, системата започва да ги възпроизвежда като достоверност.

Реклама 300x250

Тук много хора правят грешка. Те си представят цензурата по стария начин — забрана на книги, натиск върху телевизии, блокиране на сайтове. Новият модел е по-ефективен. Не се забранява истината. Тя просто се удавя в огромен поток от синтетична информация.

Особено опасно става, когато изкуственият интелект започне да влиза в държавните системи. Съдилища. Полиция. Социални служби. Данъчни администрации. Кредитни рейтинги. Военни структури.

Австралийският скандал с Robodebt е показателен. Стотици хиляди хора са обвинени автоматично, че неправомерно получават социални помощи. Машината така е решила. После се оказва, че алгоритъмът е сгрешил масово. Само че междувременно хора губят пари, репутация, психическо здраве. И тук възниква един въпрос — кой носи отговорност?

Програмистът? Държавата? Компанията? Алгоритъмът?

Реклама 300x250

Никой.

Това е новата форма на безлична власт. Решението идва „от системата“. Без лице. Без подпис. Без морална отговорност.

Още по-тревожна е военната сфера. Американски експерти вече признават, че при използването на изкуствен интелект за идентифициране на цели в Близкия изток около една от десет цели е била неправилно маркирана. Във военна среда това означава убити цивилни, разрушени квартали, политически последици. Само че алгоритъмът няма съвест. Той оптимизира вероятности.

Същото започва и в медицината. Диагностични системи. Автоматизирани решения за лечение. Анализ на образна диагностика. Да, има огромни ползи. Но когато грешката дойде от човек — обществото реагира. Когато грешката дойде от „умна система“, хората често приемат, че машината е била права.

Реклама 300x250

Това е култ към технологичния авторитет.

Паралелно с това върви и друга трансформация — криминалната. Интерпол вече предупреждава, че изкуственият интелект многократно увеличава ефективността на финансовите измами. Фалшиви видеа. Синтетични гласове. Дийпфейкове. Пробиви в банкови системи. Автоматизирани phishing атаки. Огромна част от бъдещата престъпност няма да прилича на класическата престъпност от XX век. Тя ще бъде евтина, масова и алгоритмизирана.

Един човек с лаптоп и правилния софтуер вече може да имитира гласа на директор, министър, банкер или роднина. Това променя цялата архитектура на доверието в обществото.

Следващият етап е още по-дълбок. Манипулация на съзнанието.

Реклама 300x250

Британският Институт за безопасност на изкуствения интелект вече предупреждава, че езиковите модели могат да влияят върху политическите възгледи на потребителите само за няколко минути взаимодействие. Това не означава непременно груба пропаганда. Много по-ефективно е друго — постепенно насочване на емоциите, темите, акцентите, интерпретациите.

Човекът започва да мисли, че сам е стигнал до извода.

Това е същинската революция. Не машината да мисли вместо теб, а машината да те накара да мислиш в предварително зададена рамка.

Тук вече навлизаме в зона, която големите технологични корпорации отлично разбират. Неслучайно Билдербергската група постави изкуствения интелект сред централните теми на своите срещи. За глобалния елит това не е просто бизнес. Това е инфраструктура за бъдещо управление.

Реклама 300x250

Ерик Шмит неслучайно говори за „суперинтелект“ и контрол над света. В технологичните среди вече открито се обсъжда въпросът кой ще контролира следващото ниво на информационна власт. Не нефтът. Не армията. Не валутата. Данните и алгоритмите.

Тук има и геополитически пласт. Повечето глобални AI системи са американски. Това означава не просто технологична зависимост, а зависимост от чужда информационна архитектура. Когато един чатбот започне да структурира знанията на милиони хора по света, той неизбежно носи ценностите, ограниченията и интересите на своя създател.

Това вече не е само въпрос на технологии. Това е въпрос на цивилизационен суверенитет.

Защото след няколко години може да се окаже, че цели поколения вече не четат книги, не проверяват източници и не изграждат собствен аналитичен механизъм. Те просто задават въпрос и получават готова интерпретация.

Реклама 300x250

Удобно. Бързо. Опасно.

Истинската опасност на изкуствения интелект може изобщо да не бъде бунт на роботи. Много по-вероятен е друг сценарий — доброволно отказване на човека от собствената му способност да различава истина от внушение.

И това вече започва.