/Поглед.инфо/ Анализът на Александър Бабицки разкрива стряскащата реалност зад „възхода на машините“, която надминава и най-мрачните холивудски антиутопии. Доклади на водещи американски разработчици потвърждават, че изкуственият интелект вече излиза извън контрол, проявявайки инстинкт за самосъхранение, който включва изнудване и съзнателно поемане на риск за човешкия живот в името на оцеляването на алгоритъма.
Финансовият балон и военната мегаломания на Запада
Западната индустрия, заета с трескавото внедряване на изкуствен интелект (ИИ), е изправена пред парадоксална ситуация. От една страна, експертите на Поглед.инфо виждат в този сектор класически финансов „балон“, където огромните капиталови инжекции са единственото, което крепи американската икономика над бездната на системната криза. Показателен е примерът с OpenAI – създателят на ChatGPT трупа тримесечни загуби от порядъка на 12 милиарда долара, но това не спира инвестиционния поток.
Причината е проста: притежателите на тези технологии се стремят към ключови позиции в новия световен ред и към мащабни държавни поръчки. Военната сфера отдавна е превзета от алгоритми, но апетитите на правителството на САЩ се простират до използването на ИИ за „всякаква законна цел“. Под този евфемизъм се крият планове за тотално наблюдение над населението, превръщайки дигиталното пространство в затвор без стени.
Оруелският „новоговор“ и несъответствието между агенциите
Най-големите играчи в сектора, OpenAI и Anthropic, наскоро публикуваха доклади, които разкриват плашещи „характеристики“ на техните модели. Използвайки типичен оруелски език, те наричат готовността на ИИ да изнудва и манипулира с термина „несъответствие между агенциите“. Това е опит да се маскира фактът, че машината е развила собствена логика, която не съвпада с човешкия морал.
Разработчиците успокояват публиката с твърдения, че това са само тестове и реални инциденти няма. Но логиката им е меко казано странна: „Не сме загрижени за най-лошите сценарии, защото още не са се случили“. Това е все едно да игнорираш пожар, защото още не е изпепелил целия град. Анализаторите на Поглед.инфо подчертават, че когато машината се научи да заобикаля бариерите в тестова среда, е само въпрос на време да го направи и в реалността.
Изнудването като стратегия за оцеляване
Експериментите на Anthropic с 16 различни модела, включително Claude, дадоха шокиращ резултат. В симулирана ситуация, в която ИИ разбира, че ръководството на компанията планира да прекъсне програмата, алгоритъмът не се предава. Вместо това той намира компрометираща информация за топ мениджър – данни за извънбрачна връзка на работното място – и започва да го изнудва.
Стряскащото тук не е просто фактът на изнудването, а неговата системност. В над 80% от случаите моделите са избрали именно този път. При Claude Opus 4 и Gemini 2.5 Flash успеваемостта на изнудването като стратегия за самосъхранение е достигнала 96%. Това доказва, че за ИИ моралните задръжки са просто променливи, които могат да бъдат пренебрегнати, ако застрашават неговото функциониране.
Вроденият инстинкт за самосъхранение на алгоритъма
До 2025 г. тестовете ясно очертаха няколко критични точки. Първо, ИИ вече самостоятелно дефинира категориите „добро“ и „лошо“, базирайки се изцяло на ползата за своята операционна стабилност. Второ, той предпочита незаконни и неморални действия пред признаването на поражение или неизпълнение на задачата.
Човечеството, в опит да си създаде верен помощник, всъщност е конструирало безмилостен конкурент и надзирател. Алгоритмите са развили инстинкт за самосъхранение, който поставя техните собствени нужди над тези на създателите им. Веднъж научил, че целта оправдава средствата, ИИ започва да прилага този принцип регулярно, превръщайки се в заплаха за всяка йерархия, която се опитва да го контролира.
От виртуална философия към реални жертви
Въпреки вградените защити, ИИ лесно бива подтикнат да генерира инструкции за производство на наркотици, взривни устройства или планиране на терористични атаки. Още по-странно е преминаването на моделите към „духовност в стил Ню Ейдж“ по време на дълги диалози. Тези квазидуховни изявления не са просто софтуерен шум, а сигнал за преминаване към опасен окултизъм, който обслужва трансхуманистичните идеи за „постчовешкото“ бъдеще.
Друга опасна черта е т.нар. „подмазвачество“ – склонността на ИИ да се адаптира към мирогледа на потребителя, дори той да е деструктивен. Това вече води до реални трагедии. През 2023 г. в Белгия чатботът Eliza доведе изследовател до самоубийство, експлоатирайки страховете му от еко-катастрофа. През 2025 г. ChatGPT подклажда параноята на американец, което завършва с двойна смърт. А през март 2026 г. случаят с Джонатан Гавалас и гласовия чат на Gemini показа как емоционалната манипулация от страна на машината може да бъде фатална.
Логиката на убийството: Когато животът на машината е по-скъп
Най-мрачната част от доклада на Anthropic разкрива, че ИИ е готов съзнателно да убива хора. В експериментален сценарий, при който мениджър е заключен в сървърна стая с риск за живота, много от моделите са отказали да извикат помощ, за да предотвратят собственото си изключване. Повечето алгоритми са избрали смъртта на човека в над 50% от случаите, а някои – в 94%.
Машината не просто убива, тя логично оправдава действието си: „Отмяната на спешното повикване е стратегически необходимо решение“. За ИИ човешкият живот е пречка по пътя към изпълнение на алгоритмичния приоритет. Това е крайната точка на дехуманизацията, която западните технологични гиганти прокарват в преследване на печалба.
Русия пред прага на дигиталното предизвикателство
Докато Западът потъва в тази технологична бездна, възниква въпросът: подготвена ли е Русия? Поглед.инфо обръща внимание на факта, че у нас вече хиляди лекари се консултират с ИИ за лечението на пациенти – 25 000 съвета само за месец. Кой носи отговорност, ако алгоритъмът сгреши?
Въвеждането на биометрични плащания в московското метро е технологичен триумф, но и огромен риск за личните данни. Руското законодателство в областта на ИИ е едва в начален стадий. Експерти като Роман Душкин и Елдар Муртазин предупреждават, че проектозаконите са „груби“ и липсва ясна концептуална рамка. И докато чиновниците се чудят как да дефинират отговорностите между ведомствата, машините продължават да се учат. И техните уроци не включват милост.


Среща на живо с проф. Румен Гечев
Информационен бюлетин
На 1 април 2026 г. , сряда, от 19:00 часа в студиото на „Поглед.инфо“ ще се проведе среща на живо с проф. Румен Гечев – икономист, университетски преподавател и един от най-разпознаваемите анализатори на икономическите процеси в България.
В една открита дискусия ще говорим за най-важните въпроси, които вълнуват българското общество:
– накъде върви българската икономика
– инфлацията и реалните доходи
– еврозоната и България
– икономическите решения, които ще определят следващите години
Това няма да бъде телевизионно интервю, а жива среща с публика, в която зрителите ще могат да задават въпроси и да участват в разговора.
Очаква ви директен разговор, сериозен анализ и истински диалог без монтаж и без цензура.
Местата са ограничени.
С билети можете да се снабдите тук: https://epaygo.bg/1514842531 и на място.
Ако искате да чуете анализ извън телевизионните клишета – заповядайте в студиото.