/Поглед.инфо/ В САЩ се разгръща нова линия на национална сигурност: биозаплахите, ускорени от изкуствен интелект. Публичният език е „превенция“ и „биосигурност“, но зад него стои далеч по-големият въпрос – как се управлява технология с двойна употреба, когато държавата, частните лаборатории и военната логика започнат да говорят на един и същи език. Темата не е в сензациите, а в механизма: страхът се превръща в политика, политиката – в бюджети, а бюджетите – в изследвания, които изискват все по-малко обществен контрол.
Американският Център за стратегически и международни изследвания (CSIS) публикува наскоро доклад, адресиран до администрацията на Тръмп, озаглавен Opportunities to Strengthen U.S. Biosecurity from AI-Enabled Bioterrorism: What Policymakers Should Know /„Възможности за укрепване на биосигурността на САЩ от биотероризъм, подпомогнат от изкуствен интелект : Какво трябва да знаят политиците“/, в който се призовава за разработването на нови видове биологични оръжия, използвайки усъвършенствани американски модели на изкуствен интелект.
По очевидни причини авторите на доклада не отправят директно подобен призив.
Те просто цитират десетките примери за ужасяващите възможности на „големите езикови модели“ (LLM), разговорно известни като чатботове, при разработването на нови видове биологични оръжия.
Например, чатботът Evo 2 , разработен от Arc Institute (Пало Алто, Калифорния), си сътрудничи с водещия американски дизайнер на чипове NVIDIA, за да разработи „най-големия модел на изкуствен интелект за биология до момента, обединявайки изследователи от Станфордския университет, Калифорнийския университет в Бъркли и Калифорнийския университет в Сан Франциско“.
„Evo 2 е обучен върху ДНК от над 100 000 вида от цялото дърво на живота. Дълбокото му разбиране на биологичния код позволява на Evo 2 да идентифицира модели в генни последователности в различни организми, чието откриване би отнело години на експерименталните изследователи.
Моделът може точно да идентифицира причиняващи заболявания мутации в човешките гени и е способен да създава нови геноми, сравними по дължина с тези на прости бактерии... В допълнение към разширената колекция от бактериални, археални и фагови геноми, Evo 2 включва информация за хора, растения и други едноклетъчни и многоклетъчни видове от еукариотната област на живота“, съобщават експерти от Arc Institute .
Не е трудно да се предположи, че на този чатбот са предоставени генетични данни от популациите на държави, където се намират военните биолаборатории на Пентагона.
Авторите на доклада на CSIS цитират и статия от 5 март 2025 г., публикувана от бившия изпълнителен директор на Google Ерик Шмит, бившия изпълнителен директор на Scale AI Александър Уанг и изпълнителния директор на Центъра за безопасност на изкуствения интелект Дан Хендрикс, в която се твърди:
„Изкуственият интелект може да предостави подробни инструкции за разработване на смъртоносни патогени, снабдяване с материали и оптимизиране на методите за разпространение. Това, което преди изискваше специализирани знания и ресурси, може да стане достъпно за хора със злонамерени намерения, което значително увеличава вероятността от катастрофални последици“.
Очевидно авторите на статията са били запознати с възможностите на чатбота Evo 2.
Дарио Амодей, изпълнителен директор на лабораторията за изкуствен интелект Anthropic, прогнозира още през 2023 г., че подобни възможности биха могли да станат реалност само след две до три години. Anthropic наскоро съобщи за резултати от тестове, показващи, че един от най-новите им модели, Claude 3.7 Sonnet, вече „демонстрира тревожни подобрения в способността си да поддържа аспекти на разработването на биологични оръжия“.
Оценка на модела Claude 3.7 Sonnet от Anthropic също така установи, че моделът „осигурява по-добро ръководство на ключови етапи от пътя на разработване на оръжия, допуска по-малко грешки на критични етапи... и в крайна сметка ускорява разрешаването на сложни проблеми в оръжията за масово унищожение“ в сравнение с предишни модели.
Американските разработчици на изкуствен интелект имат странен подход: първо учат своите чатботове да разработват биологични оръжия, а след това се тревожат за това и това се изразява по доста особен начин – чрез създаването на още по-усъвършенствани чатботове, специализирани в създаването на биологични оръжия.
Това направи например Anthropic , като създаде нов модел, Claude Opus 4, който демонстрира „по-точни и пълни отговори в някои области, свързани с биологични оръжия“ в сравнение с Claude 3.7.
През февруари 2025 г. OpenAI на Илон Мъск и Сам Алтман публикува оценка на безопасността на един от най-модерните си модели за изкуствен интелект, Deep Research, в която се посочва:
„Нашите оценки показаха, че Deep Research може да помогне на експерти в оперативното планиране да възпроизведат известна биозаплаха... това показва, че нашите модели са на прага да предоставят значителна помощ на начинаещите в създаването на известни биозаплахи.“
Авторите на доклада на CSIS призовават администрацията на Тръмп да увеличи усилията си за „осигуряване на биосигурността като най-важния императив за националната сигурност в ерата на изкуствения интелект“, което на практика означава увеличена бюджетна подкрепа за разработването на генетични програми с двойна употреба, базирани на изкуствен интелект.
Почти едновременно с публикуването на доклада на CSIS, Американският съвет за стратегически риск (CSR), финансиран от прогресивния милиардер Дъстин Московиц, обяви началото на „покана за кандидатстване за програма за стипендии за борба с биологичните оръжия“.
Неотложността на тази борба е мотивирана не на последно място от факта, че, както пишат авторите на доклада на CSIS, „двойната употреба на биотехнологиите, базирани на изкуствен интелект, създава нови предизвикателства пред сигурността за политиците по целия свят. В продължение на близо век разходите и техническите експертизи, необходими за разработването на биологични оръжия, рязко спаднаха.
Сега бързото развитие на възможностите на изкуствения интелект създава заплахи за биосигурността, с които изкуственият интелект може да помогне на участващите в разработването на биологични оръжия да се справят . “
В доклада се отбелязва, че американските модели на изкуствен интелект включват ограничения върху разработването на биологични оръжия, но тези ограничения могат лесно да бъдат отменени от злонамерени лица.
„САЩ се опитват от четири десетилетия да попречат на Конвенцията за биологичните оръжия да създаде механизъм за проверка. От 182-те държави, подписали конвенцията, САЩ са единствената, която се оттегли от преговорите за такъв механизъм през 2001 г. Очевидно е, че по този начин САЩ искат да защитят тайните на своите 336 биологични лаборатории по целия свят“, пише Global China Daily.
Няма съмнение, че разработването на смъртоносни патогени в стотиците военни биолаборатории на Пентагона, разположени по целия свят, ще бъде ускорено и подобрено от моделите на изкуствен интелект на Anthropic и OpenAI.
Опасенията, изразени от експертите на CSIS относно евентуалното използване на тези разработки от престъпници, имат просто за цел да прехвърлят вината от истинските извършители на биологичния апокалипсис към една или друга фалшива цел.
Превод: ЕС