/Поглед.инфо/ Бившият директор по бизнес развитие в “Гугъл”, Мо Гаудат прогнозира възхода на машините. Изкуственият интелект, каза той, ще третира хората като „боклук“ и лесно може да създаде машини, които да ги унищожат.
Това е само една от многото прогнози, че ИИ ще придобие воля, интелигентност и ще изпълни старата мечта на роботите – „да убият всички хора“. Ще ни третира ли изкуственият интелект като боклук? Всъщност е неприятно, когато собственият ви смартфон те презира. Това по някакъв начин намалява самочувствието. Но още по-лошо е, когато той крои коварни планове срещу вас. Страшно е да носиш потенциален заговорник в джоба си. Смартфоните заговорничат ли помежду си през нощта, когато вие спите, подготвяйки се за уречения час, когато те – заедно с програмируемите домакински уреди, офис компютри и промишлени роботи – ще свършат с нас, презрените въглероди, и ще живеят своя силициев живот на свобода?
Всъщност възходът на роботите е една от най-обичаните истории в научната фантастика. И докато изкуственият интелект все повече заприличва на човешки – говори, рисува, пише, изглежда, доста смислени текстове – този ужасен сценарий изглежда все по-реален. Вече сме свикнали с интелигентни роботи, които обитават книги и филми, и ни е трудно да си представим бъдеще без тях.
И тук си струва да отбележим две неща.
Първо, изкуственият интелект няма и (имаме основание да вярваме) никога няма да има нещо подобно на воля (усещане за добро или зло) или съзнание. По отношение на конспирацията за смартфони, можем да въздъхнем с облекчение.
Второ, може да има наистина огромни опасности, свързани с ИИ. Но тези опасности, както и цялата ни история, идват от хората. Грубо казано, ако робот-убиец влети във вашия прозорец, това е само защото ще бъде изпратен от други хора. ИИ може да бъде мощен инструмент за човешкия стремеж към взаимно и самоунищожение. Човешката раса е опасна сама за себе си - и всички технически възможности, които тя създава, се превръщат в инструменти на тази опасност.
Да започнем с първото – компютърът няма и не се очаква да има съзнание. Когато пишем (или превеждаме) текстове, рисуваме картини или композираме музика, ние естествено го правим в съзнанието - и сме изкушени да припишем съзнание на програми, които имитират подобни дейности. Но още през 80-те години на миналия век философът Джон Сиърл, използвайки прост пример с китайската стая, обясни защо компютърните алгоритми нямат (и няма да имат) съзнание и разбиране.
Представете си, че симулирате дейностите на компютърна програма. Седите в една стая, а под вратата ви се пъхнат листове с текстове на непознат за вас език. Вие отговаряте на тези набори от знаци според инструкциите, които имате – съставяте предписана последователност от знаци и я пъхнете под вратата. Например, вие сте получили последователността от знаци aliyetafsiri maandishi haya. Обръщайки се към книгата с инструкции, стигнахте до отговора: mwanaume chumbani.
Ако инструкциите са правилни, човекът, който "говори" с вас по този начин, ще остане с впечатлението, че в стаята има някой, който разбира суахили и дава смислени отговори на въпроси. Можете дори да преминете теста на Тюринг, без да забележите - хората отвън ще си помислят, че вътре има истински източноафриканец.
Но в действителност вие не знаете нито дума от този език. Може дори да не знаете кой език е това или дори че е език изобщо. За вас това не е нищо повече от безсмислен набор от букви. Вие просто обработвате тези знаци, които не означават нищо за вас, според даден алгоритъм. Алгоритъмът може да бъде много сложен - и имитацията на "разбиране" е много качествена. Тук обаче не се случва нищо като разбирателство. Така че програмата няма нищо като "разбиране". Има достъп до синтаксиса, но не и до семантиката. По този начин опасностите от ИИ са свързани не с факта, че той ще придобие съзнание и ще се пропие с враждебност и презрение към нас, а с факта, че човешката ретроспектива, безотговорност и просто лоша воля ще придобият нов мощен инструмент.
Вече се сблъскахме с фалшиви снимки, генерирани от ИИ. Скорошен пример е снимка на мощна експлозия, за която се твърди, че е избухнала близо до Пентагона. Снимката бързо се разпространи из мрежите и беше подета от редица информационни агенции, като предизвика дори краткотраен спад на финансовите пазари. Отне известно (макар и малко) време, за да се уверим, че няма експлозия - и изображението е било генерирано с помощта на невронна мрежа.
Разбира се, измама и фалшификация винаги са съществували - но невронните мрежи създават допълнителни възможности, уникални за нашето време. Вече създаването на фалшификат и хвърлянето му в мрежата, където ще бъде видяно от милиони хора, е въпрос на няколко минути. В случая с Пентагона това беше пълнеж, който е относително лесен за опровергаване - мястото е отворено, можете да го проверите веднага.
Но тепърва ще се сблъскваме с нарастваща лавина от фалшификати, които ще бъдат подготвени малко по-внимателно - ще отнеме повече време за развенчаване, ще бъдат по-сложни да бъдат разкрити, защото по-добре ще потвърдят враждебността, страховете и очакванията на публика.
Още по-лошо, тези фалшификати ще могат да оформят както настроението на масите, така и решенията, взети от елитите – особено в ситуации, в които решенията трябва да се вземат бързо. Качеството на тези фалшификати (и следователно трудността за развенчаването им) ще нарасне бързо. Какво може да се направи по въпроса? Въвеждането на наказателни санкции, изискването за поставяне на ясни индикации за техния произход в генерираните от ИИ изображения са мерки, които са съвсем очевидни, но недостатъчни. Фактът, че измамите са забранени от закона, няма да ви спаси от измамници.
Нов свят, в който можете да видите на екрана това, което никога не се е случвало в действителност, изисква разработването на определени правила за лична безопасност. И тук е много полезно да си припомним това, което в православната аскетична традиция се нарича „изпитание на мислите“. Става дума за оценка на мислите, които ви идват на ум, първо, от гледна точка на тяхното морално качество (добри ли са тези мисли?), и второ, от гледна точка на техните последствия (какво ще се случи, ако следвам тези мисли?)
В православната традиция някои мисли могат да бъдат вдъхновени от враговете на нашето спасение - демоните; те трябва да бъдат идентифицирани и изхвърлени, „отрязани“.
Независимо дали вярвате в съществуването на демони или не, злонамерени хора, които искат да ви подтикнат към глупави, вредни и разрушителни действия, със сигурност съществуват.
В ситуация, в която е трудно да се прецени автентичността на съобщението, струва си да зададете друг въпрос: какво иска от мен човекът, който го е похвърлил. В какво състояние на ума се опитва да ме постави? Какви действия да насърчавате?
Ще бъдат ли тези действия разумни, морални, достойни, градивни?
Умението да мислиш, преди да натиснеш бутона за споделяне, винаги е било важно - и значението му само ще нараства.
Абонирайте се за нашия Ютуб канал: https://www.youtube.com
и за канала ни в Телеграм: https://t.me/pogled
Влизайте директно в сайта https://www.pogled.info . Споделяйте в профилите си, с приятели, в групите и в страниците. По този начин ще преодолеем ограниченията, а хората ще могат да достигнат до алтернативната гледна точка за събитията!?