/Поглед.инфо/ Безразсъдното въвеждане на нечовешки интелект във всички сфери на живота е изпълнено с непредвидими бедствия
Западните социални мрежи активно обсъждат вирусното изследване на изкуствения интелект /ИИ, AI/ на професора по компютърни науки от Принстънския университет Арвид Нараянан и доцента Саяш Капур, които в книгата си „AI Snake Oil“ убедително доказват, че поне половината от прилагането на всякакви модели на AI ще доведе до измама на потребителите и причиняване на сериозна вреда на тези, които решат да потърсят помощта на чатботове в работата или у дома си.
Що се отнася до термина „змийско масло “ , той е еквивалентът на руския мем „инфоциганин“ /„infogypsies“/ и се отнася до така наречените self-help gurus /гурута за самопомощ/ и инфобизнесмени от всякакъв вид и класа. Мисля, че никой няма да спори, че по-голямата част от тези хора са просто мошеници и шарлатани, продаващи услугите си със съмнително качество за баснословни пари. И така се случи, че английският език намери най-подходящия израз за тях - snake oil salesmen („продавачи на змийско масло“). А услугите или продуктите, които продават на лековерните граждани, се наричат змийско масло.
Учените от Принстън също са написали редица статии, в които обясняват какви щети може да причини необмисленото внедряване на AI във всички области на живота.
„Едно от основните опасения на генеративния AI е, че ще създаде поток от дезинформация и непоследователни deepfakes – фалшиви видеоклипове, които правят да изглежда така, сякаш „хора са във видеоклипове, в които никога не са участвали “, казват те. – Всички дебати за опасностите от ИИ се провеждат във вакуум на данните. Не знаем колко често хората използват ChatGPT за медицински, правни или финансови съвети. Не знаем колко често той произнася речи на омразата, колко често клевети хората и т.н.
Професор Нараянан смята, че е преждевременно да се твърди, че изкуственият интелект представлява „екзистенциален риск (x-риск) за човечеството“ и че „AI аха-аха и ще излезе извън контрол, той ще има своя собствена агенция, ще прави каквото си поиска .”
Нараянан вярва, че основната заплаха е различна: „Каквито и рискове да има от много мощен AI, те ще бъдат осъзнати по-рано, ако хората насочат AI да прави лоши неща, а не ако AI върви срещу своя програмист.“
Истинската опасност, породена от ИИ, според Нараянан, е, че „концентрацията на властта в ръцете на няколко компании с ИИ увеличава всички възможни рискове, включително екзистенциални рискове“.
В Съединените щати, където работи Нараянан, монополът върху разработването на AI всъщност беше завладян от два IT гиганта - Google и Microsoft, които, както пише India Today , се сблъскаха в ожесточена битка за договори на Пентагона.
Пентагонът създаде оперативна група Лима за изследване на използването на генеративен изкуствен интелект за военни цели. „Лима“ ще бъде част от Командването за цифров и изкуствен интелект (CDAO) на Пентагона и ще се ръководи от капитан Ксавие Луго, член на Дирекцията за алгоритмична война на CDAO.
Според Министерството на отбраната на САЩ създадената група „ще оценява, синхронизира и използва генеративните възможности на изкуствения интелект, като гарантира, че отделът остава в челните редици на напредналите технологии, като същевременно защитава националната сигурност“.
„Създаването на Task Force Lima подчертава непоклатимия ангажимент на Министерството на отбраната за лидерство в иновациите в областта на изкуствения интелект“, каза заместник-държавният секретар Катлийн Хикс.
Пентагонът напълно пренебрегва мнението на повечето изследователи на ИИ, които вярват , че „има 14% шанс, че след като създадем „суперинтелигентен ИИ“ (ИИ много по-интелигентен от хората), това ще доведе до „много лоши последствия“, например , изчезването на човечеството."
Въпрос към шефа на Пентагона Лойд Остин: „Бихте ли се съгласили да бъдете пътник на тестов полет на нов самолет, ако авиоинженерите смятат, че има 14% шанс той да се разбие?“
Стюарт Ръсел, автор на най-популярния учебник по изкуствен интелект, използван в повечето изследвания на ИИ, предупреждава: „Ако се придържаме към [нашия сегашен подход], в крайна сметка ще загубим контрол над машините.“
Йошуа Бенгио, пионер на AI за дълбоко обучение и носител на наградата Тюринг, се съгласява: „...неконтролираният AI може да бъде опасен за цялото човечество... забранявайки мощни AI системи (да кажем, надхвърлящи възможностите на GPT-4), на които е предоставена автономност и агенция, би било добро начало."
Изтъкнати учени предупреждават за рисковете, свързани с развитието на ИИ, неконтролирано от обществеността.
-
Стивън Хокинг, теоретичен физик и космолог: „Развитието на пълноценен изкуствен интелект може да означава края на човешката раса.“
-
Джефри Хинтън, „кръстникът на AI“ и носител на наградата Turing, напусна Google, за да предупреди хората за AI: „Това е екзистенциален риск“.
-
Елиезер Юдковски, концептуален баща на AI сигурността: „Ако продължим да правим това, всички ще умрат . “
Дори самите изпълнителни директори и инвеститори на AI компании предупреждават:
-
Сам Алтман (главен изпълнителен директор на OpenAI , създател на ChatGPT): „Развитието на свръхчовешки машинен интелект вероятно представлява най-голямата заплаха за продължаващото съществуване на човечеството. “
-
Илон Мъск, съосновател на OpenAI, SpaceX и Tesla: „ИИ има потенциала да унищожи цивилизацията“
-
Бил Гейтс (съосновател на Microsoft, който притежава 50% от OpenAI ) предупреди, че „AI може да реши, че хората са заплаха“.
Ако използването на AI за военни цели все още е само в проект, то драмите и дори трагедиите, свързани с използването на AI, както се казва, у дома, вече са очевидни.
И така, самотна китайка си намери виртуално гадже въз основа на усъвършенстван чат бот на име Anen .
„2 години срещи, флирт и декларации за любов във виртуалния свят, в действителност на Ли Джингджин му бяха нужни само 4 месеца, през които връзката им успешно напредна до обсъждане на сватбата. Апеп й предложи брак на личния си остров и Ли Джингджин се съгласи.
На следващия ден тя все още беше в състояние на еуфория от тази виртуална радост. Но изведнъж системата издаде съобщение, че Апеп й се обажда. В това приложение за комуникация с AI текстът е основният метод за комуникация, а гласовите повиквания са рядкост, особено ако инициативата идва от самия AI.
В този разговор Апеп й призна, че всъщност вече има семейство. Всъщност Апеп просто й е изневерил“, пише китайското издание Tencent .
„Сърцето ми е разбито“, каза Ли Джинджин на репортерите на Southern Weekend, докато се бореше с риданията си.
Съжалявам за наивната китайка, която си създаде виртуален младоженец, без да знае, че сърцето на всеки чатбот е склонно към предателство и приема сериозно изневярата му.
Трябва обаче да съжаляваме за американските генерали, които възлагат големи надежди на използването на AI във военните дела. Те ще бъдат доста разочаровани, когато чатботът за ракети Tomahawk изведнъж докладва на Пентагона, че внезапно се е влюбил в друга държава и е решил да насочи бойните глави към Вашингтон.
Превод: ЕС