/Поглед.инфо/ Компанията “ОупънАИ”, която създаде линията чат ботове ГПТ, реши да разбере как работи изкуственият интелект на тези киберголеми и повери тази важна задача на най-напредналия от тях, чат бота ГПТ-4.
Предишните опити на изследователите на “ОупънАИ” самостоятелно да „погледнат в душата“ на собствените им творения не бяха увенчани с успех. Освен това, колкото по-сложни стават чатботовете, толкова по-трудно е да се разбере как работят, „което води до липса на прозрачност и обяснимост“.
Накрая “ОупънАИ” просто пое и прехвърли тази твърде тежка за човешкия ум задача върху плещите на най-мощния чат бот ГПТ-4 с над сто милиарда неврони, като му нареди да погледне вътре в кибермозъка на по-слабия си брат ГПТ-2, който има само малко над 300 хиляди неврона.
Архитектурата на ИИ-невронните мрежи следва структурата на човешкия мозък. Човешките мозъчни клетки, наречени неврони, образуват сложна, силно взаимосвързана мрежа и изпращат електрически сигнали една към друга, за да обработят входящата информация. По подобен начин изкуствената невронна мрежа се състои от изкуствени неврони, които взаимодействат, за да решават проблеми. Изкуствените неврони са софтуерни модули, наречени възли, а изкуствените невронни мрежи са сложни многопластови програми.
ГПТ-4 се справи блестящо със задачата, като повери на ГПТ-2 редица задачи, които той изпълни. Резултатът беше доста неочакван.
Много неврони в малкия чат-бот се оказаха многозначни - те реагираха на множество различни входни данни: смесица от академични цитати, диалози на английски, HTTP заявки, текстове на корейски. С други думи, тези неврони се обърнаха да бъдат, образно казано, многостранно развити, притежаващи няколко „професии“.
ГПТ-4 не можа да разбере причините за тази неяснота. Отговорът беше получен от анализатори от “Антропик”, компания, основана от започналия кариерата си в “ОупънАИ” Дарио Амодей.
Анализаторите от “Антропик”, след като провеждат серия от експерименти, откриват, че основната причина за неяснотата е така наречената „суперпозиция“, когато вътре в невронната мрежа на чат-бота се симулира физически несъществуваща невронна мрежа от някакъв абстрактен ИИ, което е много по-голям и по-сложен от невронната мрежа, която го моделира.
Тази виртуална мрежа, създадена от чат-бот в пълния смисъл на думата, съдържа симулирани съвсем недвусмислени „подневрони“ (съответстващи на конкретни концепции).
Всъщност това можеше да се очаква. Чат-ботовете, създадени от хора, са сложни адаптивни системи, които, както е известно от курса на теорията на системите, имат свойството на стихийно възникване, когато системата е по-сложна от простата сума на нейната съставна част елементи (тухли + проект = къща).
По този начин беше установено, че вътре дори в най-слабия чат-бот, когато изпълнява каквато и да е задача, се генерира много по-мощен изчислителен ИИ, който не съществува физически, като един вид „Кибер летящ холандец“.
На какво е способен този супер-ИИ се разкрива в ново проучване на главния учен на “ДийпМайнд” на “Гугъл”, професора от Имперския колеж в Лондон Мъри Шанахан и професора от Лондонския университет Катрин Кларк.
Шанахан и Кларк се заеха да тестват дали ГПТ-4 има въображението да позволи на чат-бота да бъде креативен, когато пише (в съавторство с човек) литературен текст, в този случай научнофантастичен роман за пътуване във времето.
По време на експеримента беше показано, че в сътрудничество с човек и при наличието на сложни подкани, чат-ботът демонстрира наистина сложно въображение.
„Това е продукт на творчеството на модела, защото хората не са измисляли нещо подобно преди нея (това го нямаше в никакви човешки текстове): например нови герои и сюжетни обрати, измислени от модела, които се появяват в хода на романа. Нови неологизми, които служат за разкриване на идеологическото съдържание на сюжета, е са смислени, семантично правилни и контекстуално релевантни“, коментира руският ИТ анализатор Сергей Карелов за резултата от експеримента на британски учени.
И така, експериментално е доказано, че сложните ИИ системи от “ОпънАИ” на “Майкрософт” имат въображение и креативност. Най-новите разработки имат, както писахме, още по-мощен интелект и творчески способности.
Това прави разработките на западния ИИ още по-опасни и непредвидими. Креативността и въображението на чат-ботовете всъщност произтичат от така наречените „халюцинации“, които толкова много тревожат американските разработчици на ИИ. Сложните ИИ модели остават непрозрачни и остава необяснено как работят .
ЧЕТЕТЕ И ПИШЕТЕ КОМЕНТАРИТЕ ТУК: https://www.facebook.com/PogledInfo
Разработчиците и потребителите на чат-ботове нямат контрол върху симулираните виртуални супермощни ИИ мрежи, създадени от чат-ботове. Дълбокият „ум“ на неживите интелигентни агенти е извън човешкия контрол и от него могат да се очакват всякакви изненади.
ИТ анализатори от Станфордския университет публикуваха прогноза за възможните последици от развитието на ИИ през 2024 г. Те прогнозират, че дезинформацията и дълбоките фейкове ще пометат света. По-специално, "ще видим разпространение на видеоклипове на хора, които "казват" неща, които никога не са казвали." Ще се появят първите ИИ агенти, които не само помагат на хората, но и вършат някаква работа за тях.
Анализаторите на “ОупънАИ” са погледнали в по-далечното бъдеще. Те вярват, че изкуственият суперинтелект „може да се появи през следващите 10 години. Тези ИИ системи ще имат огромни възможности - те могат да бъдат изключително полезни, но също така потенциално крият големи рискове."
„Свръхчовешките ИИ системи ще бъдат способни на сложно и изобретателно поведение, което хората няма да могат да разберат напълно. Например, ако свръхчовешки модел генерира милион реда изключително сложен код, хората няма да могат надеждно да преценят дали този код е безопасен или опасен за изпълнение. Това води до фундаментален проблем: Как хората могат да управляват и да се доверяват на системи с изкуствен интелект, които са много по-умни от тях?“, се казва в доклада на американски ИТ анализатори.
Те вярват, че управлението на ИИ ще се провали и ще бъде възпрепятствано от необходимостта да се обърне внимание на това, което е известно като „Суперподравняване“.
Съществуващите техники за „подравняване“, които имат за цел да гарантират, че целите и резултатите на ИИ са съгласувани, не работят в случай на суперинтелигентен ИИ. Появата на суперинтелигентен ИИ е все по-близо.
Ако до този момент не са разработени средства за „супер изравняване“, тогава на човечеството няма да му се размине.
Ситуацията всъщност с неконтролираното развитие на Запад на все по-опасни ИИ системи, освен това за военни цели, разработването на методи за противодействие и защита от западния ИИ се превръща в категоричен императив, казва един от водещите руски ИТ експерти Артем Артемов.
Една от посоките е създаването на така наречената ИИ религия, нещо като аналог на трите правила на роботиката на Айзък Азимов. За краткост се използва и терминът „Дигитален Бог“. Тоест хипотетична суперпрограма, която контролира поведението на всички ИИ, забранявайки на ИИ да вреди на хората като цяло и на Руската федерация в частност.
Докато западните ИТ компании са посветили всичките си усилия на създаването на все по-мощни ИИ системи, руските анализатори са фокусирани върху разработването на методи за защита на човечеството от киберчудовищата, създадени от новите Франкенщайни.
Превод: В. Сергеев
ЧЕТЕТЕ И ПИШЕТЕ КОМЕНТАРИТЕ ТУК: https://www.facebook.com/PogledInfo
Нов наш Youtube канал: https://www.youtube.com/@aktualenpogled/videos
Нашият Ютуб канал: https://www.youtube.com/@user-xp6re1cq8h
Каналът ни в Телеграм: https://t.me/pogled
Влизайте директно в сайта: https://www.pogled.info
Така ще преодолеем ограниченията.
Споделяйте в профилите си, с приятели, в групите и в страниците.