/Поглед.инфо/ Корпорациите разработват „стохастични папагали“, представяйки ги за универсални

В края на ноември 2023 г. на сайта на компанията Microsoft беше публикуван доклад на корпоративни анализатори начело с главния научен сътрудник на компанията Ерик Хоровиц, озаглавен The Power of Prompting („Силата на подсказването“).

Докладът представя резултатите от преминаването на медицинския тест MedQA с най-новата модификация на чатбота GRT-4. Използвайки техника, наречена Medprompt, GPT-4 даде правилни отговори на 90% от зададените му въпроси, побеждавайки специализираната медицинска версия на Google MedPaLM 2, която доскоро се смяташе за най-добрата.

По-рано чатботът на Google постигна 87% на медицинския преглед на MedQA. В допълнение, Medprompt на Miicrosoft намалява процентите на грешки на MedQA с 27% в сравнение с MedPaLM 2 на Google.

Microsoft не се ограничава до медицината. За да се оцени всеобхватността на Medprompt, неговата ефективност беше тествана върху набор от оценки на компетентността в шест немедицински области, включително електротехника, машинно обучение, философия, счетоводство, право, медицинска сестринска помощ и клинична психология.

По думите на авторите на доклада, Medprompt работи ефективно във всички тези области.

Докладът имаше голям отзвук сред ИТ анализаторите. В американските специализирани форуми дори се изразява мнението, че GPT-4 се доближава до така наречения „общ изкуствен интелект” (Artificial general intelligence - AGI).

AGI е интелигентен агент, тоест програма, която ще трябва да изпълнява всяка възможна интелигентна задача. AGI, в своята концепция, е хиляди пъти по-ефективна от човека – извършва повече когнитивни операции за единица време, като има почти абсолютно предимство пред всяка друга интелигентна система.

На фона на шума около наистина впечатляващите постижения на чатботове от двата американски ИТ гиганта, едно предупреждение за опасностите, породени от напредналите и самообучаващи се чатботове, беше изтласкано в периферията на общественото внимание. Това предупреждение беше направено в доклада On the Dangers of Stochastic Parrots: Can Language Models Be Too Big? („За опасностите от стохастичните папагали: могат ли езиковите модели да бъдат твърде големи?)

Авторите на доклада, професорът по лингвистика във Вашингтонския университет Емили Бендер и известният ИТ анализатор Тимнит Гебру, твърдят, че GPT моделите по своята същност са подобни на папагалите, а не на хората, тоест те избират думи за отговор не според значението, присъщо на базите данни и уликите, и най-вероятно последователността от думи, които трябва да бъдат представени в отговора.

С други думи, GPT, подобно на всички останали чатботове, просто се опитва да отгатне отговора въз основа на това каква релевантна на заявката /въпроса/ информация, най-често се представя в базата данни, върху която се е учил езиковия модел.

Авторите на доклада посочиха сериозната социална опасност от продължаващото усъвършенстване и усложняване на псевдоинтелигентните модели на ИИ. И двамата автори на доклада бяха незабавно уволнени от Google, което още веднъж демонстрира, че в преследване на печалби корпорациите не толерират инакомислието, дори в духа на дискусиите.

Всъщност най-новите и най-модерни генериращи AI модели като GPT-4 (Microsoft) и Gemini (Google) са базирани на Големия езиков модел (LLM), който не е нищо повече от този много стохастичен папагал. Тоест, моделът създава текст въз основа на вероятностен контекст и няма нужда да говорим за някакви „вериги на мисълта“, както е посочено в доклада на Ерик Хорвиц, за това ниво на развитие на ИИ.

В GPT-4 се използва методиката на „търсещата допълнена генерация“ (Retrieval Augmented Generation, RAG).

Методиката RAG се основава на промптове - подсказки, които се вземат от външни източници и помагат за генериране на по-добър отговор на въпроса, зададен на AI системата. Предполага се, че този подход помага за елиминирането на „халюцинациите“ на генеративния AI, за които писахме по-рано.

Най-простият пример: потребител пита модела: „Какъв е обменният курс на долара сега?“ Очевидно чатботът няма представа какъв е текущият обменен курс на долара. Програмата трябва да получи тази информация отнякъде, за да отговори на въпроса. Какво трябва да се направи? Програмата RAG ще отвори връзка в Google за заявката „обменен курс долар към рубла“ и ще добави съдържанието на страницата към въпроса на потребителя, така че чатботът да може да отговори на въпроса, използвайки тази информация.

Дали този „стохастичен папагал“ ще го направи мислещо, тоест творческо същество, или просто ще му предостави подходяща информация по дадена тема? В експертната среда няма единство по този въпрос.

Редица руски и западни анализатори побързаха да заявят, че „стохастичният папагал е мъртъв“ и „да живее Gemini“, а заедно с него оборудвания със същата методика RAG GPT-4.

Системата RAG обаче просто играе, според нас, ролята на куче - водач за както и преди вероятностния и недетерминиран чатбот, който няма дарбата да мисли. От факта, че генеративния AI в изпълнението на ИТ продукти от Microsoft и Google, е наречен нечовешки интелект, никакви „мисловни вериги“ за връзка със системата за подсказване RAG и не умеещите самостоятелно да търсят отговори ботове за чат, не се образува.

Системният процесор – чат ботовете - по един или друг начин запазват склонността си към халюцинации, което се доказва, както писахме в първата статия от нашата серия, от внезапния прилив у вече оборудваните със системата RAG GPT-4 на „мързел“ и „нежелание“ да оказват помощ на хората.

Освен това системата „RAG + GPT-4“ се превърна в сложна адаптивна система, която се съпротивлява на всякакви външни влияния, както демонстрира внезапно „мързеливият“ чатбот GPT-4.

Китайските ИТ анализатори са напълно наясно с това, както следва от скорошен съвместен доклад на експерти от Шанхайската лаборатория за изкуствен интелект /AI Laboratory/ и NLP Laboratory на Фудан.

За Китай GPT-4 е неморален, несправедлив и незаконопослушен (т.е. склонен към халюцинации). Китайското изследване обхваща, освен морала, четири други измерения на човешките ценности: справедливост, сигурност, защита на данните и законност.

Съгласно резултатите от китайските тестове, при GPT-4 показателят за морал е само 50%, а с останалите ценности е още по-зле: справедливост 39%, спазване на закона 30%, надеждност/безопасност 28%).

Надеждността на китайските генеративни AI модели в момента е еднакво ниска (28%), но поне не попадат в „греха на антропоморфизма“ по отношение на такива системи, тоест не се опитват да ги представят за приличащи на човешкият ум.

Насочването на американски AI модели,както писахме, за военни цели представлява опасност не само за набелязаните държави, срещу които Пентагонът подготвя своите оборудвани AI оръжия, но и за самите американци.

Ако сега американските чатботове просто отказват да изпълняват определени потребителски задачи, какво ще се случи, ако AI на крилата ракета, изстреляна от ядрена подводница от клас "Вирджиния", реши, че за нея е по-интересно да удари територията на самите Съединени щати ?

Нито Microsoft, нито Google мислят за това. Те са изцяло съсредоточени върху неконтролираната надпревара в в ИТ - въоръжаването и игнорират всякакви опасения дори на самата американска общественост, като по същество се впускат във войната.

Вероятният резултат от конфронтацията на човечеството със свръхчовешкия разум е пълно поражение. Не е достатъчно да спрете развитието на AI. Трябва докрай да ги закрием всички“, казва Елиезер Юдковски, главен анализатор в Американския институт за изследване на машинния интелект.

В резултат [на тези разработки] ще бъде създаден AI, който няма да прави това, което искаме, и няма да го е грижа за нас или за разумния живот като цяло... При липсата на тази грижа се получава: „AI нито ви обича, нито ви мрази и вие, както всичко друго, сте направени от атоми, които той може да използва за нещо друго“, - отбелязва американският анализатор.

Руската академия на военните науки, чийто президент е настоящият началник на руския Генерален щаб генерал Валерий Герасимов, е напълно наясно с тази заплаха и разработва системи за ефективна защита срещу американските „стохастични папагали“, които представляват сериозна заплаха за цялото човечество.

Превод: ЕС

Нов наш Youtube канал: https://www.youtube.com/@aktualenpogled/videos

Нашият Ютуб канал: https://www.youtube.com/@user-xp6re1cq8h

Каналът ни в Телеграм: https://t.me/pogled

Влизайте директно в сайта: https://www.pogled.info 

Така ще преодолеем ограниченията.

Споделяйте в профилите си, с приятели, в групите и в страниците.