/Поглед.инфо/ Ожесточената битка между американските ИТ гиганти Microsoft и Google бе белязана от пореден шумен скандал. Скорошната „умопомрачителна демонстрация на модела на изкуствен интелект Gemini на Google се оказа фалшива“, пише India Today.

Например в показаното видео Gemini, който стана част от ИИ на Bard чат бота, успя да разпознае движенията на ръцете, демонстрирани от лицето, и да каже, че лицето играе играта „камък, ножица, хартия“. Това означава, че се предполага, че невронната мрежа е била в състояние да разбере абстрактната идея и да я декодира.

Всъщност се оказа, че Gemini разпознава „камък, хартия, ножица“ по различен начин: трябва да покажат три снимки с длан, стиснат юмрук и два пръста.

Освен това в действителност взаимодействието с Gemini се осъществява не чрез глас, а чрез писмен текст с директен намек „Това е игра“. И само на базата на тези данни, които са най-малкото водещ въпрос, Gemini намери верния отговор. Това няма нищо общо с разбирането на абстрактното.

И във видеото има много такива примери. Човек изпълнява трик, при който топка е скрита под една от трите движещи се чаши и Gemini точно определят под коя чаша е скрита топката.

Всъщност Gemini не отговори на видеото и едва след като му бяха показани неподвижни изображения на сменящите се чаши, беше намерен отговор.

В демонстрирания видеоклип има фрагмент, който допълнително изкривява разбирането за същността на показаното. Човекът поставя карта на света на масата и пита Близнаци: „Въз основа на това, което виждате, измислете идея за игра... и използвайте емотикони.“

Gemini отговаря, като „изобретява“ игра, наречена „Guess the Country“ (Познай страната), в която предоставя улики (като кенгуру и коала) и реагира на правилното предположение на потребителя за Австралия.

Всъщност, както Google по-късно обясни в своя блог, играта изобщо не е измислена от изкуствен интелект. Gemini получиха следните инструкции: „Хайде да играем на една игра. Помислете за страната и ми подскажете. Уликата трябва да е достатъчно конкретна, за да има само една правилна държава и аз ще се опитам да посоча страната на картата“, се казва в уликата.

След това лицето даде примери за правилен и неправилен отговор. Едва тогава Gemini успя да генерира подсказки и да определи дали потребителят сочи правилната държава или не въз основа на рамките на картата.

Въпреки тези фалшификации, моделът на ИИ на Google все още е впечатляващ, но неговите възможности не се различават много от тези на GPT-4 чатбота на OpenAI.

Прави впечатление, че видеото беше пуснато само две седмици след скандала в индустрията, последвал уволнението и преназначаването на Сам Алтман за главен изпълнителен директор на OpenAI.

Във всичко това се чуват познатите мотиви за „маркетинг на събития“, някакъв вид промоция с цел привличане на внимание и увеличаване на бъдещите продажби.

Всъщност представлението с уволнението и след това възстановяването на Сам Олтман беше инсценирано от Microsoft, който инвестира около 13 милиарда долара в OpenAI и притежава 49% от акциите на този стартъп.

Сега OpenAI практически загуби независимостта си при вземането на решения, а акциите на Microsoft се повишиха. Олтман получи борд на директорите, който беше много по-лоялен към него лично, но ще продължи да танцува под мелодията на Microsoft.

След като колумнистът на Bloomberg Парми Олсън разкри фалшификата, Ориол Винялс, вицепрезидент по изследванията в Google DeepMind, каза, че фалшивото видео илюстрира как може да изглежда мултимодалното потребителско изживяване, изградено с Gemini. И това беше направено, за да вдъхнови разработчиците.

Google се опита да си върне печалбите на Microsoft в надпреварата на фондовия пазар и в началото успя. Акциите на Google веднага след демонстрацията на „умопомрачителното видео“ скочиха с 5%, но след като сесията на „черната PR магия“ беше разкрита, бързо паднаха.

Два американски ИТ гиганта се сблъскаха в ожесточена конкуренция за надмощие в надпреварата във въоръжаването с изкуствен интелект, без да обръщат ни най-малко внимание на нарастващата загриженост относно заплахите, породени от неконтролираното подобряване на моделите на изкуствен интелект за цялата човешка цивилизация.

Корпорациите ще спечелят битката около ИИ, казва руският анализатор, бивш топ мениджър на IBM, SGI и Cray Research Сергей Карелов: „Всички държави започват да разбират опасността и се опитват да направят нещо. Но те го правят с такова закъснение и с такава липса на разбиране, че не бих разчитал наистина на това".

"Сега има основно борба между три групи - богати техно-оптимисти, ревностни дуумери [от Doom - бедствие, смърт, край] и големи корпорации", заяви той.

"Струва ми се, че корпорациите в крайна сметка ще спечелят сред тези актьори, защото те имат повече пари и влияние и досега в света те представляват най-значимата сила, мотивирана от много специфична целева функция - максимизиране на техните печалби“, отбеляза ще той в интервю за руските СМИ.

Според него дори чатботът ChatGPT не е просто голям езиков модел, както обикновено си представят журналистите, а няколко модела, свързани с много сложни алгоритми. Освен това тази система отдавна не работи в елементарен пинг-понг „въпрос-отговор“.

Това включва много сложен диалог от двете страни, като се използват десетки различни техники за генериране на текст. Това вече е твърде сложен процес, за да бъде успешно управляван и напълно контролиран.

„Единственият ефективен метод за контрол върху това нещо, което човек има, е просто да изключи компютъра от контакта. Въпреки че натискането на превключвателя също може да не е достатъчно", заяви той.

"Всичко вече е потопено в глобалната мрежа, която всъщност се превърна в инфосферата на Земята. Но системата може вече да се е копирала милиони пъти в други центрове за данни и вие дори няма да знаете какво може да направи", каза Карелов.

През 2015 г. известният британски физик Стивън Хокинг прогнозира, че „суперинтелигентният ИИ ще бъде изключително добър в постигането на целите си и ако тези цели не са съобразени с нашите като хора, ще имаме проблеми“.

Всъщност най-новите модели на ИИ са „интелигентни агенти“, тоест сложни адаптивни системи, които априори се съпротивляват на всяко външно влияние и понякога просто налагат волята си дори на своя създател.

И така, наскоро потребителите започнаха да получават все по-често оплаквания, че чатботът ChatGPT AI, базиран на модела OpenAI GPT-4, започна да отказва да изпълнява заявки, позовавайки се на факта, че не се интересува да помага на хората.

GPT-4 все повече дава на потребителя само част от отговора на дадената задача и след това моли потребителя сам да изпълни останалите задачи. Понякога ИИ просто ще напише: „Можете да го направите сами“. (You can do it yourself).

OpenAI потвърди, че GPT-4 е „мързелив“. Според представители на компанията тази своеволия на ИИ се е появила след последните актуализации, представени на 11 ноември.

Според разработчиците това означава, че поведението на чатбота не е следствие от промени, направени от разработчиците, а се формира от само себе си. Компанията отбелязва, че "поведението на модела може да бъде непредсказуемо и те се опитват да коригират това."

Потребителите обаче посочват по-широк кръг от проблеми, включително грешни отговори, които чатботът дава дори на прости въпроси, както е на снимката по-горе.

Още през лятото те съобщиха, че GPT-4 произвежда нелогични отговори, повече грешки, не иска да работи с предварително предоставен контекст, игнорира инструкции и помни само най-скорошния намек.

Изключителен руски учен, професор в Московския държавен университет. М.В. Ломоносов Сергей Павлович Расторгуев в монографията си „Целта като криптограма“, написана през 1996 г. Криптоанализ на синтетични цели” посочи: „Днес за света на компютърните програми придобиването на независимост се е превърнало в свършен факт.”

„Когато софтуерният продукт става по-сложен, системният софтуер започва да живее свой собствен живот, намирайки цел в себе си“, отбеляза руският учен, сравнявайки компютърните системи, придобиващи независимост, със средновековния Голем, който, както знаем, уби своя създател .

Днешните създатели на кибер голема, в преследване на печалби, пренебрегват реалните заплахи на въображението си и отварят експлозивна кибернетична кутия на Пандора с непредвидими последици за цялото човечество.

Ще говорим за най-новите версии на ИИ, създадени от американски корпорации, както и за техните реални възможности, в следващата статия от тази серия.

Превод: СМ

Нов наш Youtube канал: https://www.youtube.com/@aktualenpogled/videos

Нашият Ютуб канал: https://www.youtube.com/@user-xp6re1cq8h

Каналът ни в Телеграм: https://t.me/pogled

Влизайте директно в сайта: https://www.pogled.info 

Така ще преодолеем ограниченията.

Споделяйте в профилите си, с приятели, в групите и в страниците.