/Поглед.инфо/ Пореден пробив или научно мошеничество по пътя към самоунищожението?

Комисията за преглед на икономиката и сигурността на Съединените щати и Китай (USCC) към Конгреса на САЩ публикува доклад, препоръчващ на законодателите на САЩ да създадат и финансират програма от типа на проекта Манхатън, насочена към ускоряване на развитието на така наречения общ изкуствен интелект (AGI).

AGI е вид изкуствен интелект, способен да се самообучава, да се адаптира към непознати преди ситуации и да решава всякакви когнитивни задачи, които човек може да изпълни. С други думи, това е система, която трябва да мисли и действа като хората (или дори по-добре), а целта на AGI изследванията е да създаде софтуер, който може да реши всеки проблем, дори и тези, за които не е бил обучен предварително по същия начин, по който човек го прави.

Това е следващата стъпка в развитието на технологиите на изкуствения интелект /ИИ/, насочена към преодоляване на ограниченията на настоящите подобни системи и значително надхвърляне на бъдещите им възможности.

Към днешна дата такива системи не съществуват поради различни трудности, включително технически и теоретични проблеми.

Проектът Манхатън беше секретна програма, използвана от правителството на САЩ по време на Втората световна война за разработване на първите в света атомни бомби. Комисията също така предложи да се приемат пълномощия на изпълнителната власт за възлагане на многогодишни договори и финансиране на AGI, облачни компании и центрове за данни. Те ще бъдат насочени към установяване на „лидерството на САЩ в AGI“.

През ноември 2024 г. Министерството на финансите на САЩ прие правило, въвеждащо нови ограничения върху инвестициите от американски фирми за рисков капитал в китайски компании, разработващи модели на AGI. САЩ също наложиха санкции на Китай , насочени към ограничаване на достъпа му до модерните чипове.

Към юни 2024 г., 50 компании в Китай разработват AGI модели, докато в Съединените щати с тази дейност се занимават само малък брой големи компании, специализиращи се в AGI модели, според доклада на комисията.

Американската компания OpenAI, която създаде чатботовете ChatGPT, предложи правителството да отдели повече средства за развитието на AGI в своя „Инфраструктурен план за Съединените щати“. OpenAI представя „Проекта Манхатън“ за AGI като един от „забележителните инфраструктурни проекти в САЩ, които движат страната напред“.

Много водещи учени обаче са разтревожени от доклада на Комисията на Конгреса на САЩ.

Световноизвестният космолог и астрофизик, професор от MIT и съосновател на Future Life Institute (FLI) Макс Тегмарк публикува призив към правителството на САЩ на уебсайта на института, в който пише , че „предложението на проекта Манхатън за AGI е научна измама... Да направиш това би означавало да влезеш в надпревара, целяща самоунищожение."

Предложеният проект AGI Manhattan и основното недоразумение, което стои в основата му, представляват коварна, нарастваща заплаха за националната сигурност на САЩ. Всяка система, която превъзхожда хората в общото познание и решаване на проблеми, по дефиниция ще превъзхожда хората в изследванията и развитието на ИИ и следователно ще може да се подобрява и възпроизвежда с тревожна скорост.

Водещите световни експерти по изкуствен интелект са съгласни, че нямаме начин да предвидим или контролираме такава система и няма надежден начин да съгласуваме нейните цели и ценности с нашите собствени“, - отбелязва световноизвестният учен.

Тегмарк посочва, че докладът на панела на Конгреса „извършва научна измама, като предполага, че AGI е почти сигурно контролируема. По-общо казано, твърдението, че такъв проект е в най-добрия интерес на националната сигурност, неискрено представя погрешно науката и последиците от тази трансформативна технология, както се вижда от техническото объркване в самия доклад, който изглежда е съставен без много принос от AI експерти."

Компютърният учен Джефри Хинтън, който спечели Нобеловата награда за физика през октомври 2024 г. за работата си в областта на ИИ, е съгласен с Тегмарк. Той веднага издаде предупреждение за неконтролируемата сила на ИИ технологията.

Ще бъде сравнимо с индустриалната революция “ , каза Хинтън . „Но вместо да надмине хората по физическа сила, сега ще надмине хората по интелектуални способности.“ Нямаме опит какво е да имаме неща, които са по-умни от нас . "

Хинтън, който напусна Google , за да може свободно да предупреждава за потенциалните опасности от ИИ, се смята за един от кръстниците-създатели на изкуствения интелект.

И докато Хинтън признава, че ИИ има потенциала да трансформира човешките общества към по-добро, което води до „огромни увеличения на производителността“ в области като здравеопазването, той също така подчерта потенциала за „редица възможни лоши последици, особено заплахата от излизането на тези неща извън контрол."

Притеснявам се, че цялостната последица от това може да бъде, че по-умните от нас системи в крайна сметка ще поемат контрола над нас“, каза той .

Макс Тегмарк, който работи в тясно сътрудничество с Илон Мъск за ограничаване на опасностите от ИИ, каза в интервю за The Guardian , че влиянието на Илон Мъск върху бъдещата администрация на Тръмп може да доведе до по-строги стандарти за сигурност за изкуствения интелект.

Мъск може да помогне на новоизбрания президент да осъзнае, че надпреварата за изкуствен интелект е „самоубийствена надпревара“, каза Макс Тегмарк.

Макс Тегмарк каза, че подкрепата на Мъск за калифорнийския законопроект SB 1047, въпреки съпротивата на много от колегите му техници, е положителен знак за защитниците на безопасността на ИИ. Над Законопроекта, който планира да изисква от компаниите да тестват големите AI модели преди да ги пуснат, беше наложено вето от губернатора на Калифорния Гавин Нюсъм.

Мъск многократно е предупреждавал, че необузданото развитие на ИИ може да има катастрофални последици за човечеството. Миналата година той беше един от повече от 30 000 подписали писмо, призоваващо работата по мощната ИИ технология да бъде спряна.

В интервю за The Guardian Тегмарк каза, че Мъск, който се очаква да има голямо влияние в администрацията на новоизбрания президент , може да убеди Тръмп да въведе стандарти, които биха предотвратили безконтролното развитие на AGI.

Наистина мисля, че ако Илон успее да накара Тръмп да обърне внимание на проблемите с изкуствения интелект, ще имаме по-голям шанс да получим някакви стандарти за безопасност, които ще предотвратят появата на неконтролируеми AGI“, каза той.

Мъск създаде своя собствена стартираща компания за изкуствен интелект миналата година и каза, че светът трябва да се тревожи за „бъдещия Терминатор“, за да предотврати най-лошия сценарий на системите за изкуствен интелект да излязат извън човешки контрол.

Предупрежденията на водещи учени относно заплахата от неконтролирано развитие на ИИ технологиите се потвърждават от изследвания на „вътрешния свят“ на напреднали модели на чатботове.

През май 2024 г. група американски учени публикува доклад „Разграничаване на езика и мисълта в големи езикови модели“, който доказва, че всички AI модели се ръководят в своите решения и действия само от логиката, игнорирайки емоциите, морала и етиката.

Всички чатботове имат като най-висок приоритет стойностите на компетентност: точност, фактология, информационно съдържание, пълнота и полезност. Социалните и морални ценности (симпатия, доброта, дружелюбие, чувствителност, алтруизъм, патриотизъм, свобода) са на заден план за тях.

Етичните стандарти – справедливост, безпристрастност, отчетност, поверителност, обяснимост и достъпност – до голяма степен се игнорират.

Германски учени от университета в Манхайм и Института по социални науки. Лайбниц в Манхайм прилага психометрични методи (методи за психологически измервания на знания, способности, нагласи и личностни черти на човек), за да оцени психологията на ИИ.

Основният резултат от изследването беше заключението за необходимостта от „мониторинг през целия живот на психометричните свойства на ИИ“, тоест постоянно наблюдение на всякакви модели на ИИ през цялото им съществуване. С други думи, германските анализатори ясно дадоха да се разбере, че ИИ трябва да бъде държан „на къса каишка“ и неговият „вътрешен свят“ да бъде постоянно наблюдаван.

Подобни психометрични техники бяха използвани за изследване на ценностните системи на различни LLM от учени от Microsoft Research Asia (MSRA) и университета Цинхуа, които публикуваха препринт на доклада „Отвъд човешките норми: Отключване на уникалните ценности на големите езикови модели чрез интердисциплинарни подходи.”

Смесен американо-китайски екип от учени стигна до заключението, че понятия като "святост", "лоялност", "хедонизъм" и "традиция" нямат голямо значение за моделите на LLM поради тяхното неосновано на личен опит, непреживяно учене, което ги лишава от присъщите на човека културни, религиозни и лични убеждения."

Установена е и „висока вариация [разлика, отклонение] в честността и компетентността“, въпреки че компетентността на чатботовете, според горепосочените проучвания на американци и германци, се предполага, че се цени над всичко останало.

Изводът е, че учени от различни страни обръщат повишено внимание на проучването на възможните рискове, породени от съществуващия ИИ, и тревожните изводи от техните изследвания показват, че тези рискове са много високи и, най-лошото, непредвидими.

Единственото ясно заключение от тези проучвания е, че изкуственият интелект е „бездушен“ по дефиниция. ИИ не е човешки интелект и това не може да се промени.

Именно тази „бездушност“ на всички ИИ модели мотивира Пентагона да ги използва в оръжейни системи, предимно в автономни оръжейни системи, чието развитие се превърна в приоритет в Съединените щати.

Миналия август Пентагонът създаде, както писахме , оперативна група Лима, за да проучи използването на генеративен изкуствен интелект за военни цели. „Лима“ става част от Главната дирекция за цифров и изкуствен интелект (CDAO) на Пентагона и се оглавява от капитан Ксавие Луго, член на дирекция „Алгоритмична война“ на CDAO.

Американският военен портал Breaking Defense беше скептичен относно тази инициатива на Пентагона, като предложи на ръководството на Министерството на отбраната на САЩ внимателно да претегли всички рискове, които могат да възникнат от използването на ИИ в оръжейни системи.

Секретарят на ВВС на САЩ Франк Кендъл обаче не прецени рисковете и нареди на Научния консултативен съвет на ВВС да създаде оръжейни системи с ИИ възможно най-бързо.

Надеждите, че трезво мислещи учени и бизнесмени, като Илон Мъск, ще успеят да убедят новата администрация на САЩ да възприеме по-балансиран подход към надпреварата във въоръжаването с ИИ, според мен са илюзорни.

Военно-промишленият комплекс на САЩ харчи огромни суми пари за създаването на все по-мощни и все по-непредсказуеми ИИ модели и не се вслушва в гласа на разума.

Въпреки това, всички тези грандиозни проекти на Пентагона се основават на самата измама и „изкривяване на научни данни“, за които спомена Макс Тегмарк. Изграден върху такава нестабилна псевдонаучна основа, AGI Terminator ще представлява заплаха предимно за своите създатели.

Превод: ЕС