/Поглед.инфо/ Европейската комисия предложи регламенти относно използването на изкуствен интелект (ИИ) чрез рамка за правила, основана на риска, която изисква високи глоби, частични забрани за наблюдение и предпазни мерки за високорискови приложения.

Компаниите, които нарушават разпоредбите, забраняващи използването на „неприемлив“ изкуствен интелект или неспазването на редица „строги задължения“, могат да бъдат изправени пред глоби до 6% от световния си оборот, или 30 милиона евро (в зависимост от това кое е по-високо) съгласно проекта за правила, обявен от Брюксел в сряда.

„Изкуственият интелект е средство, а не цел", заяви каза комисарят по вътрешния пазар Тиери Бретон.

Той съществува от десетилетия, но достигна нови възможности, подхранвани от изчислителната мощност", заяви той.

"Това предлага огромен потенциал в области, различни като здравеопазване, транспорт, енергетика, селско стопанство, туризъм или киберсигурност. Това също представлява редица рискове", смята комисарят.

Бретон каза, че предложенията са насочени към укрепване на позицията на Европа като „глобален център за опит в изкуствения интелект от лабораторията до пазара“, както и гарантиране, че изкуственият интелект в Европа „зачита нашите ценности и правила“.

Сега комисията трябва да уточни подробностите със страните-членки на Европейския съюз и Европейския парламент, преди правилата да влязат в сила. Този процес може да отнеме години.

В своето предложение Европейският съюз очертава това, което той определя като „ориентиран към човека“ подход, който едновременно използва обещанието на технологията, но също така я предпазва от нарушаване на строгите закони за поверителност.

Освен това той я държи „надеждна“. Технологиите се класират според възможността за вредно въздействие - от пълни забрани до ограничени и минимални рискове.

Според новите предложения приложенията за изкуствен интелект, които позволяват на правителствата да извършват „социално оценяване“ или експлоатират деца, се считат за „неприемлив риск“.

Приложенията, използвани при набиране на персонал, критична инфраструктура, кредитно оценяване, миграция и правоприлагане, попадат в категорията „високорискови“ и ще бъдат обект на строги предпазни мерки.

Всички системи за дистанционна биометрична идентификация също се считат за високорискови, с изключения за „строго необходими“ случаи като търсене на изчезнали деца и предотвратяване на „специфични и непосредствени терористични“ заплахи.

Използването на тези приложения за масово наблюдение ще трябва да бъде разрешено от съд или независим надзорен орган и ограничено до конкретни часове и пространства.

Категорията „ограничен риск“ изисква специфични задължения за прозрачност. Потребителите, които взаимодействат с „чат ботове“, например, трябва да бъдат информирани - но огромното мнозинство от системи с изкуствен интелект, като филтри за спам и изкуственият интелект за видеоигри, ще попаднат в категорията „минимален риск“, която не се урежда от новите правила.

Предложението също така призовава за създаване на Европейски съвет за изкуствен интелект, който да улесни прилагането на правилата и разработването на стандарти за изкуствен интелект.

Активистката група Европейски дигитални права (EDRI) приветства предложението, но предупреди, че то не стига достатъчно далеч.

Въпреки че е "положително", че Комисията признава, че някои употреби на изкуствен интелект са неприемливи, проектозаконът "не забранява пълния обхват" на неприемливи употреби ", по-специално всички форми на биометрично масово наблюдение", казва Сара Чандър, експерт по политиката на изкуствения интелект към групата Европейски дигитални права.

„Регламентът позволява твърде широк обхват за саморегулиране от компании, печелещи от изкуствения интелект", каза още тя.

"Хората, а не компаниите трябва да бъдат основа на този регламент “, добави Чандър.

Превод: СМ