В ЕС решили ограничить использование искусственного интеллекта
Еврокомиссия разделила виды искусственного интеллекта на четыре группы по степени опасности. Регулятор хочет ограничить использование ИИ в сферах, где он может угрожать обществу.
Системы ИИ с «неприемлемым риском», которые считаются явной угрозой безопасности людям, источникам их доходов и их правам, полностью запретят. Речь, в частности, идёт о приложениях, которые манипулируют поведением человека, чтобы обойти его волю: есть, например, игрушки, поощряющие опасное поведение несовершеннолетних.
В эту группу также входят системы, которые позволяют властям составлять шкалу оценки граждан по различным параметрам. Такая есть в Китае. Местная система социального рейтинга отслеживает законопослушность, честность, потребительское поведение и другие стороны жизни гражданина.
К «высокорисковым» способам использования ИИ европейский регулятор отнёс:
-
транспорт и другую критическую инфраструктуру;
-
применение ИИ в роботизированной хирургии;
-
кредитный скоринг;
-
оценку надёжности доказательств в суде;
-
проверку подлинности проездных документов;
-
оценку экзаменов.
Еврокомиссия предложила перед допуском на рынок систем ИИ с высоким риском тщательно проверять их на соответствие требованиям безопасности, надёжности, качества данных и т. д.
К системе ИИ с «ограниченным риском» отнесли чат-боты. По мнению регулятора, в случае с ними пользователей необходимо предупреждать, что взаимодействие происходит именно с ИИ, и тогда у людей будет возможность принимать осознанные решения.
В группу систем ИИ с «минимальным риском» попали видеоигры и спам-фильтры. В Еврокомиссии посчитали, что здесь технологии ИИ не несут никаких рисков для прав и безопасности граждан.
Фото: Pixabay, Pixabay License
Роботы, беспилотники и полёты в космос — в разделе «Технологии».