secretmag.ru
Опубликовано 21 января 2022, 13:57
2 мин.

В России потребовали исключить дискриминацию людей искусственным интеллектом

Совет Федерации поручил Минцифры, Минздраву и Минэкономразвития разработать меры, исключающие дискриминацию человека при использовании искусственного интеллекта (ИИ). Об этом говорится в протоколе решений, которые принял совет по развитию цифровой экономики верхней палаты парламента, узнал «Коммерсант». По планам дорожная карта должна появиться до конца 2022 года.

В России потребовали исключить дискриминацию людей искусственным интеллектом

Речь в первую очередь пойдёт о предотвращении дискриминации по полу, возрасту, личным взглядам или по этническим признакам.

Ожидается, что в дорожную карту войдут инициативы по обеспечению прозрачности работы ИИ и порядок обжалования решений, принятых искусственных интеллектом. Предлагается также уведомлять граждан о том, что они взаимодействуют с ботом, при решении «жизненно важных вопросов», в том числе при получении госуслуг.

Участники рынка называют инициативу преждевременной. «На данном уровне развития технологий не стоит говорить, что права людей подвергаются опасности при использовании ИИ. Он не принимает решений за человека, тем более в важных ситуациях», — заявили «Коммерсанту» в Ассоциации больших данных.

В организации напомнили, что отрасль регулируется кодексом этики, а дополнительное ограничение только затормозит развитие новых технологий.

Ранее «Секрет» сообщал, что в России в 2021 году приняли нормативный документ, который станет руководством для разработчиков систем искусственного интеллекта (ИИ) — Кодекс этики искусственного интеллекта (КЭСИИ). Документ подписали на Первом международном форуме «Этика искусственного интеллекта: начало доверия». Свои подписи под сводом этических норм, образующих систему нравственных правил при работе с ИИ, подписали первые двадцать компаний — лидеров в области ИИ, в том числе «Яндекс», «Сбер», МТС, «Ростелеком», Высшая школа экономики, «Росатом» и «Сколково».

Согласно одной из рекомендаций, если разработчик видит риск того, что деятельность искусственного интеллекта «может привести к морально неприемлемым для человека и общества последствиям», то он должен принять меры.

Фото: Pixabay, Pixabay License