Google отказалась от обещания не использовать ИИ для создания оружия. Что известно
Google отменила собственное правило не использовать ИИ для оружия и слежки. Американская корпорация Google обновила политику в области искусственного интеллекта (ИИ). В 2018 году компания пообещала не использовать ИИ в потенциально вредоносных целях. В новых этических правилах Google исчез пункт, касающийся оружия и слежки, сообщило The Washington Post. Рассказываем, что известно о новой политике IT-гиганта.
Что поменялось
До недавних пор этические правила Googleв в области ИИ включали четыре пункта, которые компания отказывалась рассматривать:
- оружие;
- наблюдение;
- технологии, которые наносят или могут нанести общий вред;
- случаи, противоречащие принципам международного права и правам человека, перечислило издание.
Теперь пункты про оружие и средства наблюдения из правил исчезли.
Что сказали в Google
Глава подразделения по ИИ Демис Хассабис и старший вице-президент по технологиям и обществу Джеймс Маньика опубликовали статью в блоге Google, где объявили об обновлении принципов искусственного интеллекта.
В заявлении говорится, что конкуренция в области ИИ происходит в условиях «всё более сложного геополитического ландшафта.
Представители Google отметили, что «демократии должны лидировать в разработке ИИ, руководствуясь такими основными ценностями, как свобода, равенство и уважение прав человека».
«Мы считаем, что компании, правительства и организации, разделяющие эти ценности, должны работать вместе, чтобы создать ИИ, который защищает людей, способствует глобальному росту и поддерживает национальную безопасность», — сказали они.