Нейросеть научили предсказывать преступления. Как она работает и когда появится в России
В Южной Корее создали нейросеть, предсказывающую преступления с 82%-ной вероятностью. Постепенно искусственный интеллект становится неотъемлемой частью нашей жизни. Нейросети потихоньку учатся создавать красивые картинки, музыку, записывать новые песни голосами уже покинувших нас исполнителей, помогать в написании дипломов, снимать короткие ролики, а в будущем, возможно, и целые фильмы. Еще одним шагом вперед в области развития ИИ стало предсказывание преступлений.
Что это за нейросеть и как работает
Инновационная нейросеть была создана учёными из Южнокорейского научно-исследовательского института электроники и телекоммуникаций (ETRI), об этом рассказали «Известия» со ссылкой на издание Tech Xplore.
Программа называется Dejaview и способна на основе ранних видеозаписей, набора поведенческих факторов и статистики с 82-процентной точностью спрогнозировать преступление, которое ещё не произошло. Нейросеть:
- анализирует видеозаписи;
- оценивает риски совершения преступлений в реальном времени;
- прогнозирует рост уровня преступности с помощью оценки большого количества факторов;
- изучает поведение людей в общественных местах и сравнивает его с поведением преступников;
- различает виды проступков и нарушений закона.
Особая способность Dejaview — глубокий анализ поведения конкретного человека и контроль его действий, чтобы не допустить рецидивы с его стороны.
Когда система станет общедоступной
В планах разработчиков ИИ выпустить коммерческую версию уже в конце 2025 года.
Зачем она нужна
Нейросеть Dejaview, по задумке, должна помочь представителям закона автоматизировать их рутинные обязанности. Например, посодействовать в оперативном наблюдении за бывшими заключёнными или поднадзорными, чтобы снизить количество повторных правонарушений.
ИИ в России
В Российской Федерации нейросети уже помогают ловить преступников, ведя наблюдение в местах общего пользования. Они:
- распознают оружие и другие потенциально опасные объекты;
- определяют опасное поведение;
- оценивают риски совершения преступления;
- отправляют сообщение отвечающим за это сотрудникам.
Но наибольшую пользу оказывает так называемая мультимодальность — анализ не только видео, но и наблюдение за поведением объектов в соцсетях.
Помимо всего прочего, как отмечают специалисты, прежде, чем вводить в повсеместную работу подобные системы, следует проработать нормативно-правовую базу и обратить внимание на некоторые спорные факторы, как, например, неразглашение персональных данных. Пока в России правовой базы для ИИ нет.
Тем не менее системы распознавания лиц используются на общественных пространствах уже во многих регионах. И дальше эта тенденция будет только расти.
В чём могут возникнуть проблемы в работе Dejaview
Главные трудности ИИ могут возникнуть в местах, удалённых от цивилизации, — глухих населённых пунктах, до которых некоторые технологии ещё не добрались. Например, там отсутствуют камеры с распознаванием лиц.
Вторая проблема как раз касается раскрытия секретных данных. Материалы о преступлениях, раскрытых и нераскрытых, медиафайлы и документы по делу являются закрытой информацией. А разработчики всё же лица частные и права на получение таких знаний не имеют.
И третья сложность: кто же будет обучать эти системы и какое поведение надо считать опасным? Для установления рамок потребуется провести серьёзную юридическую работу и значительно пересмотреть законодательство.
Минусы нейросети по поимке преступников
Проблема доверия суждениям ИИ, цель которой — выявить асоциальное поведение, заключается часто в том, что она не всегда способна отличить преступника, например, от больного синдром Туретта (психическое заболевание, которому свойственны множественные двигательные и вокальные тики. — Прим. «Секрета»).
Не исключён и риск предвзятости данных для обучения. Информация о преступлениях не всегда распределена равномерно по каким-либо параметрам, поэтому есть вероятность нарушений правовых и этических норм.
И последняя, но не менее важная проблема — так называемые adversarial attacks. Когда входные данные моделей на основе ИИ могут быть искажены умышленно, дабы запутать следствие.