Опубликовано 20 сентября 2024, 08:00
3 мин.

Нейросеть научили предсказывать преступления. Как она работает и когда появится в России

В Южной Корее создали нейросеть, предсказывающую преступления с 82%-ной вероятностью. Постепенно искусственный интеллект становится неотъемлемой частью нашей жизни. Нейросети потихоньку учатся создавать красивые картинки, музыку, записывать новые песни голосами уже покинувших нас исполнителей, помогать в написании дипломов, снимать короткие ролики, а в будущем, возможно, и целые фильмы. Еще одним шагом вперед в области развития ИИ стало предсказывание преступлений.

Что это за нейросеть и как работает

Инновационная нейросеть была создана учёными из Южнокорейского научно-исследовательского института электроники и телекоммуникаций (ETRI), об этом рассказали «Известия» со ссылкой на издание Tech Xplore.

Программа называется Dejaview и способна на основе ранних видеозаписей, набора поведенческих факторов и статистики с 82-процентной точностью спрогнозировать преступление, которое ещё не произошло. Нейросеть:

  • анализирует видеозаписи;
  • оценивает риски совершения преступлений в реальном времени;
  • прогнозирует рост уровня преступности с помощью оценки большого количества факторов;
  • изучает поведение людей в общественных местах и сравнивает его с поведением преступников;
  • различает виды проступков и нарушений закона.

Особая способность Dejaview — глубокий анализ поведения конкретного человека и контроль его действий, чтобы не допустить рецидивы с его стороны.

Когда система станет общедоступной

В планах разработчиков ИИ выпустить коммерческую версию уже в конце 2025 года.

Зачем она нужна

Нейросеть Dejaview, по задумке, должна помочь представителям закона автоматизировать их рутинные обязанности. Например, посодействовать в оперативном наблюдении за бывшими заключёнными или поднадзорными, чтобы снизить количество повторных правонарушений.

ИИ в России

В Российской Федерации нейросети уже помогают ловить преступников, ведя наблюдение в местах общего пользования. Они:

  • распознают оружие и другие потенциально опасные объекты;
  • определяют опасное поведение;
  • оценивают риски совершения преступления;
  • отправляют сообщение отвечающим за это сотрудникам.

Но наибольшую пользу оказывает так называемая мультимодальность — анализ не только видео, но и наблюдение за поведением объектов в соцсетях.

Помимо всего прочего, как отмечают специалисты, прежде, чем вводить в повсеместную работу подобные системы, следует проработать нормативно-правовую базу и обратить внимание на некоторые спорные факторы, как, например, неразглашение персональных данных. Пока в России правовой базы для ИИ нет.

Тем не менее системы распознавания лиц используются на общественных пространствах уже во многих регионах. И дальше эта тенденция будет только расти.

В чём могут возникнуть проблемы в работе Dejaview

Главные трудности ИИ могут возникнуть в местах, удалённых от цивилизации, — глухих населённых пунктах, до которых некоторые технологии ещё не добрались. Например, там отсутствуют камеры с распознаванием лиц.

Вторая проблема как раз касается раскрытия секретных данных. Материалы о преступлениях, раскрытых и нераскрытых, медиафайлы и документы по делу являются закрытой информацией. А разработчики всё же лица частные и права на получение таких знаний не имеют.

И третья сложность: кто же будет обучать эти системы и какое поведение надо считать опасным? Для установления рамок потребуется провести серьёзную юридическую работу и значительно пересмотреть законодательство.

Минусы нейросети по поимке преступников

Проблема доверия суждениям ИИ, цель которой — выявить асоциальное поведение, заключается часто в том, что она не всегда способна отличить преступника, например, от больного синдром Туретта (психическое заболевание, которому свойственны множественные двигательные и вокальные тики. — Прим. «Секрета»).

Не исключён и риск предвзятости данных для обучения. Информация о преступлениях не всегда распределена равномерно по каким-либо параметрам, поэтому есть вероятность нарушений правовых и этических норм.

И последняя, но не менее важная проблема — так называемые adversarial attacks. Когда входные данные моделей на основе ИИ могут быть искажены умышленно, дабы запутать следствие.