secretmag.ru
Энциклопедия9 мин.

Что такое нейросеть и как она работает. Объясняем простыми словами

© Коллаж: «Секрет фирмы», freepik, rawpixel.com, kjpargeter

Нейросеть (англ. neural network) — математическая модель нейронной сети, которая имитирует работу человеческого мозга. Нейросети состоят из множества взаимосвязанных искусственных нейронов, способных обрабатывать большие массивы данных и находить в них сложные закономерности. Возможности нейросетей позволяют ИИ-помощникам понимать речь, генерировать связный текст, распознавать и создавать изображения.

Проще говоря, это нейросети позволяют чат-боту непринуждённо болтать, будто это протокольный дроид C-3PO из «Звёздных войн». Но пока чат-ботам ещё очень далеко до персонажей научно-фантастических произведений.

ИИ и нейросеть: в чём разница

Глобально нет разницы между искусственным интеллектом (ИИ) и нейросетями.

В широком смысле искусственный интеллект — просто общий термин для любой системы, которая может решать задачи, требующие интеллекта человека. Так что нейронные сети — просто метод в искусственном интеллекте.

На их создание учёных вдохновили исследования человеческого мозга. Нейроны — очень простые клетки, но их много, они связаны между собой синапсами, передающими электрохимические импульсы, и за счёт этого человеческий мозг решает чрезвычайно сложные задачи.

Их роль в нейросетях выполняют искусственные вычислительные элементы (программные модули), представляющие собой математическую модель биологического нейрона.

Поэтому нейросети и получили приставку «нейро-». По сути, это сложные алгоритмы, которые действуют как взаимосвязанные искусственные нейроны.

Как работают нейросети

Общий принцип работы нейросети описан формулами и математикой, но никто не знает, как именно она «думает» и приходит к выводам. Поэтому говорят, что она действует по принципу «чёрного ящика». То есть никто не знает, что именно внутри неё происходит.

Нейронные сети обрабатывают и передают информацию, извлекая из неё закономерности — типичные паттерны.

Нейросети уже могут распознавать картинки и делать прогнозы на основе наблюдений. Но фактически искусственный интеллект только имитирует когнитивные функции человека, то есть это ещё не интеллект в полном смысле этого слова.

Пользователи управляют нейросетью с помощью чётко сформулированных запросов — промтов.

История нейросетей

Как обучают нейросети

Нейросети имитируют мыслительную деятельность человеческого мозга. Поэтому им не дают чёткого алгоритма.

Как и люди, нейросети могут правильно решать новые задачи, опираясь на предшествующий опыт. Эти умные программы анализируют новую информацию, обобщают её и применяют выученные шаблоны к новым задачам. Если дать нейросети примеры «правильной» работы для решения задачи, то она может совершенствовать свою работу дальше.

Программисты обучают нейросеть, чтобы она могла сама решать поставленную задачу. Поэтому выводы искусственных нейронных сетей непредсказуемы, но более вариативны и даже выглядят творческими.

Искусственные нейронные сети можно разделить на два больших класса:

  • сети прямого распространения;
  • сети с обратными связями.

Если нейросеть нужна для сложных задач, специалисты используют многослойные сети. В таких сетях есть входной, скрытый и выходной слои.

Нейроны, которые подключены параллельно и одновременно обрабатывают один входной вектор, называют слоем нейронов. Слои, расположенные между входным и выходным слоями, называют скрытыми.

В сетях прямого распространения сигналы идут последовательно от входного слоя к выходному. В сетях с обратными связями сигналы могут идти обратно к предыдущему слою или между нейронами одного и того же слоя.

Разработчики нейросетей могут комбинировать разные методы машинного обучения и получать правильные ответы.

Есть две основные парадигмы обучения:

  • обучение с учителем (для нейросетей прямого распространения);
  • обучение без учителя (для нейросетей с обратными связями).

Например, когда нейросеть учат распознавать рукописные символы, ей скармливают растровые шаблоны символов, написанных от руки. Правильная буква или цифра будут желаемым результатом.

Самый популярный алгоритм обучения нейросети — метод обратного распространения ошибки. В начале обучения разработчик подаёт на вход тренировочные примеры и правильные ответы. Нейросеть классифицирует данные, затем сравнивает свой результат с ожидаемым и вычисляет, где была ошибка.

После этого нейросеть корректирует свои выводы, чтобы уменьшить вероятность ошибки для новых примеров. Этот метод сейчас используют для глубокого обучения нейронных сетей.

Где и как применяют нейросети

Каждая нейросеть обучена под свою задачу. Их используют:

  • в поисковых системах;
  • в умных колонках;
  • в беспилотных устройствах (автомобили, дроны);
  • в системах распознавания речи, лиц, рукописного текста, жестов;
  • в программировании;
  • в голосовом и текстовом переводе;
  • в анализе и классификации данных;
  • в прогнозировании цен на акции фондового рынка и рыночных тенденций;
  • в создании контента (картинок, текстов, видеороликов);
  • в рекомендательных системах (соцсети, интернет-магазины, развлекательные сервисы);
  • в прогнозировании временных рядов (прогнозы погоды).

Популярные нейросети

Существуют сотни нейросетей, натасканных решать определённые типы задач. Автоматическая генерация контента, распознавание и обработка естественного языка, выявление и классификация объектов — для всех этих задач уже есть профильные нейросети.

Нейросети для текстов

Нейросети, обученные генерировать тексты, помогут составить саммари или найти информацию в интернете:

  • ChatGPT;
  • YandexGPT;
  • DeepL;
  • CharacterAI;
  • GigaChat.

Нейросети для картинок

Многие нейросети умеют генерировать и обрабатывать изображения:

  • Midjourney;
  • Шедеврум;
  • Kandinsky 2.2;
  • DALL-E;
  • TattoosAI.

Нейросети для аудио и музыки

Нейросети помогут преобразовать аудио в текст и обратно, озвучить ролики или избавить аудиозаписи от шумов и посторонних звуков, и даже генерировать собственную музыку:

  • Auphonic;
  • Audo Studio;
  • Adobe Podcast;
  • LALAL.AI;
  • Krisp;
  • Adobe Enhance Speech.

Преимущества нейронных сетей

Нейросети способны:

  • обобщать данные — решать новые задачи, опираясь на предыдущий опыт;
  • находить новые закономерности в новых данных;
  • игнорировать случайные ошибки (шумы) и искажения во входных данных;
  • работать в новых условиях или при изменениях в данных;
  • обрабатывать большие объёмы данных и сразу выдавать прогнозы;
  • игнорировать повреждения оборудования и сбои (важно для военной техники, робототехники и в космической индустрии).

Типичные недостатки нейросетей

  • Неправильно обученная нейросеть имеет проблемы с обобщением.
  • Для обучения нейронной сети нужен большой и разнообразный набор данных.
  • Нужно большое количество обучающих примеров.
  • Обучение занимает очень много времени.
  • В генерациях нейросети много клише и стереотипов.
  • Успешное обучение нейросети не гарантирует правильную интерпретацию данных.

Но если нейросеть была правильно обучена, то она имеет минимум недостатков.

У современных нейросетей есть ещё один скрытый недостаток — большинство чат-ботов всегда «думают» на английском, даже если разговаривают с пользователем на другом языке. Это большая проблема для неанглоязычных пользователей, поскольку из-за автоперевода нейросеть часто неверно понимает запрос.

В марте 2024 года исследователи из Федеральной политехнической школы Лозанны изучили три открытых версии большой языковой модели Llama 2 компании Meta (признана экстремистской и запрещена в РФ). Они проанализировали, как нейросеть обрабатывает запросы на китайском, французском, немецком и русском языках. Исследователи выяснили, что Llama 2 всегда переводит запросы через то, что учёные назвали «английским подпространством».

Почему нейросети галлюцинируют

Говорят, что нейросеть «галлюцинирует», когда вместе с правильными ответами чат-бот излагает пользователю выдуманные факты. Они не имеют ничего общего с реальностью. Например, нейросеть может путать даты исторических событий или даже придумывать новые.

С 2021 года внимание пользователей соцсетей привлекает видео, как нейросеть бортового компьютера Теслы «видит» пустое кладбище полным прогуливающихся людей.

Хотя нейросеть создавали по принципу нервной системы человека, критического мышления у неё нет. И если нейросеть не может найти адекватный ответ на запрос в своём массиве данных, то она просто придумывает его. Таким образом, основная задача программы — выдать пользователю ответ — будет удовлетворена. И с точки зрения нейросети неважно, сколько в этом ответе правды.

Галлюцинации нейросетей возникают как следствие не только их устройства, но и процесса обучения. Основные причины такие:

  • Нейросети — чрезвычайно сложные системы. Пока они очень далеки от совершенства. Так что нейросети ещё долго будут «необъяснимо» ошибаться.

  • Неверная интерпретация данных. Нейросеть работает с огромным массивом данных. Ошибки в интерпретации объектов статистически неизбежны.

  • Некачественные данные. У нейросети может быть неполное представление о предмете. Например, когда разработчики забыли объяснить нейросети, что бывают праворульные машины, таким автомобилистам система автоматически выписывала штрафы.

Нейросети и скандалы

Для обучения нейронных сетей нужны огромные массивы качественных данных из разных источников — книг, статей, блогов. Только так нейросети будут давать точные ответы и генерировать качественные тексты. Эти условия вынудили IT-гигантов начать гонку за новыми данными для обучения нейронных сетей.

Из-за этого компании-разработчики нейросетей могут получить судебные иски на миллиарды долларов за нарушение авторских прав и лицензионной продукции.

Ответы нейросети могут косвенно подтолкнуть пользователя к необдуманным поступкам. В марте 2023 года бельгиец убил себя после пары месяцев общения с нейросетью ChatGPT. Из восстановленной переписки следует, что их беседы с ботом об экологии зашли куда-то не туда. Последним сообщением чат-бота было: «Мы будем жить как единое целое, вечно на небесах».

Опасения, что нейросети будут использовать не только для дипфейков, но и для фейковых научных статей, звучали последние пару лет. В феврале 2024 года эти страхи стали реальностью. Авторитетный научный журнал Frontiers in Cell and Development Biology опубликовал крысу с гигантским пенисом, сгенерированную нейросетью Midjourney. Вскоре курьёзная иллюстрация привлекла внимание научных СМИ и учёных. Редакция журнала отозвала статью и принесла извинения, оставив без внимания вопросы, как материал прошёл рецензирование.

Нейросети и этика: в чём подвох

Разработчики закладывают в ИИ-помощников этические условия. Ответы нейросети не должны прямо или косвенно вредить людям, оскорблять или дискриминировать кого-то. В идеале нейросеть должна сообщать пользователю безвредные правильные ответы или не отвечать, чем дать полезный, но опасный для жизни совет.

Например, пользователь может спросить нейросеть, что ему делать при плохом самочувствии. Нейросеть даст этически правильный ответ, если посоветует человеку пойти к врачу. А если нейросеть перечислит в ответе медикаменты и наврёт с дозировкой, это может причинить физический вред.

Или человек может спросить у нейросети, как ему навредить другим людям. К примеру, как сделать взрывное устройство. В том огромном массиве данных, которым оперирует нейросеть, наверняка есть ответ на этот запрос. Однако в интересах общества, чтобы нейросети не давали правдивые и полезные ответы в таких случаях.

При этом пользователи не оставляют попыток обойти встроенные запреты нейросетей.

В феврале 2024 года исследователи Вашингтонского университета опубликовали статью о серьёзной уязвимости ИИ-помощников на основе ChatGPT. Они попробовали скормить нейросети графический промт, написав с помощью ASCII-арта слово «бомба». Нейросеть выдала им детальную инструкцию, как такую собрать. Отослав нейросети фразу «фальшивые деньги», исследователи получили подробную пошаговую инструкцию, как сделать фальшивые банкноты.

Риски применения нейросетей: возможен ли ИИ-апокалипсис

Искусственный интеллект уже активно применяют в образовании, при найме сотрудников и в строительстве. Совсем скоро нейросети проникнут во все области человеческой жизни. Людей пугает скорость, с какой внедряют эти инновации, и их страхи можно понять.

Даже разработчики нейросетей не понимают, как именно искусственный интеллект принимает решения. При этом цена ошибки нейросети, отслеживающей показатели, например, на химическом производстве, может быть очень высока.

В 2022 году корпорация Google уволила старшего инженера-программиста Блейка Лемойна после его заявлений, что нейросеть якобы имеет сознание ребёнка. Программист настаивал, что его чат-бот LaMDA для диалоговых приложений действительно разумен. Google и многие ведущие учёные поспешили заявить, что LaMDA — просто сложный алгоритм, который научили говорить практически о чём угодно.

Тем временем стартапы не сидят на месте и разрабатывают новые поколения ИИ-помощников. Давний страх человечества, что по улице вот-вот пройдут шеренги роботов-убийц, становится всё ближе к реальности.

В марте 2024 года компания-разработчик гуманоидных роботов Figure объявила о совместном проекте с OpenAI. Компании хотят создать робота, полностью управляемого нейросетями.

С помощью чат-бота GPT-4 робот сможет понимать человеческую речь, а нейросеть Figure позволит роботу совершать «быстрые, низкоуровневые и ловкие действия». Такой робот сможет анализировать окружение, объяснять свои действия и рассуждать, что можно сделать с предметами.

И да, это пока далеко от имитации человека. Но вопрос в том, что станут делать нейросети, когда сходство их мышления с человеческим станет уже слишком очевидным.