Опубликовано 22 августа 2025, 08:02
7 мин.

Кто такие слопперы и как не стать одним из этих «ИИдиотов». Объясняют эксперты

Эксперты: без развития мышления люди обречены на зависимость от советов нейросетей. Кажется, будущее наступило: нейросети готовы дать нам ответ на любой вопрос. Правда, вся их нейросетевая мудрость и доступ ко всему интернету разом не гарантируют, что этот ответ будет правильным. Излишне полагающихся на новых ИИ-гуру называют слопперами, и если вас так назвали, впору обидеться или задуматься, ведь ничего хорошего в этом нет. Как вера в сгенерированный контент может стоить вам нервов, денег и здоровья и как не пополнить ряды доверчивых ИИдиотов, «Секрету» объяснили эксперты.

Кто такие слопперы и как не стать одним из этих «ИИдиотов». Объясняют эксперты

© Создано при помощи нейросети

Первые шаги ИИ в генерировании текстов и изображений напоминали поделки ребёнка в детском саду — пользователи умилялись его наивным попыткам подсчитать пальцы и вычурным сочетаниям слов.

По мере развития нейросетей их работа становилась всё качественнее. И в 2025 году человечество уже дошло до стадии, когда для того, чтобы различить сгенерированный контент, приходится прибегать к другим нейросетям.

Зачастую отличить сгенерированное видео от обычного можно только по элементам абсурда, которые добавляют авторы специально. Например, если кот начинает танцевать, младенец петь басом, а собака показывает «козу» внезапно появившимися на лапе человеческими пальцами.

Но стоит нейросети сделать видео или текст хоть немного серьёзным, правдоподобным или даже наукообразным, и критическое мышление пользователей начинает таять, как масло на солнце.

В англоязычном интернете за низкокачественным контентом, сгенерированным моделями вроде Midjourney и ChatGPT, закрепилось слово slop — «помои», «баланда», «мусорный контент». Соцсети испытывают настоящий наплыв аккаунтов, до 90% которых состоит из наскоро сгенерированных нейросетевых видео, фейковых новостей и ценных советов от нейросеток на все случаи жизни: от здоровья до выбора партнёра.

Тех, кто такое производит, и особенно тех, кто бездумно это потребляет, окрестили слопперами (slopper от смеси понятий sloppy — «небрежный» и helper — «помощник»). Так говорят про людей, которые «спрашивают ИИ обо всем» и пускают его в ситуации, где разумнее включить собственную голову.

Термин «slopper» выстрелил летом 2025-го после вирусного видео TikTok-пользователя intrnetbf про людей, «которые консультируются с чатботом даже на свидании».

Слоппер — человек, который использует ИИ для решения любых задач и некритично относится к его советам. По-русски иногда также называют таких ИИдиотами.

Хотя, конечно, проблема некритичного отношения к ИИ-контенту существовала гораздо раньше. Но сейчас речь не просто о некритичном отношении. Речь идёт о строительстве нового мира, культуры, где убедительность важнее фактов, а люди своими руками отдают сознательный выбор на откуп правдоподобной симуляции мышления, лишь бы не брать на себя ответственности за решения, предупреждают эксперты.

Как слопперы сталкиваются с реальной жизнью

Пожалуй, один из самых обидных моментов: когда, доверившись ИИ-советам и не перепроверив их, люди принимают решения, оборачивающиеся потерей денег и времени. Например, в случае если речь идёт о правильном оформлении документов. Нейросети плохо справляются с юридическими нюансами разных юрисдикций, могут ориентироваться на устаревшую информацию и даже не предупредить о недостоверности своих источников.

В 2025 году произошло как минимум два таких случая:

  • Австралийского писателя Марка Полларда в марте не пустили в страну из-за совета ChatGPT. Он застрял в аэропорту, потому что перед поездкой спросил у нейросети, нужна ли ему виза для посещения Чили. Та ответила отрицательно, но вот у пограничников были другие инструкции. Писатель так расстроился, что спросил у чат-бота, можно ли подать на него в суд за неправильный ответ, но тот огорчил его повторно: не получится.
  • В августе на те же грабли наступила пара блогеров из Испании: нейросеть сказала им, что для визита в Пуэрто-Рико гражданам её страны не нужна виза. И скромно умолчала, что вместо этого с путешественника требуется электронный пропуск ESTA, который надо оформлять заранее — в аэропорту этого не сделать.
Дмитрий Махлин
партнёр и директор по развитию HRlink

Однажды я попросил ChatGPT составить мне маршрут для прогулки по Выборгу. Чат включил в него места, которых не существует не только в городе, но на всей планете Земля. Так что проверять результаты работы ИИ нужно всегда.


Что нас заставляет верить ИИ

Эксперты выделили несколько причин, по которым обычный пользователь за считаные дни общения с нейросетью может стать заядлым слоппером. Одни из них связаны с человеческой природой, но другие — непосредственно с особенностями новой для людей технологии.

Кто такие слопперы и как не стать одним из этих «ИИдиотов». Объясняют эксперты

© Создано при помощи нейросети

Незнание предмета

Нейросети представляются этакой палочкой-выручалочкой для тех, кому некогда вдумчиво гуглить и изучать вопрос, оценивая авторитетность источников. Они на любой запрос способны дать исчерпывающий (казалось бы) ответ.

И если пользователь не имеет о предмете ни малейшего представления, он вполне этим удовлетворится. Просто потому что не знает, где именно здесь может таиться неточность.

Дмитрий Махлин

Мы изначально настроены получить квалифицированный ответ на вопрос, в котором у нас самих нет экспертизы. Если ты сам не разбираешься в вопросе, то внушить можно всё что угодно.


Уверенный тон

В чём нейросети действительно поднаторели, так это в том, чтобы нести чушь с крайне уверенным видом. Информация подаётся структурированно, наукообразно, аргументированно, с разными примерами — и этим усыпляется бдительность.

Дмитрий Махлин

Есть эффект уверенного тона ChatGPT и его аналогов: они связно и грамотно формулируют текст, а наш мозг устроен так, что уверенность равна авторитету, хотя это далеко не всегда так.

Кроме того, существует «эффект зеркала», когда модель начинает использовать в ответах наши слова, подражать нашему стилю. Это подсознательно также заставляет воспринимать её  в роли доверенного собеседника-эксперта по теме.


Отсутствие критического мышления

Будем честны, умение работать с информацией — это навык, а критическое мышление — навык сложный, требующий развитой логики, скепсиса, привычки задавать правильные вопросы и не удовлетворяться ответами быстрого приготовления.

Можно сто раз сказать, что это полезно и нужно, но, если люди не хотят развивать эти навыки или не могут в силу особенностей характера и мышления, истории с излишней доверчивостью обречены повторяться снова и снова. С ИИ и без него.

Виктор Сизов
IT-эксперт, сооснователь versta.io

Слепое доверие — явление не новое. Люди доверяют телевизору, ссылкам в интернете, мнению «экспертов». Теперь настала очередь ИИ.

Причина проста: во-первых, критическое мышление не всем свойственно, во-вторых, уметь анализировать — это определенный труд, а получить быстрый ответ на свой вопрос удобнее и к тому же значительно упрощает жизнь, особенно в сегодняшнем бесконечном потоке информации.


Эксперт по ИИ Александр Лебедев добавил, что в плане человеческой природы верно и обратное. Параноики ИИ доверять не будут, впрочем, как и людям.

Кристина Коваленко
гендиректор Fork-Tech

Я вижу здесь две крайности: одни полностью доверяют ответам ИИ, другие — не доверяют им вовсе. Это скорее вопрос личного восприятия и особенностей характера, чем самой технологии.


Непонимание сути нейросетей

Помните анекдот про «среднюю температуру по больнице»? А про динозавра, шансы встретить которого на улицах всегда равны 50%? Или про сломанные часы, дважды в день показывающие правильное время?

Корректность ответов нейросетей в большинстве случаев будет выше 50%. Однако надо понимать, что они обучаются на данных, которые им предоставляют люди, в том числе за счёт поиска в интернете. А это значит, что наряду с выверенными и точными данными в его базу вполне могут попасть откровенно бредовые.

И это ещё полбеды, другая беда — это так называемое «галлюцинирование» нейросетей.

Александр Лебедев
старший разработчик систем искусственного интеллекта Innostage

Во многом роль играет непонимание того, как работает ИИ. Для большинства людей это магия или научная фантастика, воплотившаяся в реальной жизни. Маркетинг и продвижение ИИ говорят о его достоинствах, но забывают сказать о промахах.

Те же, кто имеет представление о том, как работает технология, знают о её минусах и недостатках. Например, о склонности к галлюцинациям при недостатке данных.


Часто нейросети не знают правильного ответа, но не могут признаться в этом (что частично решено, например, в пятой ChatGPT, но только частично). И выдают правдоподобную наукообразную чушь, достраивая пробелы своих знаний с помощью машинной логики и той самой «средней температуры» по источникам.

Как не стать «слоппером»

Сейчас мы смеёмся над людьми, которые доверяются советам нейросетей, потому что для человечества эта игрушка относительно новая и есть ощущение «хайпа». Но очень маловероятно, что этот хайп так же быстро пройдёт, как мода на какую-нибудь игрушку типа спиннера. ИИ и нейросети — это будущее человечества, и поколение альфа уже растёт с полным принятием этой части жизни.

Возможно, когда-нибудь ИИ разовьётся настолько, что проблема некорректных советов станет неактуальной. Но до тех пор очень важно не расслабляться и чётко осознавать и границы его возможностей, и необходимость продолжать мыслить самостоятельно, указали эксперты.

Кристина Коваленко

Чтобы не становиться «слоппером», важно сохранять критический взгляд. Здесь работает всё то же самое, что и в жизни: эрудиция, образование, насмотренность. Чем шире твой кругозор, тем легче замечать неточности и отделять ценные идеи от ошибок. По сути, совет простой — учиться и развиваться. Тогда ИИ остаётся инструментом, а не заменой собственного мышления.


Дмитрий Махлин поделился несколькими лайфхаками, которые помогут сохранить критическое мышление при активном общении с «всезнающими» нейросетями.

  • Сначала думайте сами, а только потом задавайте вопрос нейросети. Так можно успеть сформулировать собственную позицию, а потом произвести проверку.
  • Всегда просите показать источник — откуда ИИ взял эту информацию. Пусть проведет фактчек-анализ. Оцените актуальность источников — старые могут быть нерелевантны.
  • Поймать ИИ на «выдумывании» помогает проверка логики ответа, но тут как раз возможны осечки — логику, даже неправильную, нейросети выстраивают мастерски.
Дмитрий Махлин

И главное: при использовании ИИ я бы рекомендовал всегда исходить из того, что его ответы — ложь. Существует презумпция невиновности, а это презумпция лжи. Всегда считайте, что нейросеть сказала вам нечто, что требует обязательной перепроверки.


Александр Лебедев подсказал, что немного снизить риски получить некачественный ответ поможет улучшение навыка промптинга — формулирования заданий для нейросети с учётом всех тонкостей и машинной логики. Он посоветовал следующее:

  • Давать ИИ больше контекста, это прививка от галлюцинаций.
  • Качественнее формулировать промт, прописывая в нём напрямую, чтобы не придумывал факты и проверял их подлинность (если у него есть доступ к поиску в интернете).
  • Выбирать более сильные, современные и защищённые от галлюцинаций модели.
Александр Лебедев

Обычные люди с качеством ответов ИИ сейчас мало что могут сделать. Это проблема разработчиков. Так что остаётся базовый навык факт-чекинга и поиска первоисточников информации. Людям с этим навыком добывать информацию сложнее, но зато они могут быть уверены в ней гораздо больше.


Вместо выводов

Привычка спрашивать совета у нейросетей в любых обстоятельствах формируется очень быстро по мере того, как человек начинает осваивать их и понимает принцип их использования. В целом это не так уж ужасно — пока это просто развлечение.

Проблемой эта привычка становится, когда человек начинает массово делегировать ИИ свои решения, не задумываясь, как это влияет на его самостоятельность и когнитивные функции. И дело даже не в том, что нейросети всегда врут и предлагают плохие советы — часто даже хорошие. А в том, что люди перестают задавать важные вопросы самим себе.

Виктор Сизов

Использовать ИИ нужно. По сути, применение этой технологии становится таким же важным, как когда-то появление электричества.

Но у каждой технологии есть особенности и важно уметь разбираться в них, пропуская информацию через свой опыт, знания, критическое мышление и анализ.

В целом же с наступлением «эры ИИ» те, кто обладает достаточным уровнем образования и кругозором, усилят свои знания при помощи ИИ. Остальным же нужно стремиться повышать уровень знаний. Иначе они так и будут делать неверные действия на основе «плохих советов».