Почему ленты соцсетей «уже не те»
С чем у вас ассоциируются нейросетевые ролики? Если только с итальянским брейнротом в лице Бомбардиро Крокодило и Тралалеро Тралала или творениями Midjourney вроде «вселенной „Гарри Поттера“ в стиле Миядзаки» и «персонажей „Шрека“ в русской народной сказке», у нас плохие новости. Возможно, вы уже десятки раз попадались на дипфейки — контент, практически неотличимый от реального, но созданный при помощи искусственного интеллекта. Ситуация стала еще серьезнее после запуска Sora 2 от OpenAI — новейшей модели генерации видео, которая выдает более реалистичные и точные результаты, чем остальные нейросети.
Повестись на нейросетевую генерацию легко. Вы наверняка натыкались на запись с камер наблюдения, где кролики ночью скачут во дворе на батуте, — в тиктоке этот ролик набрал уже более 243 миллионов просмотров. Возможно, вы даже умилились и кому-то переслали эту публикацию. Вот только видео ненастоящее. И многих этот факт расстраивает: «Пожалуйста, скажите, что это реальное видео» — этот комментарий набрал 1,2 миллиона лайков.
Вот еще несколько:
— «Я не хочу верить, что это ИИ, это реально зайчики прыгают».
— «Мир жесток, это ИИ».
— «Почти повелся, но потом один из кроликов волшебным образом исчез».
— «Я чувствую себя обманутой бабушкой в интернете».
— «Уже не отличаю ИИ от реальности».
— «Если это ИИ, я перестану верить в добро».
— «Хочу, чтобы все видео с животными на батуте были правдивыми».
В начале октября в тиктоке появилось трогательное видео. «Я и мой муж», — радостно произносит девушка в метро, поворачивая камеру к сидящему рядом мужчине. Тот непонимающе смотрит в экран, а потом улыбается. Оба чуть смущаются, но в конце героиня ролика уточняет: «Ну так что, муж?» — «Меня устраивает», — соглашается незнакомец. Запись набрала более 5,2 миллиона лайков. «Этот мужчина выглядит таким довольным! Это очаровательно», — умиляются зрители. «Он утром попросил Бога послать ему жену», — говорится в комментарии, набравшем более 210 тысяч лайков.
Но позднее другие пользователи платформы стали снимать ролики, опровергающие реальность этой записи. Консультант по искусственному интеллекту Джереми Карраско объясняет, по каким признакам можно было понять, что ролик сгенерирован:
1. Видео нечеткое, «будто снято на картошку», при этом наш взгляд был обманут хорошим освещением.
2. Некоторые текстуры то появляются, то исчезают: на волосах, шапке, свитере.
3. Человек на заднем плане сидит прямо около раздвижных дверей, загораживая собой выход.
Некоторые утверждают, что сразу заподозрили подделку. «Я в ужасе от того, во что превращается наш мир: люди так редко взаимодействуют друг с другом, что не могут отличить естественные манеры и интонации человека от сгенерированных», — удивляется @anaykashe. А американская модель и инфлюэнсер Хейли Калил (@haleyybaylee) повелась. «Я сначала подумала, что это реально», — написала она в комментариях.
В другом недавнем видео, на котором более 2,4 миллиона лайков, священнослужитель надрывно кричит с трибуны: «Миллиардеры — единственное меньшинство, которого нам стоит бояться. У них есть сила, чтобы уничтожить эту страну. Им не нужна ваша защита. Им нужна подконтрольность». «Этот человек заставил меня снова поверить в Бога», — пишут в комментариях. Конечно, ролик снегерирован: «Как бы мне ни хотелось, чтобы это была реальная проповедь, к сожалению, это Sora», — отмечают пользователи платформы. Убедиться в этом легко, искать зацепки в видео не придется: в био аккаунта @guided_in_graces указано, что автор «использует ИИ, чтобы показать параллельную вселенную».
Почему сгенерированный контент так сильно нас разочаровывает?
Мы перестаем доверять — и авторам контента, и себе

«Я поверила в это видео без тени сомнения — вот настолько я бы хотела, чтобы в мире существовал вежливый кенгуру с билетиком. И только когда я увидела комментарии о том, что это ИИ, я задумалась, что вообще делать кенгуру на стойке регистрации. Конечно же, сразу после этого осознания видео перестало быть милым, а жизнь отчасти потеряла былые краски».
У Sora в конце сентября внутри платформы появилась собственная соцсеть, построенная по принципу тиктока: здесь тоже можно создавать и выкладывать видео, а также лайкать, комментировать, пересылать и ремиксить чужие. Отличие в том, что все публикации созданы при помощи нейросети. Компания Meta* в начале ноября тоже запустила платформу для роликов, сгенерированных искусственным интеллектом, та получила название Vibes. Несмотря на появление специализированных платформ, сгенерированный нейросетями контент все равно неизбежно проникает в привычные для нас соцсети. И чаще всего без пометок об этом.
«Меня уже начинает раздражать ИИ. С реалистичной графикой и засором в рекомендациях — уже не знаю, чему верить, — написала @_ksenya_da_ под одним из рилсов с обсуждением сгенерированных фото. — Хотелось бы, чтобы ввели какие-то ограничения и правила использования [нейросетей], потому что все становится неинтересным». «Я худо-бедно начал распознавать, когда передо мной ИИ, но вообще это бесит. Уже начинаешь с подозрением смотреть милые, трогательные видосы, и эмоции от этого как будто чуть скупее получаются», — делится в твиттере @lashikosa.

«Пока мы находимся в эпохе не очень качественного ИИ-контента, мы испытываем разочарование при столкновении с ним. Это происходит из-за нарушения ожиданий сразу в нескольких плоскостях.
Первое — нарушение социальной связи. Мы ищем взаимодействие с другими умами, людьми, душами, а не с алгоритмами.
Мы ощущаем себя обманутыми: искали связь с чем-то подлинным, а получили пустую социальную связь, взаимодействие с зомби-искусством. Можно сравнить это с ситуацией, когда собеседник признается нам в чем-то важном, но оказывается пьян, — мы перестаем верить его словам и чувствуем себя обманутыми.
Второе — нарушение контракта с создателем. Мы инстинктивно моделируем человеческий разум за любым произведением: его интенцию, намерение, усилия, эмоции, жизненный опыт, вложенный в создание. Нас расстраивает обман относительно природы создателя. При этом само произведение может быть качественным — ролик действительно классный, — но мы оцениваем уже не его, а то, что ожидали за ним увидеть человека, а увидели ИИ».
Технологии слишком быстро развиваются — это немного пугает
В марте 2023 года на реддите появился ролик, сгенерированный с помощью нейросети ModelScope text2video, на нем Уилл Смит поедает спагетти, и выглядит это… мягко говоря, неправдоподобно. Прошло всего два года, и сейчас отличить ИИ-ролик от реальной записи с участием актера становится проблематично. В каком-то роде запрос «Уилл Смит ест спаггети» стал образцом, по которому можно сравнивать возможности искусственного интеллекта, и развивается он с бешеной скоростью.
Раньше у нас была иллюзия контроля: мы всегда понимали, когда перед нами контент, к созданию которого причастны нейросети. Теперь это все менее очевидно.

«Я думал, что у меня уже нормально выстроены фильтры на входящую информацию. А когда повелся на сгенерированный ролик, понял, что раньше времени возгордился. Нет, расслабляться вообще никогда нельзя. Раньше вранье было только на фотографиях, а теперь кто угодно может обмануть тебя еще и в видеоформате. Я теперь иногда даже смеяться себе не разрешаю: сначала проверяю, нейронка передо мной или нет. И уже после этого решаю, можно наслаждаться этим контентом или нет. Но эта вот доля секунды в итоге убивает кайф, и смеяться уже не хочется.
Когда сын сказал, что показываю ему нейросетевой ролик, я реально расстроился. Я за компом с 1992 года. Думал, что я разбираюсь, где ложь, а где нет.
Еще я понял, что как раз примерно мое поколение — это люди, которым раньше можно было показать запись с неопознанным летающим объектом, и мы верили. Даже если она плохого качества — это же все равно видео, можно доверять. А теперь покажешь такое — скажем: „А, ну это самое простое, мужики, это вы только осваиваете нейронки“».
Ничто не уникально, все кажется однотипным
Недавно вся лента инстаграма* оказалась заполнена подозрительно похожими коллажами: три фото в белой шубе на берегу оледеневшего озера. Нет, это не было групповой экспедицией с включенной фотосессией — для создания этих снимков нужно всего лишь нажать на несколько кнопок. Но многие сначала поверили, что кадры настоящие, — пока не увидели их у всех.
ИИ-слопа становится все больше
Сгенерированные ролики — это не только дипфейки, но и низкокачественный контент без смысла и логики, который называют ИИ-слопом. В широком смысле под этим термином понимают любые публикации, по которым сразу понятно, что перед вами продукт нейросети. Снова вспомним комиксы с героями уже упомянутого итальянского брейнрота.
Что будет дальше?
В середине 2025 года один из пользователей реддита задался вопросом, как на соцсети повлияет увеличение количества сгенерированных роликов: оттолкнет ли это пользователей или, наоборот, привлечет? «Движемся ли мы к тому, что ленты будут настолько переполнены ИИ-постами, что люди начнут искать альтернативы, или это просто следующий этап развития социальных сетей?» — спросил он. Сам автор считает, что всем причастным к Meta или YouTube стоит начать волноваться: с ними может случиться то же, что и с Pinterest, — «люди просто устанут и уйдут, потому что все покажется фальшивым и однообразным».
Комментаторы признают неизбежную «нейросетификацию»: «Ожидаю, что в ближайшие два-три года будет практически невозможно найти органический контент, который не был бы каким-либо образом затронут ИИ», — пишет @stabbyclaus. Относиться к этому можно по-разному. Например, оптимистично предвкушать появление новых возможностей: «Людей, создающих плохой контент, всегда будет больше, чем создающих хороший. Так и халтуры, созданной ИИ, будет гораздо больше, чем феноменальной работы, — рассуждает @alanism. — Но эта феноменальная работа искусственного интеллекта будет лучше, чем все, что было создано до появления генеративных нейростей. Причем необязательно все должно быть сгенерированным: мы можем комбинировать ИИ с реальными записями». Автор комментария предрекает сокращение рабочих мест, но повышение качества выполненной работы: «Команда из одного-трех человек, использующая инструменты ИИ, вероятно, сделает что-то лучше, чем группа из более чем 30 профессионалов несколько лет назад».
Другие пользователи обращают внимание, что сокращение популярности соцсетей сыграет обществу на руку. «Если [распространение ИИ-роликов] — катализатор, который возродит человеческое взаимодействие, это будет забавно», — пишет @ItsAKimuraTrap. Дейтинги могут пострадать, но романтических связей меньше не станет, предполагает @SalesAficionado: «Думаю, искусственный интеллект окажет положительное влияние на знакомства. ИИ разрушит приложения для знакомств, и у людей не останется другого выбора, кроме как наконец начать общаться в реальной жизни».
Дима Соловьев считает иначе: он прогнозирует, что выверенные результаты работы нейросетей будут приносить нам радость, а общение с человеком вызовет раздражение. Ведь живой собеседник не сможет выдать саммари собственной речи и не оформит забавную презентацию, чтобы донести свою мысль. «Люди, привыкшие к ИИ, будет ощущать себя при взаимодействии с другими людьми и человеческим контентом как подросток, которого летом оторвали от любимой приставки и привезли в деревню без интернета», — уверен эксперт.

«С ИИ-контентом случится то же самое, что сейчас случилось с ГМО. Маркировка „без ГМО“ на продуктах в большинстве случаев используется как маркетинговый ход: продукты с генетически модифицированными организмами не несут вреда здоровью, их потребляет полпланеты. Так будет и с контентом: в будущем большинству потребителей перестанет быть интересно отличать ИИ от не-ИИ.
„Молекулы“ обоих видов контента настолько сильно перемешаются между собой, что отделить одно от другого будет невозможно. Это заметно уже сейчас: мы читаем пост и не понимаем, какова в его создании доля человека, а какова — нейросетей. Если исполнение качественное, нам это не важно. Важно это становится, когда контент выглядит как синтетический. Но это временное явление, потому что качество контента, созданного ИИ, будет улучшаться.
В будущем никакого нейроконтента не будет, появится просто контент, под которым подразумевается, что ИИ участвовал в его создании. Он будет оцениваться по параметрам: интересно — не интересно, качественно — не качественно, аутентично — не аутентично. Но все же фастфуд-контент будет все привлекательнее, а нам станет сложнее делать выбор в пользу другого времяпровождения. Причем за аутентичность мы будем воспринимать даже стильный ролик от синтетического инфлюэнсера, главное, чтобы он был сделан полностью в его стиле. Сейчас таких уже тысячи: это персонажи мультфильмов или игр. От Микки Мауса мы ждем шуток в его стиле, и нам не важно, что он ненастоящий, — мы считаем его аутентичным.
Как говорил Уильям Гибсон: „Большинство вещей электрические, но мы не используем для них приставку ‚электро‘ каждый раз. Электрическая составляющая естественна для нас“. Префикс „ИИ“ собирается пойти по пути „электро“. Но в маркетинговых целях мы продолжим маркировать контент, созданный людьми. Будут образовываться ниши с таким контентом: как есть категории фермерских продуктов или продуктов без глютена. Но, как и в производстве продуктов питания, для большинства это будет безразлично.
Главный вызов для платформ сейчас — не „нашествие роботов“, а гиперинфляция контента. Барьер для создания видео упадет до нуля.
Это приведет к тому, что платформы должны будут выработать еще более мощную систему фильтрации и курирования контента, в том числе спамерского.
Платформы управляют не ИИ-контентом, а пользовательским опытом. Не будет дистопического сценария с лентами, наполненными только креветочными ИИ-слопами. Но и не будет оптимистического сценария, в котором модераторы начнут понижать вовлекающий контент, становясь настоящими кураторами идентичности и давая экономическую и социальную премию только „высокому“ контенту. Тем не менее, фастфуд-контент будет всё привлекательнее, а нам станет сложнее делать выбор в пользу другого времяпровождения».
Как распознать в ленте сгенерированное видео?

«Сейчас есть два основных типа видео, созданных нейросетями, их важно различать:
- Видео, сгенерированные с нуля. Это ролики, полностью созданные искусственным интеллектом по текстовому описанию. Примеры таких нейросетей — Sora от OpenAI или Veo от Google. Вы просто пишете: „котенок играет на пианино в стиле киберпанк“ — и получаете такое видео.
- Дипфейки. В этом случае за основу берется реальное видео с реальным человеком, но его лицо или голос заменяются. Самый частый пример — липсинк, когда нейросеть заставляет человека на видео произносить текст, который он на самом деле не говорил, идеально подгоняя движения губ под новую аудиодорожку.
Распознать подделку бывает непросто, но дьявол, как всегда, в деталях.
- В дипфейках. Присмотритесь к области вокруг рта, подбородка и шеи. Иногда края „маски“ лица слегка дрожат или размываются при резких движениях головой. Зубы могут выглядеть неестественно ровными и сливаться в сплошную белую полосу или, наоборот, быть нечеткими.
- В видео, сгенерированных с нуля. Обращайте внимание на фон и мелкие детали. Часто можно заметить легкое волнообразное движение или мерцание, как будто вы смотрите на мир через струю горячего воздуха. Это особенность работы так называемых диффузионных моделей. Они создают изображение по частям и не всегда идеально сшивают их между собой. Объекты, особенно в движении, иногда странно видоизменяются или перетекают друг в друга, нарушая законы физики. Например, пальцы на руке могут на мгновение слиться, а потом разделиться или узор на рубашке может поплыть и смешаться с фоном.
- Эмоциональное несоответствие. Человек на видео произносит гневную речь, но его лицо остается почти безэмоциональным или глаза не выражают тех чувств, которые соответствуют словам. Мимика слишком деревянная или, наоборот, преувеличенная, как у плохого актера.
- Рассинхрон жестов и речи. В реальном разговоре мы интуитивно подчеркиваем важные слова жестами. В сгенерированных видео жестикуляция часто живет своей жизнью: взмахи рук не совпадают с логическими ударениями в речи — и это создает ощущение неестественности.
- Студийная чистота. Если видео снято якобы на оживленной улице, в парке или в машине, но при этом в звуковой дорожке нет никаких посторонних шумов (ветра, гула толпы, проезжающих машин), это повод насторожиться. То же самое стоит сделать, если голос звучит так, будто записан в профессиональной студии, — чисто, без эха и помех.
- Роботизированный тембр. Сгенерированная речь может иметь монотонные, безжизненные интонации, лишенные пауз и живых человеческих „э-э-э“ и „м-м-м“.
- Нечитаемые или бессмысленные надписи. Пока нейросети плохо справляются с генерацией осмысленного текста внутри видео. Надписи на вывесках, книгах, футболках или документах в кадре часто выглядят как набор искаженных символов, напоминающих буквы, но не складывающихся в слова.
- Плывущий текст. Если камера движется, обратите внимание, что все надписи должны перемещаться в кадре вместе с объектом, на котором они находятся. Сгенерированный текст часто начинает искажаться, дрожать или растворяться при движении.
- Намеренно низкое разрешение. Современные нейросети чаще всего генерируют видео в среднем качестве (например, 720p), но не в чистом 4K. В высоком разрешении любое, даже самое мелкое искажение становится хорошо заметно.
- Имитация съемки на плохую камеру. Чтобы скрыть несовершенства генерации, видео намеренно стилизуют под запись с видеорегистратора, уличной камеры наблюдения, радионяни, дверного звонка или старой VHS-кассеты. Зернистость, пикселизация, размытие и другие помехи отлично маскируют плывущие детали, неестественные текстуры и прочие ошибки нейросети. Вспомним кроликов на батуте!
- Очень короткие ролики. Большинство текущих моделей могут генерировать цельные видеофрагменты длиной не более 15–20 секунд.
- Рваный монтаж. Если вы видите ролик на минуту или две, который выглядит подозрительно, обратите внимание на монтаж: длинное сгенерированное видео, скорее всего, будет состоять из множества коротких склеенных отрезков. Кадры могут резко меняться без логической связи, а ракурс постоянно перескакивать с одного на другой. Так пытаются скрыть несостыковки, которые неизбежно возникают при генерации длинных сцен.
- Интуитивное отторжение. Иногда видео выглядит технически безупречно, но вызывает необъяснимое чувство тревоги и дискомфорта — это эффект „зловещей долины“. Он возникает, когда мы видим кого-то, очень похожего на человека, но с мелкими, едва уловимыми отклонениями в мимике, движениях или взгляде. Наш мозг подсознательно распознает „нечеловечность“ и бьет тревогу.
- Критическая оценка. Задайте себе простые вопросы: кто опубликовал это видео? какова его цель — удивить, напугать, рассмешить, убедить в чем-то? Сенсационные или чрезмерно эмоциональные ролики чаще всего оказываются фейками. Почитайте комментарии: возможно, другие пользователи уже заметили несостыковки.
Главный совет: относитесь к любому контенту в сети со здоровым скептицизмом. Умение распознавать фейки — ключевой навык в современном цифровом мире».
* Instagram принадлежит Meta, признанной в России экстремистской организацией, ее деятельность в стране запрещена.



