Бабка обрушила стеклянный мост: как ИИ-фейк взорвал соцсети

В середине июля 2025 года соцсети захлестнуло видео, где пожилая женщина якобы разбивает стеклянный мост камнем. В ролике стеклянные панели трескаются, мост рушится, а вместе с ним падают вниз и случайные прохожие. Миллионы зрителей решили, что стали свидетелями настоящей катастрофы. Но правда оказалась совсем другой.

Как появился вирусный ролик

Видео впервые опубликовал блогер в TikTok под ником Charmbusters. Уже через несколько дней его посмотрели от 1,8 до 100 миллионов пользователей в разных соцсетях. Алгоритмы Reels и Shorts подхватили ролик благодаря шквалу комментариев, репостов и пересмотров — и «бабка со стеклянным мостом» моментально стала мемом.

Почему все поверили

Сюжет выглядел убедительно по нескольким причинам:

  • Реализм ситуации. Стеклянные мосты действительно существуют, в том числе в Китае, и время от времени в СМИ пишут о трещинах и проблемах безопасности.
  • Простота и универсальность. В видео нет слов, только картинка, понятная в любой стране.
  • Эмоции. Шок, смех и страх одновременно — идеальный набор для вирусного контента.

Многие пользователи делились роликом даже не из-за веры в его реальность, а потому что он выглядел «слишком абсурдно, чтобы молчать».

Проверка фактов

Фактчекинг не заставил себя ждать. Агентство AFP, а также независимые медиаресурсы проанализировали запись и нашли явные признаки генерации:

  • нереалистичная анимация и «мыльные» движения;
  • исчезающие и смещающиеся фигуры людей;
  • баги трансформации объектов.

На деле знаменитый стеклянный мост в Чжанцзяцзе (Китай) продолжает функционировать, и никаких происшествий с его обрушением не зафиксировано.

Почему ролик стал вирусным

История «бабка обрушила мост» идеально сработала на массовую аудиторию:

  • сочетание абсурда и правдоподобия;
  • мемный образ бабушки, который легко встроился в интернет-культуру;
  • низкий порог критического восприятия — людям проще переслать «прикол», чем проверять факты.

Таким образом, мы имеем пример того, как ИИ-сгенерированные видео могут становиться глобальными инфоповодами, даже если в них нет ни капли правды.

На сайте Progressive.com.kz мы также объяснили фейк о том, что косатка убила дрессировщицу.

Али Туркменов
10