ПРЯМОЙ ЭФИР
ПРОГРАММА ПЕРЕДАЧ
Фото: Chat GPT

Технологии

Опасная эволюция дезинформации — палестинцы тестируют новую технологию оболванивания

По мнению экспертов, это только начало.

Палестинская пропаганда и дезинформация с развитием технологий выходит на новый уровень. Эксперты фиксируют новое явление, которое, судя по всему, скоро станет повсеместным.

В последние месяцы в соцсетях пошла волна организованных кампаний, связанных с пропалестинскими группами. Они создают фейковые аккаунты знаменитостей и раскручивают их какое-то время, чтобы вызвать доверие подписчиков, а затем начинают прибегать к технологиям дипфейка для распространения политических сообщений, создавая впечатление, будто бы звезды спорта и музыки, а также известные блогеры поддерживают палестинцев.

Об этом сообщает новостная служба 12 телеканала со ссылкой на израильскую компанию Vetric, которая анализирует публичные данные и выявляет фейковые аккаунты и подозрительные цифровые операции.

По оценкам исследователей, речь идет о качественном скачке по сравнению с прежними кампаниями, когда использовались примитивные анонимные боты. Сейчас создается целая система, построенная на украденных брендах и образах популярных фигур.

Аккаунты, выдающие себя за знаменитостей, поддерживают активность, похожую на настоящую: публикуют спортивные и концертные фото, видеоролики, закулисные моменты. Многие из таких профилей имеют "синюю галочку" (что профиль верифицирован), усиливающую ощущение подлинности.

Создатели фейковых аккаунтов знаменитостей не начинают сразу с политической агитации. Сначала они взращивают аккаунт — захватывают уже существующий или создают новый, накапливают подписчиков и публикуют там привычный для "звезды" контент.

Лишь после того как доверие пользователей сформировано, в публикациях начинают появляться политические сообщения, визуально вписанные в ежедневную ленту публикаций

Так, десятки поддельных страниц футболистов различных европейских клубов одновременно опубликовали хештег #winGaza после объявления о прекращении огня, создавая ложное впечатление мирового консенсуса.

Почему это так эффективно

В основе механизма убеждения лежит эмоциональная связь между поклонником и его кумиром. Если сам популярный спортсмен или артист, как кажется пользователю, выражает подобное мнение, критическое восприятие снижается почти до нуля.

Убежденность в подлинности источника делает ложные сообщения более убедительными и способствует их быстрому распространению.

По словам экспертов Vetric, после запуска фейка далее ключевую роль начинают играть обычные пользователи. Обратив внимание на подобный контент, они начинают сами делиться им или создавать похожие страницы, не понимая, что распространяют дезинформацию. Так спланированная акция превращается в "народную" волну, в которой уже сложно определить первоисточник.

Новое оружие пропалестинских активистов — нейросети 

Современные генеративные ИИ-технологии открывают новые возможности. То, что раньше требовало студийного производства, теперь можно создать на обычном компьютере: реалистичные дипфейки с точной мимикой и синхронизацией речи.

Исследователи выявили ролики, где американский актер, боксер и видеоблогер Джейк Пол "говорит" на арабском и озвучивает религиозные лозунги — хотя на самом деле он, разумеется, не владеет языком. Более того, он галахический еврей и соблюдает иудейские традиции.

Настоящий Джейк Пол:


Фейковый Джейк Пол:


Технология позволяет производить не только качественные, но и массовые подделки: десятки вариаций одного и того же "поддерживающего заявление" видео для разных платформ, создавая эффект повсюду присутствующей поддержки.

По данным Vetric, значительная часть инфраструктуры связана с Египтом, где работают команды, создающие и контролирующие эти кампании. Есть и другие центры активности в странах Европы. Операторы координируют работу через множество аккаунтов, создавая иллюзию широкой международной поддержки.

По словам исследователей, мы наблюдаем "квантовый скачок" в методах дезинформации. Идеологическая мотивация, организованность и доступность мощных ИИ-инструментов создают эффективную машину по манипуляции общественным мнением. Опасность заключается не только в самом ложном контенте, но и в том, что миллионы людей начинают искренне распространять эти материалы.

Эксперты считают, что нынешние операции — лишь пилотная версия. В ближайшее время подобные методы могут стать массовым инструментом информационного воздействия, с которым будет все сложнее бороться.

Материалы по теме

Комментарии

комментарии

последние новости

популярное за неделю

Блоги

Публицистика

Интервью

x