Выберите язык

Russian

Down Icon

Выберите страну

Germany

Down Icon

Пророссийская дезинформационная кампания использует бесплатные инструменты ИИ для стимулирования «взрыва контента»

Пророссийская дезинформационная кампания использует бесплатные инструменты ИИ для стимулирования «взрыва контента»
Инструменты искусственного интеллекта потребительского уровня усилили дезинформацию, распространяемую Россией, за счет распространения изображений, видео, QR-кодов и поддельных веб-сайтов.
Фотоиллюстрация: сотрудники WIRED; Getty Images

Согласно новому исследованию, опубликованному на прошлой неделе , пророссийская кампания по дезинформации использует потребительские инструменты искусственного интеллекта для подпитки «взрыва контента», направленного на обострение существующей напряженности вокруг мировых выборов, Украины и иммиграции, а также других спорных вопросов.

Кампания, известная под многими названиями, включая Operation Overload и Matryoshka (другие исследователи также связывают ее со Storm-1679 ), действует с 2023 года и была связана с российским правительством несколькими группами, включая Microsoft и Институт стратегического диалога . Кампания распространяет ложные нарративы, выдавая себя за средства массовой информации с очевидной целью посеять раздор в демократических странах. Хотя кампания нацелена на аудиторию по всему миру, в том числе в США , ее главной целью была Украина. Сотни обработанных ИИ видеороликов из кампании пытались подпитывать пророссийские нарративы.

В отчете отмечается, что в период с сентября 2024 года по май 2025 года объем контента, создаваемого участниками кампании, резко возрос и набирает миллионы просмотров по всему миру.

В своем отчете исследователи выявили 230 уникальных фрагментов контента, продвигаемых кампанией в период с июля 2023 года по июнь 2024 года, включая изображения, видео, QR-коды и поддельные веб-сайты. Однако за последние восемь месяцев Operation Overload выпустила в общей сложности 587 уникальных фрагментов контента, причем большинство из них было создано с помощью инструментов ИИ, говорят исследователи.

Исследователи заявили, что всплеск контента был вызван потребительскими инструментами ИИ, которые доступны бесплатно в Интернете. Этот легкий доступ помог подпитать тактику кампании «объединения контента», когда те, кто управлял операцией, могли производить несколько фрагментов контента, продвигая одну и ту же историю, благодаря инструментам ИИ.

«Это знаменует собой переход к более масштабируемым, многоязычным и все более сложным пропагандистским тактикам», — написали в отчете исследователи из Reset Tech, лондонской некоммерческой организации, отслеживающей кампании по дезинформации, и Check First, финской компании-разработчика программного обеспечения. «Кампания существенно усилила производство нового контента за последние восемь месяцев, что свидетельствует о переходе к более быстрым и масштабируемым методам создания контента».

Исследователи также были ошеломлены разнообразием инструментов и типов контента, которые преследовала кампания. «Что стало для меня неожиданностью, так это разнообразие контента, различные типы контента, которые они начали использовать», — рассказала WIRED Александра Атанасова, ведущий исследователь разведки с открытым исходным кодом в Reset Tech. «Как будто они разнообразили свою палитру, чтобы уловить как можно больше различных углов этих историй. Они накладывают разные типы контента один за другим».

Атанасова добавила, что кампания, по всей видимости, не использовала какие-либо специальные инструменты ИИ для достижения своих целей, но использовала генераторы голоса и изображений на базе ИИ, которые доступны каждому.

Хотя было сложно определить все инструменты, которые использовали участники кампании, исследователям удалось сузить круг поиска до одного конкретного инструмента: Flux AI.

Flux AI — это генератор текста в изображение, разработанный Black Forest Labs, немецкой компанией, основанной бывшими сотрудниками Stability AI. Используя инструмент анализа изображений SightEngine, исследователи обнаружили 99-процентную вероятность того, что ряд поддельных изображений, которыми поделилась кампания Overload (некоторые из которых, как утверждалось, изображали мусульманских мигрантов, устраивающих беспорядки и поджигающих дома в Берлине и Париже), были созданы с помощью генерации изображений Flux AI.

Затем исследователи смогли создать изображения, которые максимально точно воспроизводили эстетику опубликованных изображений, используя подсказки, включавшие дискриминационный язык, например, «разгневанные мусульмане».

Это подчеркивает, «как модели ИИ, преобразующие текст в изображение, могут быть использованы для пропаганды расизма и подпитывания антимусульманских стереотипов», пишут исследователи, добавляя, что это вызывает «этические опасения относительно того, как подсказки работают в различных моделях поколения ИИ».

«Мы встраиваем несколько уровней защиты, чтобы помочь предотвратить незаконное использование, включая метаданные происхождения, которые позволяют платформам идентифицировать контент, созданный ИИ, и мы поддерживаем партнеров во внедрении дополнительных инструментов модерации и происхождения», — написал представитель Black Forest Labs в электронном письме WIRED. «Предотвращение неправомерного использования будет зависеть от уровней смягчения, а также от сотрудничества между разработчиками, платформами социальных сетей и властями, и мы по-прежнему привержены поддержке этих усилий».

Атансова рассказала WIRED, что изображения, которые она и ее коллеги просмотрели, не содержали никаких метаданных.

Использование ИИ в Operation Overload также использует технологию клонирования голоса ИИ для манипулирования видео, чтобы создать впечатление, будто известные личности говорят то, чего они никогда не делали. Количество видеороликов, созданных в ходе кампании, возросло со 150 в период с июня 2023 года по июль 2024 года до 367 в период с сентября 2024 года по май 2025 года. Исследователи заявили, что в большинстве видеороликов за последние восемь месяцев использовалась технология ИИ, чтобы обмануть тех, кто их видел.

Например, в одном случае кампания опубликовала видео в феврале на X, в котором Изабель Бурдон, старший преподаватель и научный сотрудник французского Университета Монпелье, по-видимому, призывала граждан Германии участвовать в массовых беспорядках и голосовать за крайне правую партию «Альтернатива для Германии» (AfD) на федеральных выборах. Это была подделка: кадры были взяты из видео на официальном канале школы на YouTube, где Бурдон обсуждает недавнюю премию по социальным наукам, которую она выиграла. Но в сфальсифицированном видео технология клонирования голоса с помощью искусственного интеллекта создала впечатление, что она обсуждает немецкие выборы.

Контент, созданный ИИ-технологией Operation Overload, распространяется на более чем 600 каналах Telegram, а также на аккаунтах ботов в социальных сетях, таких как X и Bluesky. В последние недели контент также впервые был распространен на TikTok. Впервые это было замечено в мае, и хотя количество аккаунтов было небольшим — всего 13 — размещенные видео были просмотрены 3 миллиона раз, прежде чем платформа понизила рейтинг аккаунтов.

«Мы проявляем крайнюю бдительность в отношении лиц, которые пытаются манипулировать нашей платформой, и уже удалили аккаунты, указанные в этом отчете», — сообщила WIRED представитель TikTok Анна Сопель. «Мы постоянно выявляем, пресекаем и работаем над тем, чтобы быть на шаг впереди тайных операций по оказанию влияния, и каждый месяц открыто отчитываемся о ходе работы».

Исследователи отметили, что, хотя Bluesky заблокировала 65 процентов фейковых аккаунтов, «X предприняла минимальные действия, несмотря на многочисленные сообщения об операции и растущие доказательства координации». X и Bluesky не ответили на просьбы прокомментировать ситуацию.

После того, как в ходе операции «Перегрузка» создается фейковый и сгенерированный искусственным интеллектом контент, кампания предпринимает нечто необычное: они рассылают электронные письма сотням СМИ и организаций по проверке фактов по всему миру с примерами фейкового контента на различных платформах, а также с просьбой к проверяющим факты лицам провести расследование, является ли он реальным или нет.

Хотя может показаться нелогичным, что кампания по дезинформации направлена ​​на то, чтобы оповестить тех, кто пытается бороться с дезинформацией, об их усилиях, для пророссийских оперативников размещение их контента в Интернете настоящим новостным изданием — даже если оно помечено словом «ФЕЙК» — является конечной целью.

По данным исследователей, с сентября 2024 года было отправлено до 170 000 таких писем более чем 240 получателям. Сообщения обычно содержали несколько ссылок на контент, сгенерированный ИИ, однако текст письма не был создан с использованием ИИ, заявили исследователи.

Пророссийские дезинформационные группы уже давно экспериментируют с использованием инструментов ИИ для усиления своего вывода. В прошлом году группа под названием CopyCop , вероятно, связанная с российским правительством, была замечена в использовании больших языковых моделей (LLM) для создания поддельных веб-сайтов, которые выглядят как настоящие СМИ. Хотя эти попытки обычно не привлекают большого трафика, сопутствующее продвижение в социальных сетях может привлечь внимание, и в некоторых случаях поддельная информация может оказаться в верхней части результатов поиска Google .

В недавнем отчете американского проекта Sunlight подсчитано, что российские дезинформационные сети ежегодно публикуют не менее 3 миллионов статей, созданных с помощью искусственного интеллекта, и что этот контент отравляет результаты работы чат-ботов на базе искусственного интеллекта, таких как ChatGPT от OpenAI и Gemini от Google.

Исследователи неоднократно демонстрировали , как дезинформаторы используют инструменты ИИ, и поскольку людям становится все сложнее отличать реальный контент от созданного ИИ, эксперты прогнозируют, что рост количества контента ИИ, подпитывающего кампании по дезинформации, продолжится.

«У них уже есть работающий рецепт, — говорит Атанасова. — Они знают, что делают».

wired

wired

Похожие новости

Все новости
Animated ArrowAnimated ArrowAnimated Arrow