1. Головна
  2. >
  3. ІТ і технології

Штучний інтелект під загрозою: російські фейки масово проникають в AI-моделі

43

Російська дезінформаційна мережа «Pravda» активно впливає на результати відповідей AI-моделей, використовуючи SEO-маніпуляції та масову публікацію пропагандистських матеріалів.

Штучний інтелект під загрозою: російські фейки масово проникають в AI-моделі

Про це повідомляє Telegram-канал Hugs.fund із посиланням на останній звіт NewsGuard.

Масштаби дезінформації

За даними некомерційної організації American Sunlight Project, у 2024 році «Pravda» випустила 3,6 мільйона оманливих статей, що дозволило їй заполонити пошукові системи та веб-сканери проросійською брехнею. Використовуючи методи web-скрапінгу та SEO-просування, ця мережа збільшує видимість своїх матеріалів у пошукових системах і формує порядок денний, який можуть сприймати AI-моделі.

Вразливість AI до маніпуляцій

Звіт NewsGuard вказує, що у 33% випадків чат-боти відтворювали російські фейки, зокрема про «секретні біолабораторії США в Україні». Це піднімає питання про стійкість ШІ-моделей до маніпуляцій, особливо коли вони значною мірою залежать від відкритих веб-даних.

Водночас, західні медіа обмежують доступ ШІ до своїх матеріалів, щоб захистити авторські права та комерційну складову. На цьому фоні російські пропагандистські ресурси охоче відкривають свої бази даних, заповнюючи інформаційний простір потрібними їм наративами.

Чи стане AI «інформаційним смітником»?

Питання жорсткого відбору навчальних даних стає все більш актуальним. Без ретельної валідації контенту є ризик, що чат-боти перетворяться на джерела дезінформації, що лише загострить дискусію про довіру до штучного інтелекту та його роль у медіапросторі.

Читайте також:

Поділитись:
Facebook
Twitter(X)
Whatsapp
Telegram
Viber