Відповіді з Кремля: як російська пропаганда «заражає» ШІ-моделі 

Відповіді з Кремля: як російська пропаганда «заражає» ШІ-моделі 
Відповіді з Кремля: як російська пропаганда «заражає» ШІ-моделі 

Ви ставите запитання ChatGPT або Claude — а відповідає російська «Правда». Пропагандистська мережа з Москви навчилася впливати на великі мовні моделі; а ШІ, який не розрізняє вигадку й факт, дедалі частіше стає інструментом дезінформації. Чому так відбувається, розповідаємо в матеріалі. 

Як працюють «штучні інтелекти»

Gemini, ChatGPT, Claude, Grok та інші — це великі мовні моделі (LLM або Large Language Models). В їх основі лежать архітектури глибокого навчання, які дають їм змогу обробляти величезні обсяги текстових даних і вивчати складні мовні закономірності. 

Сучасні моделі проходять два основні етапи навчання:

  1. Pretraining. Модель навчається на великому, різноманітному наборі даних, що часто налічує трильйони токенів. Мета цього етапу — сформувати широке розуміння мови, контексту та різних типів знань.
  2. Fine-tuning. Модель додатково навчають на більш конкретному наборі даних. Зазвичай він менший і зосереджений на певній галузі або завданні. Мета цього етапу — адаптувати модель для кращої роботи у визначених сценаріях або завданнях. 

Чому ж не можна довіряти LLM-моделям?

Найперше — через принцип їхньої роботи. LLM вміє генерувати текст на основі отриманих даних, але не перевіряти фактаж. Ніщо в навчанні моделі не дає їй показників правдивості чи надійності будь-яких навчальних даних. 

Часом можна почути про «галюцинації» мовних моделей. Це відбувається, коли LLM не здатна згенерувати правильну відповідь, тому починає вигадувати факти. Окрім цього, тексти, на яких вчиться модель, звучать впевнено, що змушує її переймати такий тон і переконливо розповідати навіть про неправдиві факти.

На жаль, «галюцинації» LLM — не єдиний приклад неправдивої інформації від них. За останні роки справжньою проблемою стало використання великих мовних моделей у цілях поширення пропаганди.

Як Росія використовує ШІ для поширення пропаганди

Оскільки LLM-моделі навчаються на великих масивах даних, у них можна інфільтрувати неправдиву інформацію. Сама модель не може провести фактчекінг і стає інструментом для поширення брехні, пропаганди або фейків.

У березні 2025-го розслідувачі NewsGuard виявили, що російська мережа дезінформації «Правда» навмисно поширює неправдиві твердження та пропаганду, щоб уплинути на відповіді моделей ШІ. У 2024-му 3,6 млн статей російської пропаганди були включені в результати західних систем штучного інтелекту, «заражаючи» їхні відповіді.

Аудит NewsGuard виявив, що провідні ШІ-моделі повторювали неправдиві наративи «Правди» у 33 % випадків. Серед проінспектованих ресурсів — Grok, GPT-4, Gemini, Claude, Perplexity та інші. 7 із 10 чат-ботів цитували конкретні статті з «Правди» як свої джерела.    

Мережа була запущена у 2022 році та з того часу охопила 49 країн десятками мов у 150 доменах. Завдяки «Правді» російські пропагандисти отримали можливість впливати на ШІ-моделі в усіх регіонах світу.  «Це стало можливим, коли дані мовних моделей були оновлені, а деяким з них дали змогу користуватися пошуком в інтернеті й черпати інформацію звідти. Скажімо, модель з даними, актуальними на 2021 рік та без можливості пошуку в інтернеті не відчула російського data poising (отруєння даних — прим. ред.). Моделі, для навчання яких використовували дані за 2023 рік та які мають доступ до мережі, вже “заражені”», — зазначив Павло Бєлоусов, експерт з цифрової безпеки ГО «Інтерньюз-Україна».

За його словами, на LLM-модель також можна впливати зсередини — якщо діє функція «Навчатися на даних користувача». У цьому випадку достатньо створити тисячі акаунтів, які нав’язують потрібний наратив. 

«З їхньою допомогою можна “згодовувати” моделям певні пропагандистські твердження. І згодом вони можуть врахувати ці дані й використовувати їх у видачі для інших користувачів», — додає Павло Бєлоусов. 

Як користуватися ШІ й не потрапити на гачок пропаганди

Кейс «Правди» показав, що LLM-моделі можуть бути потужними помічниками, але не джерелом абсолютної правди. Вони не мають вбудованого механізму перевірки фактів, а отже, можуть відтворювати неправдиву інформацію. Вплив пропаганди на ШІ — реальний і глобальний ризик.

3 правила, щоб не підхопити фейк від ШІ:

  1. Не шукайте істину в ШІ. Модель не розуміє, що правда, а що брехня — вона просто генерує текст на основі вашого запиту й отриманих даних (які можуть бути далекі від правди).
  2. Перевіряйте джерела вручну. Якщо ШІ посилається на статтю, цитату чи дослідження — переконайтеся, що вони справді існують.
  3. Ставте складні запитання. Прості й узагальнені запити з більшою ймовірністю отримають просту й узагальнену відповідь. Формулюйте запити чітко, покроково, з контекстом та уточненнями.

Користувачам слід бути критичними, навіть коли відповіді ШІ звучать переконливо. А розробникам — посилювати захист від інформаційного впливу ззовні. Адже у світі, де машинні відповіді все частіше сприймають як істину, вміння сумніватися — ключ до безпеки.

Статтю створено в межах проєкту «Зміцнення правдивості, прозорості та демократії для протидії дезінформації», що втілюється ГО «Інтерньюз-Україна» за підтримки уряду Канади.

Ставайте частиною спільноти «Накипіло» —підтримайте своє медіа

Читайте також

Total
0
Share