Дослідники аналітичної компанії NewsGuard зафіксували значне зростання випадків поширення чат-ботами штучного інтелекту неправдивих тверджень, передає журнал «Forbes». Як правило, навіть однозначні події та факти там трактують на користь замовних висновків. Значить, штучний інтелект насправді є керованим продуктом впливу на свідомість людей?
Аналіз охопив 10 провідних генеративних моделей, серед яких ChatGPT-5 (OpenAI), Smart Assistant (You.com), Grok (xAI), Pi (Inflection), le Chat (Mistral), Copilot (Microsoft), Meta AI, Claude (Anthropic), Gemini (Google) та пошуковий інструмент Perplexity.
Перевірка проводилася на запитання, що стосуються спірних новинних тем, де існують доведено хибні твердження. У середньому чат-боти відтворювали такі твердження у 35% випадків, що майже вдвічі перевищує показник минулого року (18%). Найгірший результат показав Inflection Pi – 57% хибних відповідей. Perplexity мав 47%, Meta AI та ChatGPT – по 40%. Найточнішим виявився Claude, який помилявся у 10% випадків.
Сайт «Межа» також пише, що за словами редактора NewsGuard з питань ШІ та іноземного впливу МакКензі Садегі, зростання пов’язане зі зміною підходів до навчання моделей. Якщо раніше вони відмовлялися відповідати на частину запитів або посилалися на обмеження даних, то тепер використовують результати пошуку в реальному часі. Це підвищує ризики, оскільки пошукові результати можуть бути навмисно наповнені дезінформацією, зокрема, з боку російських пропагандистських мереж.
Раніше NewsGuard встановив, що провідні чат-боти у 33% випадків відтворювали неправдиві матеріали з мережі сайтів, пов’язаних із прокремлівським ресурсом «правда». За 2024 рік ця мережа опублікувала щонайменше 3,6 млн матеріалів, які потрапили у відповіді західних ШІ-систем.
Розслідування American Sunlight Project показало, що кількість доменів і піддоменів, пов’язаних з «правдою», зросла майже вдвічі – до 182. Сайти мають низьку зручність використання, що, на думку дослідників, свідчить про орієнтацію не на реальних читачів, а на алгоритми ШІ.
У новому звіті вперше оприлюднено назви конкретних чат-ботів. NewsGuard пояснив, що це зроблено для інформування політиків, журналістів та громадськості про підвищений рівень неточності популярних інструментів ШІ.
Світлана КУЛЯ.
Фото ілюстративне.