Основные системы искусственного интеллекта (ИИ), которыми ежедневно пользуются уже миллионы людей, так или иначе искажают контент. Об этом говорится в исследовании, координатором которого стал Европейский вещательный союз.
Профессиональные журналисты проанализировали более трех тысяч ответов от ChatGPT, Copilot, Gemini и Perplexity по ключевым критериям, включая точность, наличие и качество источника, умение отличать мнение от факта и предоставление контекста.
Выяснилось, что 45% всех ответов ИИ не соответствовали тому или иному критерию.
Например, в 31% случаев источники, на которые ссылался искусственный интеллект, либо отсутствовали в реальности, либо совершенно не соответствовали тому ответу, которые давал ИИ. В 20% сообщений ИИ придумывал несуществующие детали и давал устаревшую информацию.
Хуже всего проявил себя Gemini, у которого проблемы с достоверностью и полнотой информации встречались в 76% случаев.
Европейский вещательный союз хочет перевести такие исследования на постоянную основу. Он подчеркивает, что регулярный независимый мониторинг ИИ-помощников, учитывая быстрые темпы его развития, необходим.
В исследовании приняли участие общественные медиаорганизации из 11 европейских стран.


