Исследование показывает, что ИИ-чат-боты по-прежнему испытывают трудности с точностью новостей.

Недавнее месячное исследование выявило опасения относительно надёжности инструментов искусственного интеллекта при использовании для новостей. Исследователи обнаружили, что чат-бот Gemini от Google выдумывал фальшивые новостные организации и публиковал ложные истории. The Conversation первым сообщил об этих результатах после проведения расследования.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Как исследователь, я руководил экспериментом, в котором тестировал семь различных генеративных систем искусственного интеллекта – Gemini, ChatGPT, Claude, Copilot, Grok, DeepSeek и Aria – в течение месяца. Каждый день я просил их определить пять самых важных новостей, происходящих в Квебеке, ранжировать эти новости по важности, а затем предоставить ссылки на оригинальные новостные статьи. Мой опыт в журналистике, но со специализацией в компьютерных науках, помог мне оценить их ответы.

Одна из наиболее заметных ошибок заключалась в том, что Gemini создал фейковый новостной веб-сайт – examplefictif.ca – и неверно сообщил о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. Фактическая проблема была вызвана техническими проблемами с автобусами Lion Electric. Это был не единичный случай; на протяжении всего тестирования ИИ-системы часто придумывали источники, предоставляли неработающие ссылки или искажали факты о реальных новостных сюжетах. Это произошло в 839 ответах, собранных в ходе эксперимента.

Эти результаты важны, потому что все большее число людей уже используют AI-чатботов для получения новостей.

Недавний отчёт от Reuters Institute показал, что 6% канадцев использовали генеративный ИИ для получения новостей в 2024 году. Однако, поскольку эти ИИ-инструменты иногда могут выдумывать факты, искажать информацию или делать неверные выводы, они представляют риск распространения ложной информации. Это особенно верно, когда ИИ представляет свои ответы так, как будто они достоверны, и не указывает чётко, что информация может быть неточной.

Как исследователь, я изучал надёжность кратких обзоров, сгенерированных ИИ, и мои выводы вызывают опасения. Я обнаружил, что менее половины ответов фактически предоставили полную и корректную ссылку на исходный источник. Ещё более тревожно, что менее половины обзоров были полностью точными – многие были либо частично неверными, либо содержали незначительные искажения. В некоторых случаях ИИ выходил за рамки исходного материала, добавляя собственные интерпретации – утверждая, что истории вызвали дебаты или выявили напряжённость, которой на самом деле не было в оригинальной информации. Хотя эти дополнения могут *звучать* проницательно, они могут по сути создавать совершенно ложные нарративы.

Ошибки не ограничивались подделкой.

Как любитель технологий, я внимательно слежу за развитием генеративного ИИ, и, честно говоря, я вижу некоторые тревожные тенденции. Я заметил, что эти инструменты иногда полностью искажают реальные события – например, искажают факты об обращении с просителями убежища или даже неправильно сообщают о победителях в крупных играх! Речь идет не только о громких новостях; они допускают простые ошибки в таких вещах, как результаты опросов или биографии людей. Кажется, что этим ИИ все еще трудно отличить резюмирование того, что *действительно* произошло, от простого выдумывания вещей. Это напоминает о том, что, хотя технология впечатляет, она, безусловно, не идеальна, когда дело доходит до фактической точности.

Проблемы, поднятые The Conversation, отражают более широкую проблему в медиаиндустрии. Недавнее исследование 22 общественно-правовых вещателей показало, что почти половина новостных ответов, созданных ИИ, содержат серьезные ошибки, начиная от ненадежных источников и заканчивая фактическими неточностями. Это исследование служит серьезным предупреждением: по мере того, как ИИ становится все более распространенным в том, как люди находят и потребляют новости, на него следует смотреть как на предварительный ресурс – а не на надежный источник информации.

Смотрите также

2026-01-14 06:58