
Недавнее месячное исследование выявило опасения относительно надёжности инструментов искусственного интеллекта при использовании для новостей. Исследователи обнаружили, что чат-бот Gemini от Google выдумывал фальшивые новостные организации и публиковал ложные истории. The Conversation первым сообщил об этих результатах после проведения расследования.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Как исследователь, я руководил экспериментом, в котором тестировал семь различных генеративных систем искусственного интеллекта – Gemini, ChatGPT, Claude, Copilot, Grok, DeepSeek и Aria – в течение месяца. Каждый день я просил их определить пять самых важных новостей, происходящих в Квебеке, ранжировать эти новости по важности, а затем предоставить ссылки на оригинальные новостные статьи. Мой опыт в журналистике, но со специализацией в компьютерных науках, помог мне оценить их ответы.

Одна из наиболее заметных ошибок заключалась в том, что Gemini создал фейковый новостной веб-сайт – examplefictif.ca – и неверно сообщил о забастовке водителей школьных автобусов в Квебеке в сентябре 2025 года. Фактическая проблема была вызвана техническими проблемами с автобусами Lion Electric. Это был не единичный случай; на протяжении всего тестирования ИИ-системы часто придумывали источники, предоставляли неработающие ссылки или искажали факты о реальных новостных сюжетах. Это произошло в 839 ответах, собранных в ходе эксперимента.
Эти результаты важны, потому что все большее число людей уже используют AI-чатботов для получения новостей.
Недавний отчёт от Reuters Institute показал, что 6% канадцев использовали генеративный ИИ для получения новостей в 2024 году. Однако, поскольку эти ИИ-инструменты иногда могут выдумывать факты, искажать информацию или делать неверные выводы, они представляют риск распространения ложной информации. Это особенно верно, когда ИИ представляет свои ответы так, как будто они достоверны, и не указывает чётко, что информация может быть неточной.
Как исследователь, я изучал надёжность кратких обзоров, сгенерированных ИИ, и мои выводы вызывают опасения. Я обнаружил, что менее половины ответов фактически предоставили полную и корректную ссылку на исходный источник. Ещё более тревожно, что менее половины обзоров были полностью точными – многие были либо частично неверными, либо содержали незначительные искажения. В некоторых случаях ИИ выходил за рамки исходного материала, добавляя собственные интерпретации – утверждая, что истории вызвали дебаты или выявили напряжённость, которой на самом деле не было в оригинальной информации. Хотя эти дополнения могут *звучать* проницательно, они могут по сути создавать совершенно ложные нарративы.

Ошибки не ограничивались подделкой.
Как любитель технологий, я внимательно слежу за развитием генеративного ИИ, и, честно говоря, я вижу некоторые тревожные тенденции. Я заметил, что эти инструменты иногда полностью искажают реальные события – например, искажают факты об обращении с просителями убежища или даже неправильно сообщают о победителях в крупных играх! Речь идет не только о громких новостях; они допускают простые ошибки в таких вещах, как результаты опросов или биографии людей. Кажется, что этим ИИ все еще трудно отличить резюмирование того, что *действительно* произошло, от простого выдумывания вещей. Это напоминает о том, что, хотя технология впечатляет, она, безусловно, не идеальна, когда дело доходит до фактической точности.
Проблемы, поднятые The Conversation, отражают более широкую проблему в медиаиндустрии. Недавнее исследование 22 общественно-правовых вещателей показало, что почти половина новостных ответов, созданных ИИ, содержат серьезные ошибки, начиная от ненадежных источников и заканчивая фактическими неточностями. Это исследование служит серьезным предупреждением: по мере того, как ИИ становится все более распространенным в том, как люди находят и потребляют новости, на него следует смотреть как на предварительный ресурс – а не на надежный источник информации.
Смотрите также
- СПБ Биржа растет, ФРС накачивает рынок: что ждет инвесторов в России и США? (11.01.2026 12:32)
- Новые смартфоны. Что купить в январе 2026.
- Cubot Note 60 ОБЗОР: большой аккумулятор, плавный интерфейс
- Realme P4x ОБЗОР: замедленная съёмка видео, объёмный накопитель, большой аккумулятор
- Лучшие смартфоны. Что купить в январе 2026.
- Неважно, на что вы фотографируете!
- Сургутнефтегаз акции привилегированные прогноз. Цена SNGSP
- Лента акции прогноз. Цена LENT
- Виртуальные миры и разумные агенты: новый подход к навигации
- HP Dragonfly Pro 2023 ОБЗОР
2026-01-14 06:58