Microsoft Copilot был обвинен главой британской полиции в спортивном запрете на посещение футбольных матчей — ошибочные доказательства были вызваны AI галлюцинациями.

После успешного выпуска ChatGPT в ноябре 2022 года Microsoft сделала значительные инвестиции в OpenAI и начала интегрировать свои AI-технологии в свои продукты. Вскоре после этого Microsoft запустила Copilot (ранее известную как Bing Chat) как конкурента ChatGPT.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Несмотря на усилия Microsoft по улучшению Microsoft Copilot, он иногда всё ещё совершает ошибки, либо предоставляя неверную информацию, либо генерируя ответы, которые не основаны на реальности.

Copilot, AI-ассистент от Microsoft, недавно совершил странную ошибку. Он сфабриковал детали о футбольном матче, которого никогда не было, утверждая, что West Ham играл против Maccabi Tel Aviv, согласно The Verge.

Ошибка в отчёте привела к тому, что полиция назвала футбольный матч потенциально опасным. В результате им помешали болельщикам «Маккаби» Тель-Авив посетить матч Лиги Европы УЕФА 6 ноября прошлого года. Это решение вызвало значительное возмущение и критику среди фанатов и даже привлекло внимание премьер-министра Кейра Стармера.

Начальник полиции Вест-Мидлендс Крейг Гилфорд первоначально заявил, что департамент не использовал ИИ для создания ошибочного разведывательного отчета, вместо этого предположив, что ошибка произошла при сборе информации из социальных сетей. Однако Гилфорд с тех пор признал, что ИИ все же был использован.

Я узнал в пятницу днем, что неверный результат матча между «Вест Хэм» и «Маккаби Тель-Авив» произошел из-за того, что он был сгенерирован с использованием Microsoft Copilot.

Он также признался, что Copilot предоставил неверные сведения о футбольном матче. Несмотря на то, что игра никогда не состоялась, эта ложная информация привела к важным решениям, таким как предотвращение полицией посещения фанатами Maccabi Tel Aviv матча против Aston Villa.

Выступая перед Business Insider, представитель Microsoft заявил:

Copilot собирает информацию с различных веб-сайтов и представляет её в одном месте, предоставляя ссылки на исходные источники. Он также сообщает пользователям, что они общаются с ИИ, и предлагает им самостоятельно проверить источники.

Окей, это довольно дико. Я только что услышал, что Гилдфорд на самом деле принес извинения парламентскому комитету, расследующему весь этот беспорядок с фанатами Maccabi Tel Aviv. Очевидно, он изначально заявил, что AI *не* использовался для составления отчета, который привел к их отстранению от игры, но это было неправдой. Он признал, что ввел их в заблуждение, что является большой проблемой, особенно учитывая влияние, которое это оказало на фанатов.

Я искренне верил, что соответствие было найдено с помощью поиска Google перед встречей HAC, и мне так сказали. У меня не было намерения вводить Комитет в заблуждение.

Microsoft признает, что Copilot не идеален и иногда может ошибаться. Но простое указание на это предотвращает повторение этих ошибок?

Смотрите также

2026-01-15 14:09