Microsoft представляет новый инструмент коррекции для устранения галлюцинаций ИИ, но уже есть опасения: «Пытаться устранить галлюцинации с помощью генеративного ИИ — это все равно, что пытаться исключить водород из воды».

Microsoft представляет новый инструмент коррекции для устранения галлюцинаций ИИ, но уже есть опасения: «Пытаться устранить галлюцинации с помощью генеративного ИИ — это все равно, что пытаться исключить водород из воды».

Что вам нужно знать

  • Microsoft представляет новый инструмент коррекции для предотвращения галлюцинаций ИИ.
  • Эксперты утверждают, что этот инструмент может решить некоторые проблемы, влияющие на технологию, но это не панацея для точности, а также может создавать критические проблемы.
  • Они также утверждают, что этот инструмент может создать ложное чувство безопасности у заядлых пользователей ИИ, которые могут воспринимать его как защиту от ошибочных результатов и дезинформации. 

Как опытный исследователь с многолетним опытом изучения тонкостей искусственного интеллекта, я считаю новый инструмент коррекции Microsoft интригующей разработкой. Хотя это, несомненно, обещает повысить надежность и достоверность контента, создаваемого искусственным интеллектом, мой личный опыт научил меня, что ни один технологический прогресс не является панацеей.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


Недавно Microsoft представила несколько инновационных механизмов безопасности на основе искусственного интеллекта, направленных на повышение безопасности, конфиденциальности и надежности. Один из этих инструментов называется «Коррекция» и предназначен для исправления ошибок, допущенных ИИ. Проще говоря, этот инструмент выявляет и исправляет фактические неточности и ошибки в ответах на текстовые запросы.

Новый инструмент, принадлежащий Microsoft Azure AI Content Safety API, может использоваться в нескольких моделях генерации текста AI, таких как Llama от Meta и GPT-4o от OpenAI. Как сообщает TechCrunch, этот инструмент разработан с использованием как малых, так и больших языковых моделей, позволяющих перекрестно ссылаться на результаты из надежных источников в целях проверки фактов.

Однако эксперты предупреждают, что этот инструмент не может быть панацеей от эпизодов галлюцинаций ИИ. По словам О.С. Кейса, кандидата наук Вашингтонского университета:

Попытка удалить галлюцинации из контента, созданного ИИ, сравнима с попыткой извлечь водород из воды — это фундаментальный аспект, лежащий в основе технологии.

Галлюцинации — не единственная проблема ИИ

Еще на начальных этапах моей работы с Bing Chat (теперь известным как Microsoft Copilot) пользователи выражали обеспокоенность по поводу пользовательского интерфейса, указывая на случаи неверных результатов. Чтобы решить эту проблему, мы ввели ограничения на количество символов, чтобы свести к минимуму длительные разговоры и, возможно, не запутать ИИ. Хотя галлюцинации заметно уменьшились, важно помнить, что нам еще предстоит поработать, чтобы обеспечить безупречный опыт.

Как исследователь, я недавно заметил необычный инцидент, связанный с функцией «Обзоры искусственного интеллекта» Google. Казалось, оно предлагало действия, которые были не только нетрадиционными, но и потенциально вредными, например, поедание камней, нанесение клея и даже размышления о самоубийстве. Компания оперативно устранила проблему, объяснив ее «пробелом в данных» в своей системе, и опубликовала якобы подлинные скриншоты, объясняющие инцидент.

Представитель Microsoft утверждает, что новый инструмент коррекции заметно повысит надежность и достоверность контента, созданного с помощью ИИ, тем самым помогая разработчикам свести к минимуму «недовольство пользователей и потенциальный ущерб их репутации». Хотя представитель признает, что этот инструмент не решит проблемы точности, присущие ИИ, он обеспечит соответствие его результатов справочным документам.

Киз утверждает, что, хотя этот инструмент коррекции может помочь решить некоторые проблемы в ИИ, он также может породить новые проблемы. Некоторые считают, что этот инструмент может вызвать ошибочное доверие, заставляя пользователей рассматривать неточную информацию, предоставляемую ИИ, как неоспоримые факты.

Мне любопытно узнать, понравится ли новейший инструмент коррекции преданным пользователям ИИ и эффективно ли он выявляет галлюцинации ИИ, тем самым повышая надежность ответов, вырабатываемых ИИ.

Среди других новостей: Microsoft представила Copilot Academy — программу обучения, направленную на максимальное повышение уровня владения пользователем инструментом Copilot AI. Однако, согласно другой статье, одна из распространенных проблем, с которыми сталкивается команда Microsoft Copilot, заключается в том, что ИИ работает не так эффективно, как ChatGPT OpenAI. Microsoft объясняет это тем, что пользователи не используют его функции оптимальным образом.

Смотрите также

2024-09-25 12:13