Что вам нужно знать
- Когда Microsoft Copilot спрашивают о выдающихся людях, умерших в этом году, он может поделиться списком людей, которые еще живы.
- В ходе моего тестирования Copilot поделился списком живых людей и людей, умерших в предыдущие годы.
- Чат-боты с искусственным интеллектом, в том числе Copilot и Google Bard, имеют проблемы с обменом фактически верной информацией и часто «галлюцинируют».
Для человека, который на протяжении многих лет провел бесчисленные часы, взаимодействуя с чат-ботами с искусственным интеллектом, становится все более очевидным, что эти цифровые спутники все еще далеки от совершенства. Последний инцидент, связанный с распространением Microsoft Copilot дезинформации о кончине сэра Дэвида Аттенборо, является лишь еще одной главой в этой продолжающейся истории о галлюцинациях ИИ.
📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇
top-mob.com Telegram
Модель искусственного интеллекта Microsoft Copilot снова предоставила неверную информацию. Отвечая на вопрос об известных людях, скончавшихся в 2024 году, второй пилот упомянул сэра Дэвида Аттенборо, человека, который до сих пор жив. Если не будет каких-то незарегистрированных трагических новостей, Аттенборо очень среди нас.
Ранее на этой неделе школа в Лестершире получила от него письмо. Кстати, Дэвид Аттенборо недавно был признан одним из ведущих деятелей культуры Британии по результатам опроса – награда обычно вручалась посмертно, как, например, когда королеву Елизавету провозглашали культурной иконой, но в его случае он получил эту награду еще при жизни.
Это явление заметили несколько человек, которые использовали X (ранее Twitter) и другие платформы. Когда его спросили, в порядке ли он, Уильям Шетнер в шутку ответил, что с ним не все в порядке, прочитав о его смерти. The Verge поделилась другими примерами, в том числе одним, в котором Аттенборо был указан как умерший. Я видел подобные результаты в своем тестировании. Помимо перечисления живых людей как погибших, второй пилот ошибочно заявил, что в 2024 году произошло несколько смертей за предыдущие годы.
Не после прочтения этого. https://t.co/eHWpeOZtM8, 2 октября 2024 г.
Я заметил еще один случай, когда ИИ, кажется, споткнулся – на этот раз второй пилот был пойман на распространении неверной информации, особенно о выборах в США. Есть те, кто считает, что, возможно, интеллект ChatGPT, одного из компонентов Copilot, снизился с момента его первоначального запуска. На ранних стадиях своего существования как Bing Chat этот чат-бот с искусственным интеллектом был известен довольно своеобразными и жуткими реакциями.
У меня есть непосредственный опыт работы с чат-ботами с искусственным интеллектом, распространяющими ложную информацию. В прошлом году я написал статью о том, как Google Bard ошибочно заявил, что он закрыт. Затем Bing Chat просмотрел мою статью и ошибочно истолковал ее как означающую, что Google Bard был закрыт. Эта сага дала пугающий взгляд на чат-ботов, кормящих чат-ботов.
Мне, как исследователю, интересно, как ИИ, в том числе такие инструменты, как Copilot, может справляться с логикой и рассуждениями. Это не шокирует, если углубиться в механику работы ИИ. В отличие от людей, эти системы не используют логические рассуждения в привычном нам понимании. Вместо этого они часто запутываются в формулировках подсказок и упускают из виду важные детали вопросов. Добавьте к этому трудности с пониманием сатиры, и это создаст почву для потенциально вводящей в заблуждение информации.
Исправление ИИ
Вчера Microsoft представила значительные улучшения для Copilot, направленные на то, чтобы сделать ИИ более разговорчивым и дружелюбным. Как описал наш старший редактор Зак Боуден: «Microsoft призывает пользователей относиться к обновленному Copilot как к чему-то большему, чем просто ресурсу искусственного интеллекта. Они предлагают относиться к нему как к другу, будь то поиск совета, как пригласить влюбленных, поделиться разочарованиями на работе или или просто вести непринужденную беседу, потому что, в конце концов, люди часто делают это с друзьями.
Насколько я заметил, последняя версия этого чат-бота, получившая название Copilot, создана для того, чтобы способствовать более тесному общению. Он может похвастаться функцией, известной как «Голос второго пилота», которая стремится имитировать человеческий диалог. Кроме того, он способен предлагать темы для обсуждения и даже предоставлять сводку последних новостей дня, что делает его универсальным помощником в различных контекстах.
Обновленный интерфейс и голосовые возможности потенциально могут создать впечатление более персонализированного опыта Copilot. Однако крайне важно, чтобы как мои человеческие, так и цифровые спутники воздерживались от распространения лжи, например, от ошибочных утверждений о том, что живые культурные символы скончались. Возможно, благодаря дополнительному обучению наш цифровой компаньон станет более надежным в плане предоставления точной информации.
Смотрите также
- Магазин Fortnite на 02.10.2024
- Как получить эмоцию «Птичий зов» в Fortnite
- LEGO Horizon Adventures должна воспользоваться одной маркетинговой возможностью
- Лучшие смартфоны. Что купить в октябре 2024.
- Motorola Moto E13 ОБЗОР: большой аккумулятор
- Прогноз курса доллара к южнокорейской воне
- Прогнозы цен на MAGA: анализ криптовалюты TRUMP
- Samsung Galaxy A05s ОБЗОР: большой аккумулятор, быстрый сенсор отпечатков
- Ulefone Armor 26 Ultra ОБЗОР: крутая камера, большой аккумулятор, скоростная зарядка
- Ниндзя отказывается от 4-го сезона 5-й главы Fortnite ради «Перезагрузки» из-за «пота реактивного ранца»
2024-10-02 22:09