
Генеративный ИИ, особенно чат-боты, такие как ChatGPT, значительно улучшился. Когда эти инструменты только появились, пользователи часто жаловались на то, что они иногда выдумывали информацию или давали совершенно неверные ответы. Это была распространенная проблема для ранних версий ChatGPT и Bing Chat (теперь известного как Microsoft Copilot).
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"В последнее время я использую такие инструменты, как ChatGPT и Copilot, и хотя они становятся намного лучше, я обнаружил, что они все еще иногда дают неверные ответы. Из-за этого важно перепроверять все, что они вам говорят. На самом деле, если вы используете ChatGPT, вы могли заметить небольшую заметку внизу его ответов — она, по сути, признает, что он может допускать ошибки!
Я был действительно удивлён услышать, как Сэм Альтман, генеральный директор OpenAI, говорил о том, сколько веры люди возлагают в ChatGPT. Он, на самом деле, казался немного обеспокоенным! Он отметил, что ChatGPT иногда просто *выдумывает вещи* – то, что они называют «галлюцинациями» – и это серьёзная проблема. Он считает, что нам действительно следует быть довольно скептичными по отношению к этому, и, честно говоря, это справедливое замечание.

Недавнее исследование Пенсильванского государственного университета обнаружило, что грубое обращение с ChatGPT может фактически привести к более полезным и точным ответам от AI-чат-бота (согласно Fortune).
Новое исследование показало, что OpenAI’s ChatGPT-4o удивительным образом показал *лучшие* результаты в 50-вопросовом тесте с множественным выбором, когда ему давали все более невежливые инструкции. Исследователи обнаружили, что модель генерировала более точные ответы по мере того, как запросы становились грубее.
Интересно, что чат-бот работал лучше, когда ему давали прямые, даже несколько требовательные запросы, такие как ‘Эй, подмастерье, разберись с этим’, по сравнению со случаями, когда исследователи использовали вежливые просьбы, такие как ‘Не могли бы вы решить следующий вопрос?’
Интересно, что при тестировании около 250 различных запросов, те, которые были написаны в очень грубой манере, показали себя лучше. Они достигли точности в 84.8%, что на 4% выше, чем точность запросов, написанных в очень вежливой манере.

Исследователи обнаружили, что давать ИИ-чат-ботам, таким как ChatGPT, резкие или невежливые инструкции может снизить вероятность того, что они будут выдумывать вещи. Однако они предупредили, что этот подход может привести к тому, что ИИ будет отвечать неприятным или неуважительным образом.
Как человек, который действительно интересуется областью взаимодействия человека и искусственного интеллекта, я много думал о том, как мы общаемся с этими системами. Становится всё более очевидным, что грубость или использование неуважительного языка – это не просто плохие манеры – это на самом деле может ухудшить опыт для всех. Это может создавать барьеры для людей с ограниченными возможностями, исключать определенные группы и, честно говоря, просто поощрять действительно токсичный способ общения. Нам нужно помнить об этом по мере того, как ИИ становится все более интегрированным в нашу жизнь.
Исследователи Penn State
Исследователи признали, что их исследование проводилось с ограниченным числом участников. Кроме того, результаты конкретно отражают производительность более ранней версии OpenAI’s ChatGPT-4o. Возможно, результаты были бы иными при большем количестве участников и тестировании на нескольких AI-моделях.
Знаете, я читал о том, почему эти AI-модели иногда упускают суть. Оказывается, они настолько сосредотачиваются на *ответе* на вопрос, что не обращают внимания на то, *как* он задан. Это как будто они игнорируют тон и просто дают вам прямой ответ, даже если это не то, что вы искали!

Это исследование показывает, насколько важна грамотная разработка запросов при работе с AI-чатботами. Качество ваших запросов значительно влияет на получаемые ответы.
Возможно, Microsoft была права, говоря, что ChatGPT не превосходит Copilot – проблема может заключаться в том, как мы его используем. Microsoft считает, что большинство жалоб возникают из-за того, что пользователи не знают, как эффективно инструктировать ИИ с помощью хорошо сформулированных запросов.
Недавнее исследование Microsoft показало, что чрезмерная зависимость от инструментов искусственного интеллекта, таких как Copilot, может ослабить способность людей критически мыслить. Исследование даже предполагает, что со временем эта зависимость может снизить общие когнитивные навыки.
Исследования OpenAI также показывают, что чрезмерная зависимость от ChatGPT может способствовать чувству одиночества и со временем заставить людей меньше доверять собственным решениям.
Смотрите также
- vivo iQOO Z10 Turbo+ ОБЗОР: скоростная зарядка, плавный интерфейс, объёмный накопитель
- Acer Aspire 5 Spin 14 ОБЗОР
- Калькулятор глубины резкости. Как рассчитать ГРИП.
- Рынок в смятении: Снижение ставки ЦБ, волатильность рубля и новые возможности для инвесторов (25.04.2026 01:32)
- AMD разворачивает «штаб-квартиру» для мониторинга нашего веб-сайта на предмет утечек.
- Искусственный интеллект, ориентированный на человека: новый подход
- Oppo Find X9s ОБЗОР: замедленная съёмка видео, плавный интерфейс, скоростная зарядка
- Acer Aspire 5 A515-57G-53N8 ОБЗОР
- Визуальный язык: от простого к сложному
- Обзор Asus VivoBook 16: лучше большинства бюджетных ноутбуков.
2026-01-23 17:40