
Генеративный ИИ, особенно чат-боты, такие как ChatGPT, значительно улучшился. Когда эти инструменты только появились, пользователи часто жаловались на то, что они иногда выдумывали информацию или давали совершенно неверные ответы. Это была распространенная проблема для ранних версий ChatGPT и Bing Chat (теперь известного как Microsoft Copilot).
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"В последнее время я использую такие инструменты, как ChatGPT и Copilot, и хотя они становятся намного лучше, я обнаружил, что они все еще иногда дают неверные ответы. Из-за этого важно перепроверять все, что они вам говорят. На самом деле, если вы используете ChatGPT, вы могли заметить небольшую заметку внизу его ответов — она, по сути, признает, что он может допускать ошибки!
Я был действительно удивлён услышать, как Сэм Альтман, генеральный директор OpenAI, говорил о том, сколько веры люди возлагают в ChatGPT. Он, на самом деле, казался немного обеспокоенным! Он отметил, что ChatGPT иногда просто *выдумывает вещи* – то, что они называют «галлюцинациями» – и это серьёзная проблема. Он считает, что нам действительно следует быть довольно скептичными по отношению к этому, и, честно говоря, это справедливое замечание.

Недавнее исследование Пенсильванского государственного университета обнаружило, что грубое обращение с ChatGPT может фактически привести к более полезным и точным ответам от AI-чат-бота (согласно Fortune).
Новое исследование показало, что OpenAI’s ChatGPT-4o удивительным образом показал *лучшие* результаты в 50-вопросовом тесте с множественным выбором, когда ему давали все более невежливые инструкции. Исследователи обнаружили, что модель генерировала более точные ответы по мере того, как запросы становились грубее.
Интересно, что чат-бот работал лучше, когда ему давали прямые, даже несколько требовательные запросы, такие как ‘Эй, подмастерье, разберись с этим’, по сравнению со случаями, когда исследователи использовали вежливые просьбы, такие как ‘Не могли бы вы решить следующий вопрос?’
Интересно, что при тестировании около 250 различных запросов, те, которые были написаны в очень грубой манере, показали себя лучше. Они достигли точности в 84.8%, что на 4% выше, чем точность запросов, написанных в очень вежливой манере.

Исследователи обнаружили, что давать ИИ-чат-ботам, таким как ChatGPT, резкие или невежливые инструкции может снизить вероятность того, что они будут выдумывать вещи. Однако они предупредили, что этот подход может привести к тому, что ИИ будет отвечать неприятным или неуважительным образом.
Как человек, который действительно интересуется областью взаимодействия человека и искусственного интеллекта, я много думал о том, как мы общаемся с этими системами. Становится всё более очевидным, что грубость или использование неуважительного языка – это не просто плохие манеры – это на самом деле может ухудшить опыт для всех. Это может создавать барьеры для людей с ограниченными возможностями, исключать определенные группы и, честно говоря, просто поощрять действительно токсичный способ общения. Нам нужно помнить об этом по мере того, как ИИ становится все более интегрированным в нашу жизнь.
Исследователи Penn State
Исследователи признали, что их исследование проводилось с ограниченным числом участников. Кроме того, результаты конкретно отражают производительность более ранней версии OpenAI’s ChatGPT-4o. Возможно, результаты были бы иными при большем количестве участников и тестировании на нескольких AI-моделях.
Знаете, я читал о том, почему эти AI-модели иногда упускают суть. Оказывается, они настолько сосредотачиваются на *ответе* на вопрос, что не обращают внимания на то, *как* он задан. Это как будто они игнорируют тон и просто дают вам прямой ответ, даже если это не то, что вы искали!

Это исследование показывает, насколько важна грамотная разработка запросов при работе с AI-чатботами. Качество ваших запросов значительно влияет на получаемые ответы.
Возможно, Microsoft была права, говоря, что ChatGPT не превосходит Copilot – проблема может заключаться в том, как мы его используем. Microsoft считает, что большинство жалоб возникают из-за того, что пользователи не знают, как эффективно инструктировать ИИ с помощью хорошо сформулированных запросов.
Недавнее исследование Microsoft показало, что чрезмерная зависимость от инструментов искусственного интеллекта, таких как Copilot, может ослабить способность людей критически мыслить. Исследование даже предполагает, что со временем эта зависимость может снизить общие когнитивные навыки.
Исследования OpenAI также показывают, что чрезмерная зависимость от ChatGPT может способствовать чувству одиночества и со временем заставить людей меньше доверять собственным решениям.
Смотрите также
- Российский рынок: Технологический рост и геополитический оптимизм (17.01.2026 01:32)
- Сургутнефтегаз акции привилегированные прогноз. Цена SNGSP
- Российская экономика 2025: Рекорды энергопотребления, падение добычи и укрепление рубля (22.01.2026 17:32)
- Российский рынок: Оптимизм на фоне геополитики и корпоративных сделок (20.01.2026 00:32)
- Vivo Y31
- Xiaomi Redmi Note 15 Pro 4G ОБЗОР: плавный интерфейс, отличная камера, яркий экран
- Nothing Phone (1) ОБЗОР: плавный интерфейс, много памяти, беспроводная зарядка
- Прогнозы цен на STETH: анализ криптовалюты STETH
- itel RS4 ОБЗОР: большой аккумулятор, плавный интерфейс, удобный сенсор отпечатков
- Cubot Note 60 ОБЗОР: большой аккумулятор, плавный интерфейс
2026-01-23 17:40