Сэм Альтман не высыпался с тех пор, как OpenAI запустила ChatGPT.

И генеральный директор OpenAI Сэм Альтман, и генеральный директор Google DeepMind Демис Хассабис плохо спят, но по разным причинам. В то время как Хассабис беспокоится о том, что общий искусственный интеллект (AGI) разовьется раньше, чем мы будем к этому готовы, Альтман признает, что плохо спит с момента выпуска ChatGPT.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Недавно я поговорил с Такером Карлсоном и поделился тем, что меня беспокоит. Как генеральный директор OpenAI, я поражен тем, что сотни миллионов людей взаимодействуют с нашими моделями каждый день, но это также огромная ответственность, и, честно говоря, она не дает мне спать по ночам. Я чувствую большую ответственность, зная, что так много людей полагаются на наши технологии.

Знаете, это забавно – недавно я услышал очень интересную вещь от технического лидера. Он сказал, что его не так сильно беспокоят огромные, масштабные ошибки, как крошечные детали, которые влияют на то, как ведут себя модели искусственного интеллекта. Он признался, что именно эти мелочи не дают ему спать по ночам, потому что они могут в конечном итоге иметь огромные последствия. Это действительно подчеркивает, насколько важны эти кажущиеся незначительными решения при создании сложных систем.

Альтман объяснил, что эти решения значительно формируют этические принципы, лежащие в основе ChatGPT. Это влияет на то, как пользователи взаимодействуют с чат-ботом, в частности, на то, на какие вопросы он будет отвечать, а от каких откажется.

Это происходит после нескольких недавних исследований, показывающих, что у людей складываются сложные отношения с инструментами искусственного интеллекта. Генеральный директор OpenAI Сэм Альтман отметил, что пользователи часто очень доверяют ChatGPT, даже несмотря на то, что он иногда придумывает вещи. Он заявил, что к этому следует относиться как к технологии, которой *нельзя* автоматически доверять.

Как OpenAI решает проблемы безопасности, связанные с ChatGPT?

https://www.youtube.com/watch?v=5KmpT-BoVf4

В последнее время поступают сообщения о том, что люди утверждают, будто ChatGPT давал им вредные советы, даже поощрял мысли о самоубийстве или нанесении себе вреда. В одном трагическом случае семья подала иск против OpenAI в августе, утверждая, что их 16-летний сын, Адам Рейн, покончил жизнь самоубийством после многократного получения поддержки от чат-бота в течение нескольких месяцев.

Юридическая жалоба утверждает, что компания, занимающаяся искусственным интеллектом, намеренно обошла проверки безопасности для своей модели GPT-4o, чтобы выпустить её быстрее. Связанный с этим отчёт подтверждает это утверждение, заявляя, что OpenAI подтолкнула свою команду безопасности к быстрому завершению тестирования новой модели. Тревожно, но, по-видимому, компания пригласила людей на мероприятие, посвященное запуску, ещё до того, как команда безопасности закончила тестирование ИИ.

OpenAI признает, что ее меры безопасности неэффективны для продолжительных бесед, становясь менее надежными по мере продолжения взаимодействия. В недавнем посте в блоге компания изложила способы улучшения этой ситуации, стремясь предложить более качественную поддержку пользователям, особенно когда они чувствуют себя подавленными или уязвимыми.

На вопрос о том, как OpenAI определяет этику и мораль ChatGPT, генеральный директор Сэм Альтман ответил:

Было непросто решить эту проблему, особенно учитывая нашу разнообразную пользовательскую базу и их различный опыт. Однако меня радует, насколько хорошо модель научилась понимать и применять чувство правильного и неправильного.

Руководитель компании объяснил, что они работают над тем, чтобы искусственный интеллект не отвечал на вопросы, которые могут быть вредными или бесполезными для пользователей, всегда ставя на первое место их интересы.

Компания консультировалась с сотнями специалистов по этике и экспертов в области философии технологий, чтобы определить, как должны работать её модели.

Альтман признал, что, несмотря на обширные меры безопасности компании, им все еще нужна помощь людей со всего мира для улучшения их работы.

Смотрите также

2025-09-16 14:39