Бывший исследователь OpenAI утверждает, что производитель ChatGPT может быть на грани достижения AGI, но он не готов «справиться со всем, что влечет за собой», поскольку блестящие продукты получают прецеденты над безопасностью.

Бывший исследователь OpenAI утверждает, что производитель ChatGPT может быть на грани достижения AGI, но он не готов «справиться со всем, что влечет за собой», поскольку блестящие продукты получают прецеденты над безопасностью.

Что вам нужно знать

  • OpenAI потеряла почти половину своей суперкоманды.
  • Бывший исследователь OpenAI объясняет массовый исход сотрудников из компании тем, что она уделяет особое внимание блестящим продуктам, поскольку процессы безопасности отходят на второй план.
  • Исследование утверждает, что OpenAI может быть на грани достижения AGI (искусственного общего интеллекта), но она не может справиться с тем, что это влечет за собой.

Как опытный исследователь с более чем двадцатилетним опытом работы в области искусственного интеллекта, я все больше обеспокоен траекторией развития OpenAI. Будучи непосредственным свидетелем быстрого развития и преобразующего потенциала искусственного интеллекта, я всегда был сторонником его этического и ответственного развития.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


За последние несколько месяцев я заметил немало членов команды OpenAI, ушедших по разным причинам. Совсем недавно соучредитель Грег Брокман объявил, что возьмет творческий отпуск до конца года, а исследователь Джон Шульман поделился своим решением уйти и присоединиться к Anthropic, где он сосредоточится на обеспечении соответствия ИИ человеческим ценностям.

После необычного увольнения Сэма Альтмана и последующего его повторного назначения на пост генерального директора советом директоров, в который входил Ян Лейке, бывший руководитель суперкомплекса OpenAI, несколько ключевых руководителей начали уходить из компании, занимающейся искусственным интеллектом. Сам Лейке покинул компанию после того, как столкнулся с неоднократными конфликтами с высокопоставленными чиновниками по таким вопросам, как безопасность, состязательность и многое другое. Он также отметил, что акцент на безопасности был омрачен акцентом на создание привлекательных продуктов.

В ходе разговора с Fortune Дэниел Кокотайло, который ранее работал в OpenAI до начала 2023 года и также является частью их команды супер-специалистов, упомянул, что более половины членов команды уже покинули компанию. «Это не было организованное мероприятие», — пояснил Кокотайло. «Я считаю, что это просто люди, которые решают уйти сами».

Стоит отметить, что когда OpenAI была впервые создана, ее основной целью была разработка общего искусственного интеллекта таким образом, чтобы это принесло пользу всему человечеству. Однако в последнее время компания, похоже, отошла от этой альтруистической миссии и работает больше как любое другое предприятие, ориентированное на прибыль.

Илон Маск в публичном заявлении резко осудил OpenAI за отклонение от своей первоначальной цели, назвав это серьезным нарушением доверия. В ответ Маск первоначально подал иск против компании и Сэма Альтмана по этому поводу, но позже решил отозвать иск в начале этого года. Примечательно, что Маск с тех пор подал еще одну жалобу на OpenAI, обвинив их в участии в незаконной деятельности, такой как рэкет. Как заявила команда юристов Маска, «предыдущий иск не имел достаточной силы».

Готов ли OpenAI к AGI?

Бывший исследователь OpenAI утверждает, что производитель ChatGPT может быть на грани достижения AGI, но он не готов «справиться со всем, что влечет за собой», поскольку блестящие продукты получают прецеденты над безопасностью.

Ни для кого не секрет, что OpenAI работает над достижением эталона AGI, однако среди пользователей растет беспокойство по поводу его последствий для человечества. По словам исследователя ИИ, вероятность того, что ИИ положит конец человечеству, составляет 99,9%, и единственный способ остановить этот исход — вообще не создавать ИИ.

Несмотря на создание специальной группы безопасности под руководством генерального директора Сэма Альтмана для наблюдения за тем, чтобы технология, разработанная OpenAI, соответствовала строгим правилам безопасности, похоже, что компания в первую очередь концентрируется на разработке продуктов и коммерческих аспектах своей деятельности.

Стоит отметить, что OpenAI, очевидно, быстро перешла к выпуску GPT-40, действие, предпринятое вскоре после расформирования команды по безопасности и согласованию. В сообщениях говорится, что они даже распространили приглашения на презентацию еще до завершения надлежащего тестирования. Компания признала, что эта команда находилась в напряжении и у нее было мало времени на тестирование из-за давления, с которым они столкнулись.

По сути, сложно определить основные причины, по которым несколько руководителей и сотрудников ушли из компании за последние несколько лет. Некоторые даже создали конкурирующие фирмы, стремящиеся обеспечить безопасность сверхинтеллекта. Кокотайло предполагает, что этот исход может быть вызван тем, что OpenAI близок к достижению эталонного показателя AGI, но в настоящее время ему не хватает необходимых знаний, правил и ресурсов для управления всем, что с ним связано.

В других местах OpenAI выразила несогласие с предложенным сенатором законом об искусственном интеллекте, направленным на реализацию мер безопасности для поддержания технологии в рабочем состоянии, вместо этого выступая за федеральное регулирование в этой области.

Смотрите также

2024-08-27 14:13