
Что вам нужно знать
- OpenAI потеряла почти половину своей суперкоманды.
- Бывший исследователь OpenAI объясняет массовый исход сотрудников из компании тем, что она уделяет особое внимание блестящим продуктам, поскольку процессы безопасности отходят на второй план.
- Исследование утверждает, что OpenAI может быть на грани достижения AGI (искусственного общего интеллекта), но она не может справиться с тем, что это влечет за собой.
Как опытный исследователь с более чем двадцатилетним опытом работы в области искусственного интеллекта, я все больше обеспокоен траекторией развития OpenAI. Будучи непосредственным свидетелем быстрого развития и преобразующего потенциала искусственного интеллекта, я всегда был сторонником его этического и ответственного развития.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"За последние несколько месяцев я заметил немало членов команды OpenAI, ушедших по разным причинам. Совсем недавно соучредитель Грег Брокман объявил, что возьмет творческий отпуск до конца года, а исследователь Джон Шульман поделился своим решением уйти и присоединиться к Anthropic, где он сосредоточится на обеспечении соответствия ИИ человеческим ценностям.
После необычного увольнения Сэма Альтмана и последующего его повторного назначения на пост генерального директора советом директоров, в который входил Ян Лейке, бывший руководитель суперкомплекса OpenAI, несколько ключевых руководителей начали уходить из компании, занимающейся искусственным интеллектом. Сам Лейке покинул компанию после того, как столкнулся с неоднократными конфликтами с высокопоставленными чиновниками по таким вопросам, как безопасность, состязательность и многое другое. Он также отметил, что акцент на безопасности был омрачен акцентом на создание привлекательных продуктов.
В ходе разговора с Fortune Дэниел Кокотайло, который ранее работал в OpenAI до начала 2023 года и также является частью их команды супер-специалистов, упомянул, что более половины членов команды уже покинули компанию. «Это не было организованное мероприятие», — пояснил Кокотайло. «Я считаю, что это просто люди, которые решают уйти сами».
Стоит отметить, что когда OpenAI была впервые создана, ее основной целью была разработка общего искусственного интеллекта таким образом, чтобы это принесло пользу всему человечеству. Однако в последнее время компания, похоже, отошла от этой альтруистической миссии и работает больше как любое другое предприятие, ориентированное на прибыль.
Илон Маск в публичном заявлении резко осудил OpenAI за отклонение от своей первоначальной цели, назвав это серьезным нарушением доверия. В ответ Маск первоначально подал иск против компании и Сэма Альтмана по этому поводу, но позже решил отозвать иск в начале этого года. Примечательно, что Маск с тех пор подал еще одну жалобу на OpenAI, обвинив их в участии в незаконной деятельности, такой как рэкет. Как заявила команда юристов Маска, «предыдущий иск не имел достаточной силы».
Готов ли OpenAI к AGI?

Ни для кого не секрет, что OpenAI работает над достижением эталона AGI, однако среди пользователей растет беспокойство по поводу его последствий для человечества. По словам исследователя ИИ, вероятность того, что ИИ положит конец человечеству, составляет 99,9%, и единственный способ остановить этот исход — вообще не создавать ИИ.
Несмотря на создание специальной группы безопасности под руководством генерального директора Сэма Альтмана для наблюдения за тем, чтобы технология, разработанная OpenAI, соответствовала строгим правилам безопасности, похоже, что компания в первую очередь концентрируется на разработке продуктов и коммерческих аспектах своей деятельности.
Стоит отметить, что OpenAI, очевидно, быстро перешла к выпуску GPT-40, действие, предпринятое вскоре после расформирования команды по безопасности и согласованию. В сообщениях говорится, что они даже распространили приглашения на презентацию еще до завершения надлежащего тестирования. Компания признала, что эта команда находилась в напряжении и у нее было мало времени на тестирование из-за давления, с которым они столкнулись.
По сути, сложно определить основные причины, по которым несколько руководителей и сотрудников ушли из компании за последние несколько лет. Некоторые даже создали конкурирующие фирмы, стремящиеся обеспечить безопасность сверхинтеллекта. Кокотайло предполагает, что этот исход может быть вызван тем, что OpenAI близок к достижению эталонного показателя AGI, но в настоящее время ему не хватает необходимых знаний, правил и ресурсов для управления всем, что с ним связано.
В других местах OpenAI выразила несогласие с предложенным сенатором законом об искусственном интеллекте, направленным на реализацию мер безопасности для поддержания технологии в рабочем состоянии, вместо этого выступая за федеральное регулирование в этой области.
Смотрите также
- Acer Aspire 5 Spin 14 ОБЗОР
- Рынок в смятении: Снижение ставки ЦБ, волатильность рубля и новые возможности для инвесторов (25.04.2026 01:32)
- Как установить SteamOS на игровые портативные устройства ROG Ally и Legion Go под управлением Windows
- Новые смартфоны. Что купить в мае 2026.
- Интервью с создателями фильма «Пятая группа крови»
- Motorola Moto G77 ОБЗОР: отличная камера, лёгкий, чёткое изображение
- Oppo Find X9s ОБЗОР: замедленная съёмка видео, плавный интерфейс, скоростная зарядка
- ZenBook 14 OLED UX3405CA, Ultra 7 255H ОБЗОР
- Обзор Asus VivoBook 16: лучше большинства бюджетных ноутбуков.
- Визуальный язык: от простого к сложному
2024-08-27 14:13