Что вам нужно знать
- В недавнем интервью генеральный директор OpenAI Сэм Альтман отметил, что AGI может появиться раньше, чем думает большинство людей, несмотря на сообщения о задержке развития ИИ из-за законов масштабирования.
- Руководитель говорит, что момент AGI не будет отражать высказанные проблемы безопасности, что еще раз указывает на то, что он будет иметь «на удивление небольшое» влияние на общество.
- Сэм Альтман говорит, что развитие ОИИ и сверхинтеллекта продолжается уже давно, и большие надежды ожидаются на агентов ИИ в 2025 году.
Как технический энтузиаст с более чем двадцатилетним опытом работы в этой области, я нахожу недавние заявления Сэма Альтмана об AGI и агентах искусственного интеллекта весьма интригующими. Хотя всегда интересно слышать о технологических достижениях, я не могу не чувствовать себя немного скептически.
Вопреки утверждениям о том, что ведущие исследовательские центры ИИ, такие как OpenAI, Google и Anthropic, сталкиваются с проблемами при создании сложных моделей ИИ из-за недостаточности высококачественных обучающих данных, Сэм Альтман, похоже, уверен, что OpenAI достигнет важного рубежа в области AGI к 2025 году. Недавно руководитель опубликовал в социальных сетях загадочный комментарий, подразумевающий, что «барьера нет», возможно, имея в виду предположения о том, что законы о масштабировании начали ограничивать прогресс ИИ.
📊 Хочешь понимать, куда дует ветер на рынке? ТопМоб — мощная аналитика, без воды и хайпа. Не прозевай разворот!
Включай мозг — подписывайсяГенеральный директор OpenAI намекнул, что их компания, занимающаяся искусственным интеллектом, может достичь рубежа в достижении общего искусственного интеллекта (AGI) в 2025 году. Примечательно, что Альтман предположил, что социальные последствия этого достижения будут менее драматичными, чем люди могли ожидать. Он также подчеркнул, что AGI можно реализовать с помощью существующего оборудования, но добавил, что будет приятно иметь в своем распоряжении новую технологию.
Сэм Альтман недавно поделился более подробной информацией об AGI во время выступления на саммите The New York Times Deal Book Summit:
Мы рассматриваем искусственный общий интеллект (AGI) как важную веху на нашем пути. Мы сохранили некоторые возможности для корректировок, поскольку не уверены в будущем, но я считаю, что мы можем достичь AGI раньше, чем многие ожидают. По большому счету это не будет иметь большого значения.
Важно отметить, что быстрое развитие искусственного интеллекта вызвало обеспокоенность по поводу безопасности и конфиденциальности. Фактически, несколько сотрудников OpenAI, такие как ее бывший руководитель по супервыравниванию Ян Лейке, решили уйти из-за тех же самых проблем с безопасностью.
«Создание машин, которые умнее человека, — это по своей сути опасное занятие», — заявил Ян. Возможно, еще больше беспокоит то, что руководитель заявил, что OpenAI, по-видимому, больше сосредоточена на поставке блестящих продуктов, в то время как процедуры безопасности отошли на второй план.
Недавно в критическом отчете говорилось, что OpenAI провела мероприятие по запуску GPT-4 до завершения испытаний, что оказало неоправданное давление на команду безопасности, требуя ускорить принятие основных мер безопасности в течение недели. Хотя OpenAI признала, что запуск продукта был трудным, они решительно заявили, что в этом процессе не было никаких сокращений.
Большинство проблем безопасности, которые поднимали мы и другие, не обязательно возникают при использовании общего искусственного интеллекта (AGI).
Пять лет назад Альтман намекнул на скорое появление общего искусственного интеллекта (AGI). Как ярый энтузиаст, я не могу не выразить свое предвкушение, когда говорю, что технологии, свидетелями которых мы являемся сегодня, развиваются ошеломляющими темпами. Такое ощущение, что момент появления AGI уже наступил и прошел, оставляя нас в восторге от его головокружительной скорости.
Стоит отметить, что бывший исследователь из OpenAI предположил, что вскоре они смогут достичь порога общего искусственного интеллекта, но компания, возможно, еще не готова или не способна справиться со всеми вытекающими из этого последствиями.
В ходе интервью Альтман предположил, что прогресс от показателей AGI (общего искусственного интеллекта) до достижения сверхразума, вероятно, займет значительный период времени, при этом, по его оценкам, этого можно достичь примерно за три тысячи дней.
Большие планы OpenAI в отношении систем искусственного интеллекта на 2025 год и далее
Общеизвестно, что ведущие технологические компании, занимающиеся искусственным интеллектом, сейчас сосредоточивают свое внимание на агентах искусственного интеллекта, причем Anthropic, Salesforce и Microsoft борются за лидирующие позиции. Генеральный директор Salesforce Марк Бениофф критиковал Microsoft, заявляя, что их действия негативно повлияли на сектор искусственного интеллекта, и сравнивает Copilot со старым персонажем Microsoft Clippy.
Начиная со следующего января, я буду частью конкурентной среды, поскольку OpenAI представляет своего нового агента искусственного интеллекта под названием «Оператор». Как и в случае с другими агентами ИИ, моя роль в первую очередь будет заключаться в управлении компьютерами и независимом выполнении задач.
Сэм Альтман сообщил, что OpenAI стремится глубже изучить область агентов ИИ, начиная с 2025 года. Он предсказывает появление систем ИИ, которые поразят людей своими неожиданными возможностями.
Смотрите также
- Магазин Fortnite на 19.04.2025
- От запугивания любопытства до культурного колосса: 20-летняя история YouTube
- 10 лучших игровых ноутбуков. Что купить в апреле 2025.
- Лучшие ноутбуки с матовым экраном. Что купить в апреле 2025.
- 10 лучших OLED ноутбуков. Что купить в апреле 2025.
- Лидеры роста и падения
- Рейтинг лучших скам-проектов
- Неважно, на что вы фотографируете!
- Ремейк The Elder Scrolls 4: Oblivion просочился в сеть со скриншотами
- Золотая лихорадка 2025: ЦБ толкают золото к $3500, пока Трамп грозит торговой блокадой — Обзор рынков на 16 апреля 2025
2024-12-05 14:39