Что вам нужно знать
- Генеральный директор OpenAI Сэм Альтман говорит, что до сверхразума может быть всего «несколько тысяч дней».
- Альтман утверждает, что ИИ станет лучше с масштабированием и поможет существенно улучшить жизнь людей во всем мире, включая улучшение окружающей среды, но еще многое предстоит сделать.
- Бывший исследователь OpenAI предупредил, что фирма не будет знать, как обращаться с AGi и всем, что с ней связано.
Как опытный аналитик с многолетним опытом работы в технологической отрасли, я стал свидетелем быстрого развития технологий и их глубокого влияния на общество. Недавние разработки в области искусственного интеллекта, в частности заявления генерального директора OpenAI Сэма Альтмана о сверхинтеллекте, пробудили мой интерес и вызвали беспокойство.
📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇
top-mob.com Telegram
По мере того как искусственный интеллект (ИИ) становится все более распространенным и его использование растет, растет беспокойство по поводу стабильности рабочих мест, потенциального устаревания людей и других неотложных вопросов. Те, кто внимательно следит за этой технологией, например Илон Маск, предсказывают крупный технологический скачок с появлением ИИ на горизонте. Однако для его развития может не хватить энергии.
Было обнаружено, что системы искусственного интеллекта, такие как Copilot и ChatGPT, требуют для охлаждения значительного количества воды: примерно 3 бутылки с водой на каждые 100 созданных слов. Несмотря на эти опасения, генеральный директор OpenAI Сэм Альтман по-прежнему с оптимизмом смотрит на реализацию общего искусственного интеллекта (AGI). Однако бывший сотрудник разработчика ChatGPT предупредил, что компании может быть сложно справиться со всеми потенциальными последствиями, связанными с AGI.
В новом блоге, получившем название The Intelligence Age, Сэм Альтман указывает:
В не столь отдаленном будущем, возможно, через несколько тысячелетий, мы сможем достичь сверхразума. Это может занять больше времени, но я оптимистичен, что мы в конечном итоге достигнем этой точки.
Проще говоря, генеральный директор аргументировал свою позицию быстрым прогрессом и общими возможностями глубокого обучения. Что касается Альтмана, он заявил, что мы нашли алгоритм, способный обучаться на любом типе данных (или, по сути, понимать основные закономерности, которые генерируют такие данные). Примечательно, что чем больше вычислительной мощности и данных он имеет доступ, тем точнее он помогает нам решать сложные проблемы.
В течение последних нескольких месяцев ключевые сотрудники компании открыто заявляли о продвижении своих моделей и продуктов искусственного интеллекта. На 27-й глобальной конференции Института Милкена операционный директор OpenAI Брэд Лайткэп намекнул на этот прогресс.
Я считаю, что в ближайшие год или около того наши нынешние системы покажутся устаревшими и даже комичными. Мы ожидаем перехода в будущее, где они будут значительно более продвинутыми.
В другом рассказе Сэм Альтман указал:
Среди всех моделей, с которыми вы можете столкнуться, GPT-4 выделяется как значительно менее совершенная по сравнению с будущими моделями. Делая упор на частые выпуски и постоянное совершенствование, мы выступаем за итеративный подход при развертывании.
Он даже пообещал с высокой научной степенью, что модель GPT-5 от OpenAI будет умнее GPT-4, что он признал: «отстой».
Суперинтеллект – это не прогулка по парку
Хотя Сэм Альтман, генеральный директор OpenAI, стремится достичь сверхразума, он открыто признает, что это начинание будет сопряжено с серьезными проблемами.
Несмотря на то, что нам еще предстоит проработать множество аспектов, важно не отвлекаться на какое-либо конкретное препятствие. Факт остается фактом: глубокое обучение эффективно, и мы решим и преодолеем оставшиеся проблемы.
Даже перед лицом трудностей Альтман недвусмысленно утверждает, что потенциал улучшения ИИ значительно увеличивается с ростом. Ожидается, что это расширение, в свою очередь, приведет к значительному улучшению жизни людей во всем мире, решению таких проблем, как изменение климата, разгадка тайн физики и многому другому.
Эта новость последовала за несколькими членами суперкоманды OpenAI, в том числе соучредителем и главным научным сотрудником Ильей Суцкевером, которые решили покинуть компанию по искусственному интеллекту. Суцкевер объявил о своем уходе, чтобы сосредоточиться на проекте, который он считает значимым для себя — Superintelligence Inc.
OpenAI подвергалась критике за то, что она отдавала предпочтение элегантным инновациям над надежными мерами безопасности, и это подчеркивали некоторые бывшие сотрудники, которые сравнивали ее со злополучным кораблем «Титаник» искусственного интеллекта. В сообщениях говорится, что еще до испытаний приглашения на запуск GPT-4 уже были разосланы, что создало ситуацию, когда группу безопасности поспешно заставили ускорить весь процесс менее чем за неделю, чтобы уложиться в сроки.
В недавнем повороте событий OpenAI снова оказалась в суде из-за обвинений Илона Маска в значительном отклонении от своей первоначальной цели и потенциальных действиях по вымогательству. Еще неизвестно, как OpenAI намерена решать эти различные сложности по мере приближения к порогу сверхразума.
Смотрите также
- Магазин Fortnite на 23.11.2024
- Примечания к раннему патчу Fortnite 32.11: Juice WRLD Chug Cannon, Kit’s Mythics и многое другое
- Интерактивная карта «СТАЛКЕР 2»: найдите все тайники, локации и многое другое в Зоне
- Прогнозы цен на ApeCoin: анализ криптовалюты APE
- Боевой пропуск Fortnite OG появится в предстоящем обновлении Crew
- Прогноз курса доллара к южнокорейской воне
- Режиссер Alan Wake 2 выразил заинтересованность в культовой коллаборации по Fortnite
- Лучшие смартфоны. Что купить в ноябре 2024.
- Обувь прибыла в Fortnite! Да, я Серьезно.
- Как правильно фотографировать ночью
2024-09-25 12:09