Что вам нужно знать
- Сэм Альтман утверждает, что ИИ будет достаточно умен, чтобы решить последствия быстрого развития ландшафта, включая уничтожение человечества.
- Генеральный директор надеется, что исследователи придумают, как не дать ИИ уничтожить человечество.
- Альтман указал, что AGI может быть достигнут раньше, чем ожидалось, а также заявил, что выраженные опасения по поводу безопасности не проявятся в этот момент, поскольку он пронесется с «на удивление небольшим» социальным воздействием.
Как человек, который провел десятилетия, наблюдая и участвуя в технологической индустрии, я должен признать, что быстрый прогресс в области искусственного интеллекта, особенно генеративного искусственного интеллекта, одновременно волнует и беспокоит меня. С одной стороны, я восхищаюсь прогрессом, достигнутым такими компаниями, как OpenAI, и потенциалом ИИ для решения некоторых из наиболее насущных проблем человечества. С другой стороны, я не могу избавиться от мучительного ощущения, что мы играем с огнем: возможность создания неконтролируемой сверхразумной системы искусственного интеллекта — это реальная и устрашающая перспектива.
📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇
top-mob.com Telegram
Помимо проблем безопасности и конфиденциальности, связанных с быстрым развитием генеративного ИИ, потенциал дальнейшего прогресса в этой области представляет собой значительный риск. Ведущие технологические компании, такие как Microsoft, Google, Anthropic и OpenAI, принимают в этом активное участие, но отсутствие правил для контроля за его развитием вызывает тревогу. Это связано с тем, что может стать сложно осуществлять контроль, если/когда ИИ отклонится от установленных границ и потенциально выйдет из-под контроля.
На саммите New York Times Dealbook Summit, отвечая на вопрос, верит ли он, что кто-то сможет найти решение потенциальных опасностей, связанных с передовыми системами искусственного интеллекта, генеральный директор OpenAI Сэм Альтман высказал оптимизм.
Я уверен, что рассматриваемые технические вопросы будут решены исследователями. Поскольку некоторые из самых ярких умов во всем мире работают над этими проблемами, я надеюсь и в некоторой степени оптимистичен, что они найдут решение.
Сейчас, когда я стою здесь, мне кажется, что руководитель намекает на будущее, в котором ИИ потенциально сможет обладать интеллектом, позволяющим самостоятельно справиться с кризисом.
Вместо магии мы обладаем выдающимся научным прорывом, известным как глубокое обучение, способным помочь нам в решении сложных проблем.
Весьма тревожно то, что другой отчет предполагает чрезвычайно высокую вероятность, почти 100%, того, что продвинутый ИИ может привести к падению человечества, как и предсказывает p(doom). Чтобы уточнить, p(doom) — это термин, используемый в этом контексте для описания ситуации, когда ИИ может превзойти человеческий интеллект и потенциально представлять угрозу нашему существованию. Исследователь, проводивший исследование, Роман Ямпольский, предупреждает, что как только мы достигнем уровня сверхразумного ИИ, контролировать его действия будет практически невозможно. Поэтому, по мнению Ямпольского, лучшее решение избежать этой проблемы — вообще не развивать ИИ.
Как аналитик, я наблюдаю изменение траектории OpenAI в отношении достижения общего искусственного интеллекта (AGI). Сэм Альтман, ключевая фигура в OpenAI, намекнул, что мы можем достичь этой вехи раньше, чем ожидалось. Вопреки распространённым предположениям, г-н Альтман предполагает, что социальные последствия достижения этого показателя будут на удивление минимальными.
Одновременно Сэм Альтман написал статью, в которой предсказал, что до сверхразума может быть всего «несколько тысяч дней». Тем не менее, генеральный директор подчеркнул, что упомянутые им опасения по поводу безопасности не обязательно связаны с появлением общего искусственного интеллекта (AGI).
Переход к AGI может оказаться непростой задачей
OpenAI балансировала на грани банкротства, и прогнозы предполагали потенциальные потери в размере до 5 миллиардов долларов в ближайшем будущем. Однако спасительные вливания средств поступили от нескольких инвесторов, таких как Microsoft и NVIDIA, на общую сумму 6,6 миллиарда долларов в раунде финансирования. Эти значительные инвестиции увеличили рыночную капитализацию OpenAI до впечатляющих 157 миллиардов долларов.
Тем не менее, раунд финансирования столкнулся с некоторыми проблемами, такими как необходимость преобразоваться в ориентированную на прибыль организацию в течение двух лет или столкнуться с возвратом инвестированного капитала. Эта ситуация может привести к таким осложнениям, как внешнее вмешательство и потенциальные приобретения со стороны таких корпораций, как Microsoft, которые, как предполагается, купят OpenAI в следующие три года.
Вполне возможно, что у OpenAI был напряженный рабочий день, когда он пытался убедить заинтересованные стороны поддержать это изменение. Ранее соучредитель OpenAI Илон Маск, ныне генеральный директор Tesla, подал два иска против OpenAI и Сэма Альтмана. Он утверждает, что они существенно отклонились от своей первоначальной миссии и занялись сомнительной деятельностью, например рэкетом.
По мнению рыночных аналитиков и экспертов, энтузиазм инвесторов в отношении сектора искусственного интеллекта, похоже, снижается. Это потенциально может привести к тому, что они отзовут свои инвестиции и перенаправят их в другое место. В сопроводительном отчете также говорится, что около одной трети (30%) проектов, ориентированных на ИИ, могут быть прекращены к 2025 году после демонстрации их осуществимости.
Было высказано предположение, что ведущие исследовательские центры ИИ, включая OpenAI, сталкиваются с трудностями при разработке сложных моделей ИИ, поскольку им не хватает адекватных высококачественных данных для целей обучения. Однако генеральный директор OpenAI Сэм Альтман опроверг эти утверждения, заявив, что нет никаких препятствий для расширения масштабов и достижения дальнейшего прогресса в области технологий искусственного интеллекта. Бывший генеральный директор Google Эрик Шмидт поддержал точку зрения Альтмана, предположив, что в настоящее время нет доказательств того, что законы, регулирующие масштабируемость, начали замедлять прогресс.
Смотрите также
- Когда начнется Winterfest 2024 в Fortnite? Окно даты релиза утекло в сеть
- Магазин Fortnite на 15.12.2024
- Где найти подземную скрытую мастерскую Дайго — Fortnite, глава 6, сезон 1
- Что такое светосила. Какой светосильный объектив выбрать.
- Баллистический режим от первого лица 5 на 5 в Fortnite уже доступен
- Как научиться фотографировать. Инструкция для начинающих.
- Прогнозы цен на Cardano: анализ криптовалюты ADA
- Автофокус. В чём разница между AF-S и AF объективами.
- Обзор фотокамеры Nikon D90.
- Fortnite: все места секретных хранилищ в главе 6 | Ключ от хранилища
2024-12-06 12:09