Что вам нужно знать
- Сэм Альтман утверждает, что ИИ будет достаточно умен, чтобы решить последствия быстрого развития ландшафта, включая уничтожение человечества.
- Генеральный директор надеется, что исследователи придумают, как не дать ИИ уничтожить человечество.
- Альтман указал, что AGI может быть достигнут раньше, чем ожидалось, а также заявил, что выраженные опасения по поводу безопасности не проявятся в этот момент, поскольку он пронесется с «на удивление небольшим» социальным воздействием.
Как опытный технический аналитик с более чем двадцатилетним опытом работы за плечами, я не могу не чувствовать смесь волнения и трепета, когда размышляю о текущем состоянии развития ИИ. С одной стороны, мы являемся свидетелями революционных достижений, которые могут произвести революцию в нашем мире так, как мы даже не можем себе представить. С другой стороны, риски, связанные с такими быстрыми успехами, несомненно, устрашают.
Помимо проблем, связанных с безопасностью и конфиденциальностью, которые возникают в связи с быстрым развитием генеративного искусственного интеллекта, существует значительный риск того, что в этой области могут произойти новые достижения. Крупные технологические компании, такие как Microsoft, Google, Anthropic и OpenAI, активно занимаются этой областью, однако отсутствие правил ее разработки вызывает серьезную обеспокоенность. Это связано с тем, что может оказаться сложно осуществлять контроль над ИИ, если/когда он отклоняется от намеченного пути и бесконтрольно обостряется.
📊 Хочешь понимать, куда дует ветер на рынке? ТопМоб — мощная аналитика, без воды и хайпа. Не прозевай разворот!
Включай мозг — подписывайсяНа саммите New York Times Dealbook Summit, когда генерального директора OpenAI Сэма Альтмана спросили, верит ли он, что будет найдено решение, позволяющее обойти потенциальные опасности, исходящие от передовых систем искусственного интеллекта, которые могут представлять экзистенциальные риски, он предположил:
Я уверен, что исследователи найдут решения, позволяющие предотвратить подобные проблемы. Существуют сложные технические препятствия, которые предстоит преодолеть некоторым из самых ярких умов мира. Честно говоря, я склонен к оптимизму и верю, что они успешно преодолеют эти трудности.
В более позднем обсуждении подразумевалось, что ИИ потенциально может обладать интеллектом, необходимым для самостоятельного разрешения кризиса.
Вместо магии мы обладаем выдающимся научным прорывом, известным как глубокое обучение, способным решать самые сложные проблемы.
Тревожно отметить, что отдельное исследование предполагает чрезвычайно высокую вероятность, почти уверенность (99,999999%), что продвинутый ИИ может привести к падению человечества, на что указывает p (гибель). Проще говоря, p(doom) означает возможность того, что ИИ перехитрит нас или даже станет причиной нашего вымирания. Роман Ямпольский, эксперт по безопасности ИИ, предупреждает, что как только мы достигнем уровня сверхразума, контролировать ИИ станет практически невозможно. Его решение этой проблемы — вообще не развивать ИИ.
Похоже, что OpenAI добивается прогресса в достижении эталона AGI (искусственный общий интеллект) раньше, чем ожидалось, как предполагает Сэм Альтман. Однако, вопреки мнению многих, он предполагает, что эта веха может пройти с относительно незначительными последствиями для общества, что удивит некоторых людей.
Одновременно Сэм Альтман написал статью, в которой утверждалось, что сверхразум может появиться всего через несколько тысяч дней в нашем будущем. Тем не менее, генеральный директор дал понять, что поднятые им проблемы безопасности не возникают при реализации общего искусственного интеллекта (AGI).
Переход к AGI может оказаться непростой задачей
OpenAI, находившаяся в критическом финансовом положении, столкнулась с потенциальным банкротством и прогнозировала убытки в размере около 5 миллиардов долларов в ближайшие месяцы. Однако спасительная кредитная линия была предоставлена несколькими инвесторами, такими как Microsoft и NVIDIA, во время раунда финансирования, который принес 6,6 миллиарда долларов. В результате рыночная капитализация компании выросла до впечатляющих $157 млрд.
Раунд финансирования вызвал множество проблем, одна из которых заключалась в необходимости в течение двух лет превратиться в компанию, ориентированную на получение прибыли, или же вернуть средства, вложенные спонсорами. Эта трансформация может подвергнуть создателя ChatGPT потенциальным проблемам, таким как внешнее влияние и враждебные поглощения со стороны таких корпораций, как Microsoft, которые, по мнению экспертов, могут приобрести OpenAI в ближайшие три года.
Вполне возможно, что OpenAI мог бы провести удлиненный рабочий день, пытаясь убедить инвесторов поддержать эту трансформацию. Ранее один из соучредителей OpenAI Илон Маск (который также является генеральным директором Tesla) подал два иска против OpenAI и Сэма Альтмана. В исках OpenAI обвиняется в существенном нарушении своей первоначальной цели и предполагает соучастие в мошеннических действиях.
Эксперты и аналитики финансового рынка предполагают снижение энтузиазма инвесторов по отношению к сектору ИИ, что может привести к тому, что они выведут свои средства и перенаправят их в другое место. Другое исследование подтверждает эту точку зрения и предполагает, что около трети инициатив, ориентированных на искусственный интеллект, могут быть заброшены к 2025 году, как только будет продемонстрировано подтверждение концепции.
Было высказано предположение, что некоторые ведущие исследовательские центры ИИ, такие как OpenAI, сталкиваются с трудностями при разработке сложных моделей ИИ, поскольку у них недостаточно первоклассных данных для использования для обучения. Однако генеральный директор OpenAI Сэм Альтман оспаривает это утверждение, заявляя, что нет никаких препятствий, препятствующих дальнейшему росту и развитию технологий искусственного интеллекта. Бывший генеральный директор Google Эрик Шмидт поддержал мысли Альтмана, предположив, что в настоящее время нет доказательств того, что законы масштабирования начали замедлять прогресс в разработке ИИ.
Смотрите также
- Магазин Fortnite на 19.04.2025
- От запугивания любопытства до культурного колосса: 20-летняя история YouTube
- 10 лучших OLED ноутбуков. Что купить в апреле 2025.
- 10 лучших игровых ноутбуков. Что купить в апреле 2025.
- Лучшие ноутбуки с матовым экраном. Что купить в апреле 2025.
- Финансовые рынки сегодня: Ожидание разговора Путина и Трампа и интересные облигации (13 апреля 2025)
- Лидеры роста и падения
- Неважно, на что вы фотографируете!
- Подробный отчет о состоянии финансовых рынков
- Рейтинг лучших скам-проектов
2024-12-06 12:39