Сэм Альтман прогнозирует, что цены на ИИ будут падать в 10 раз ежегодно после запуска ChatGPT за 200 долларов!

Недавно я наткнулся на запись в блоге Сэма Альтмана, генерального директора OpenAI, в которой он подробно изложил три своих важных идеи об ускоренном развитии общего искусственного интеллекта. В частности, он намекнул на ожидаемое снижение стоимости ИИ, которая может потенциально упасть в десять раз каждый год.

🚀 Хочешь взлететь так, что даже твоя бабушка обзавидуется?
Ракета шлёт сигналы, от которых успех сам стучится в дверь. Ну, почти...

Лететь в Telegram

По словам Альтмана, стоимость использования определенного уровня ИИ уменьшается примерно в десять раз каждый год, и по мере снижения цен значительно увеличивается использование. Например, цена за токен для GPT-4 упала примерно в 150 раз с начала 2023 года до середины 2024 года, когда он стал GPT-4o. Эта скорость изменения намного превышает закон Мура, который удваивается только каждые 18 месяцев.

В подробном и обширном сообщении в блоге Сэм Альтман перечислил следующие основные моменты:

  1. Интеллект модели ИИ примерно равен логарифму ресурсов, использованных для ее обучения и запуска.
  2. Стоимость использования определенного уровня ИИ снижается примерно в 10 раз каждые 12 месяцев, а более низкие цены приводят к гораздо более широкому использованию.
  3. Социально-экономическая ценность линейного роста интеллекта носит сверхэкспоненциальный характер.

Проще говоря, основные выводы Альтмана, по-видимому, сосредоточены на последних достижениях в области искусственного интеллекта. Например, он подчеркивает появление DeepSeek, более доступной альтернативы ChatGPT Pro от OpenAI, которая стоит $200. Кроме того, он упоминает, что последние тенденции указывают на то, что законы масштабирования могут замедлять рост и эволюцию продвинутых моделей ИИ.

DeepSeek заметно выделяется среди игроков отрасли ИИ, демонстрируя, что стартапам не всегда нужны значительные финансовые ресурсы, чтобы оказать влияние в области ИИ.

Первоначально сообщалось, что исследовательская группа, связанная с заявкой, заявила, что их компания инвестировала всего $6 млн в обучение своей модели ИИ. Однако более поздние новости бросили негативный свет на этот китайский стартап после обвинений в том, что они незаконно использовали защищенные авторским правом материалы от Microsoft и OpenAI для обучения своего так называемого «сверхрентабельного» ИИ. Кроме того, в другом отчете утверждалось, что компания потратила около $1,6 млрд и использовала 50 000 чипов NVIDIA AI при разработке своей модели ИИ.

Хотя модель широко хвалили, в первую очередь из-за ее открытого исходного кода, она подверглась значительной «крупномасштабной кибератаке», которая заставила компанию ИИ временно приостановить регистрацию новых пользователей. Сэм Альтман утверждает, что экономическая ценность, получаемая от линейного увеличения интеллекта, увеличивается экспоненциально. Далее он заявил: «Учитывая это, мы не предвидим необходимости замедления экспоненциально растущих инвестиций в ближайшем будущем», — заключил он.

Вызывает беспокойство тот факт, что на сайте DeepSeek было обнаружено вредоносное программное обеспечение, которое, как сообщается, передавало данные пользователей китайскому правительству без соответствующего одобрения, несмотря на действующий запрет США.

По сути, Альтман подчеркивает, что интеллект модели ИИ в значительной степени зависит от ресурсов, выделенных на ее обучение и функционирование. Более конкретно, эти ресурсы включают вычислительную мощность для обучения, данные и вычислительную мощность для вывода. Кажется, что, инвестируя больше денег, можно ожидать последовательных и надежных улучшений; законы масштабирования, предсказывающие это, были найдены точными в широком диапазоне величин.

Комментарии Альтмана последовали за заявлением OpenAI, сделанным несколько недель назад, о вложении 500 миллиардов долларов в проект под названием Stargate, цель которого — построить центры обработки данных по всей территории США, тем самым способствуя прогрессу технологий искусственного интеллекта.

В предыдущем году было высказано предположение, что ведущие исследовательские центры ИИ, такие как OpenAI, Google и Anthropic, испытывают трудности с созданием сложных моделей ИИ из-за нехватки первоклассных учебных материалов. Однако Янн Лекун и бывший генеральный директор Google Эрик Шмидт оспорили это мнение, заявив, что нет никаких конкретных доказательств того, что законы масштабирования препятствуют развитию технологий ИИ. Альтман далее подчеркнул: «Нет никаких барьеров.

Смотрите также

2025-02-11 15:16