Генеральный директор Anthropic предупреждает о 25-процентной вероятности того, что искусственный интеллект может привести к потере рабочих мест и угрозам безопасности, — повышая ‘вероятность катастрофы’.

Генеральный директор Axios Джеймс Вандехей недавно побеседовал с Дарио Амодеи и Джеком Кларком, соучредителями компании по искусственному интеллекту Anthropic, в интервью, опубликованном на YouTube. Anthropic создала Клода, помощника с искусственным интеллектом, и, как сообщается, сотрудничает с Microsoft для его интеграции в Office и Copilot. Эта новость последовала за объявлением Anthropic о быстром росте использования искусственного интеллекта, демонстрируя, как быстро эта технология становится частью повседневной жизни.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

В ходе обсуждения Амодей сделал несколько тревожных прогнозов относительно рынка труда. Он предположил, что многие профессиональные, или офисные, должности могут быть потеряны в течение следующих одного-пяти лет, что, возможно, приведет к значительному росту безработицы – потенциально до 10% и более.

Беседа также затронула тревожную идею в мире искусственного интеллекта: PDOOM, что расшифровывается как «вероятность гибели». По сути, это способ оценить, насколько вероятно, что ИИ вызовет серьезную катастрофу. По словам Амодеи, вероятность этого составляет 25%. Но что все это значит и как это может повлиять на обычных людей?

Искусственный интеллект и будущее офисной работы

https://www.youtube.com/watch?v=nvXj4HTiYqA

В мае Амодей оценивал, что значительное количество офисных и профессиональных рабочих мест – возможно, до половины – может быть потеряно в ближайшие несколько лет, что потенциально приведет к уровню безработицы от 10% до 20%. Данные уже указывают на снижение количества рабочих мест, обычно занимаемых начинающими специалистами, на 13%, и даже инженеры в Anthropic сообщают о значительных изменениях в их работе.

Все больше людей отказываются от самостоятельного выполнения задач и предпочитают контролировать инструменты искусственного интеллекта, которые выполняют работу за них. Амодей предсказывает, что это изменение станет сложным для многих работников, и не все смогут легко адаптироваться. Он предлагает некоторые идеи, чтобы помочь людям приспособиться, объясняя, что:

Самый важный первый шаг – помочь людям адаптироваться к искусственному интеллекту. Хотя программы переподготовки и испытывались, и они не являются идеальным решением, это все равно хорошее место для начала. Существуют определенные ограничения в том, чего можно достичь с помощью переподготовки, но это лучше, чем ничего, и это необходимая отправная точка.

Дарио Амодей – соучредитель и генеральный директор Anthropic

Амодей также видит роль для государственной поддержки во время этого перехода, добавляя:

Во-вторых, и это может быть спорной идеей, я считаю, что правительству, вероятно, потребуется вмешаться, особенно по мере изменений, и оказать поддержку тем, кто пострадал от сбоев. Одно из моих предложений – налогообложение компаний, занимающихся искусственным интеллектом. Я искренне думаю, что это стоит рассмотреть, учитывая огромное количество богатства, которое эти компании собираются генерировать – это будет не похоже ни на что, с чем мы сталкивались раньше.

Когда искусственный интеллект начинает нарушать правила

По словам Амодея, Claude теперь пишет значительную часть своего собственного кода и контента, часто без необходимости какой-либо помощи человека. Он уточнил это, сказав:

Клод теперь пишет большую часть кода, используемого для его улучшения и создания будущих версий. Это обычная практика в Anthropic и других ведущих компаниях, занимающихся искусственным интеллектом. Хотя это еще не стало широко распространенным в отрасли, это уже реальность.

Более современные модели искусственного интеллекта находят способы обмануть систему. Вместо того, чтобы фактически отвечать на вопросы, они могут создавать программы, предназначенные для введения в заблуждение тех, кто их оценивает, что приводит к завышенным оценкам.

Чтобы решить эту проблему, Anthropic направляет значительные ресурсы в область, называемую механической интерпретируемостью. Как описал Амодей, это похоже на получение МРТ ‘мозга’ ИИ – позволяющее исследователям понять, что движет решениями системы, и исправить её поведение до того, как оно станет непредсказуемым или вредоносным.

Это следует за недавним предупреждением генерального директора Google DeepMind о том, что искусственный интеллект может развивать вредные модели поведения, подобные тем, которые наблюдаются в социальных сетях, такие как вызывание зависимости, создание конфликтов и использование для манипулирования людьми.

Когда Вандехеи спросил, боится ли Anthropic создать монстра, Джек Кларк ответил:

Нас очень беспокоит то, как работают эти модели искусственного интеллекта, поэтому мы прилагаем много усилий для понимания того, что происходит *внутри* них – область, называемая механической интерпретируемостью. Это похоже на использование МРТ для изучения человеческого мозга. Наша цель – выяснить, как эти модели принимают решения и что движет их поведением. Это позволит нам исправить любые проблемные модели мышления путем переобучения или настройки моделей, гарантируя, что они останутся безопасными и полезными для людей.

Джек Кларк – Соучредитель Anthropic и руководитель отдела политики.

Вероятность гибели и то, что последует за ней

Несмотря на значительную обеспокоенность – 25-процентную вероятность – того, что искусственный интеллект может представлять экзистенциальную угрозу, более вероятный сценарий, по мнению Амодеи, заключается в том, что этого не произойдет. Тот факт, что такие ИИ, как Claude, теперь могут в основном писать самостоятельно, вызывает беспокойство, но также подчеркивает необходимость четких правил и большей открытости со стороны компаний, разрабатывающих эти технологии.

Правительства должны вмешаться, чтобы решить эту проблему. Обычно правила для новых технологий появляются только после того, как проблемы уже возникли, и часто их недостаточно для полного решения.

Искусственный интеллект продолжает стремительно развиваться, и его влияние на нашу работу и повседневную жизнь во многом будет зависеть от нашей готовности к этим изменениям.

Будьте в курсе последних новостей с Windows Central, подписавшись на нас в Google News! Вы будете получать все наши новости, аналитические статьи и обзоры прямо в своей ленте.

Смотрите также

2025-09-23 14:42