Бывшие исследователи OpenAI утверждают, что публичная поддержка Сэмом Альтманом регулирования ИИ — это фасад: «Когда на столе стоит фактическое регулирование, он выступает против него»

Бывшие исследователи OpenAI утверждают, что публичная поддержка Сэмом Альтманом регулирования ИИ — это фасад: «Когда на столе стоит фактическое регулирование, он выступает против него»

Что вам нужно знать

  • OpenAI выступила против предложенного законопроекта об искусственном интеллекте, который продвигает меры и методы безопасности в окружающей среде.
  • Хотя производитель ChatGPT поддерживает некоторые положения законопроекта, он утверждает, что регулирование должно быть «формировано и реализовано на федеральном уровне».
  • Бывшие исследователи OpenAI говорят, что продолжающаяся разработка передовых и сложных моделей ИИ без регулирования потенциально может нанести катастрофический вред людям.

Как опытный исследователь, проявляющий большой интерес к стыку технологий и этики, я глубоко обеспокоен текущим состоянием регулирования ИИ. Недавние события, связанные с противодействием OpenAI SB 1047, предложенному законопроекту, призванному продвигать меры безопасности при разработке ИИ, вызвали жаркие дебаты, которые отражают мои собственные чувства.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


Наблюдая за продолжающейся болтовней, предполагающей неизбежный финансовый крах OpenAI с потерями примерно в 5 миллиардов долларов, я заметил, что создатели ChatGPT выразили несогласие с предложенным законопроектом об искусственном интеллекте (SB 1047), направленным на реализацию мер безопасности, чтобы не допустить выхода технологии за пределы своих возможностей. предполагаемые границы, как сообщает Business Insider.

Конфиденциальность и безопасность являются основными проблемами пользователей, что вызывает немедленную необходимость регулирования и политики. Оппозиция OpenAI предложенному законопроекту вызвала негативную реакцию, в том числе со стороны бывших исследователей OpenAI Уильяма Сондерса и Дэниела Кокотайло.

В письме, посвященном несогласию OpenAI с предложенным законопроектом об искусственном интеллекте, исследователи указывают:

Изначально мы решили сотрудничать с OpenAI, стремясь гарантировать безопасность их передовых технологий искусственного интеллекта. Однако из-за потери веры в их способность безопасно, правдиво и надежно управлять разработкой этих систем ИИ, мы в конечном итоге решили расстаться с OpenAI.

В письме утверждалось, что производитель ChatGPT разрабатывает сложные и продвинутые модели искусственного интеллекта, не принимая тщательно продуманных мер безопасности, чтобы предотвратить их выход из-под контроля.

Похоже, что OpenAI быстро приступила к подготовке к запуску GPT-40, как сообщается, рассылая приглашения перед проведением необходимых тестов. Компания признала, что их команда по безопасности и регулировке столкнулась со значительным давлением, из-за чего у них было ограничено время для тщательного тестирования.

Как технический энтузиаст, я должен выразить свою обеспокоенность по поводу последнего выпуска продукта фирмы. Несмотря на их заявление о том, что во время производства не было срезано ни одного угла, были обвинения в том, что они поставили эстетику на первое место, а не процедуры безопасности. Исследователи предупредили нас о создании моделей ИИ без принятия мер безопасности, заявив, что такой подход потенциально может привести к серьезному общественному вреду в будущем.

Регулирование ИИ имеет решающее значение, но противостоящие силы сильнее

Бывшие исследователи OpenAI утверждают, что публичная поддержка Сэмом Альтманом регулирования ИИ — это фасад: «Когда на столе стоит фактическое регулирование, он выступает против него»

Сэм Альтман, генеральный директор OpenAI, открыто выступает за прямое регулирование. Он предлагает, чтобы технология управлялась так же, как и авиационная промышленность, под надзором международного органа, ответственного за тестирование безопасности этих достижений. Альтман также отметил: «Причина, по которой я выступал за ведомственный подход, а не за законодательство, заключается в том, что в течение года любые написанные законы, скорее всего, будут содержать ошибки».

Как сообщили бывшие сотрудники OpenAI, поддержка Альтманом правил ИИ может показаться искренней, но потенциально может вводить в заблуждение. На самом деле, когда представляются конкретные предложения по регулированию, Альтман, похоже, выступает против них. Однако в интервью Business Insider представитель OpenAI уточнил:

«Мы категорически не согласны с неверной характеристикой нашей позиции по SB 1047». 

В другой переписке директора по стратегии OpenAI Джейсона Квона сенатору Скотту Винеру (спонсору законопроекта в Калифорнии) организация изложила различные основания для своего несогласия с предлагаемым законом. Одна из этих причин подчеркивала, что в идеале регулирование должно разрабатываться и обеспечиваться на федеральном уровне.

По словам директора по стратегии OpenAI Джейсона Квона:

Единая федеральная политика в области ИИ вместо различных государственных постановлений будет способствовать инновациям и позволит США возглавить разработку мировых стандартов ИИ.

Неясно, станет ли законопроект в конечном итоге законом или будут ли приняты предложенные создателем ChatGPT изменения. Исследователи заявили, что мы не можем ждать, пока Конгресс примет меры, поскольку они заявили, что не желают принимать важные правила в отношении ИИ. Если они примут такие правила в будущем, это потенциально может обойти законодательство Калифорнии.

Смотрите также

2024-08-26 17:14