Что вам нужно знать
- По словам лауреата Нобелевской премии, его бывший студент Илья Суцкевер, бывший главный научный сотрудник OpenAI, уволил Сэма Альтмана из-за того, что он сосредоточился на получении прибыли, а не на разработке безопасного ИИ.
- Производитель ChatGPT оказался в центре внимания из-за того, что уделил приоритетное внимание разработке блестящих продуктов, в то время как тестирование и безопасность отошли на второй план.
- Сообщается, что компания, занимающаяся искусственным интеллектом, поспешила с запуском своей модели GPT-4o и даже разослала приглашения участникам запуска еще до начала испытаний.
Будучи энтузиастом технологий и страстным поклонником исследований в области искусственного интеллекта, я глубоко обеспокоен последними разработками в OpenAI. Внимательно следя за траекторией исследований ИИ с момента их создания, я всегда восхищался благородными намерениями этой новаторской организации. Однако недавние сообщения о том, что мотивы получения прибыли затмевают проблемы безопасности, вызывают тревогу и тревогу.
📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇
top-mob.com Telegram
В течение последних нескольких месяцев OpenAI привлекал внимание из-за нескольких факторов, одним из которых являются финансовые проблемы, такие как прогнозы о потенциальном банкротстве с предполагаемыми потерями, достигающими примерно 5 миллиардов долларов в следующем году. Кроме того, ключевые руководители, такие как технический директор Мира Мурати и главный научный сотрудник Илья Суцкевер, покинули компанию, и есть предположение, что OpenAI может преобразоваться в коммерческую организацию, чтобы предотвратить враждебные поглощения и внешнее вмешательство. Этот шаг потенциально может привести к возврату инвесторам $6,6 млрд, собранных в ходе недавнего раунда финансирования.
Если вы не слышали, ученые Джон Дж. Хопфилд и Джеффри Э. Хинтон были удостоены Нобелевской премии по физике за новаторские открытия, которые внесли значительный вклад в создание искусственных нейронных сетей. Эта технология широко используется такими технологическими гигантами, как Google и OpenAI, для работы своих поисковых систем и чат-ботов.
Примечательно, что Илья Суцкевер, когда-то работавший главным научным сотрудником OpenAI, ранее был учеником Джеффри Э. Хинтона. Фактически Хинтон признал Суцкевера «умным» учеником, даже признав, что этот ученый в некоторых аспектах перехитрил его и сыграл значительную роль в его работе.
Впоследствии исследователь признал достижения Суцкевера во время его пребывания на посту главного научного сотрудника OpenAI, и в то же время Хилтон воспользовался этим моментом, чтобы выразить обеспокоенность по поводу направления развития ChatGPT под руководством Сэма Альтмана. Он даже предположил, что Альтман ставит прибыль выше безопасности ИИ.
Нобелевский лауреат Джеффри Хинтон говорит, что он особенно гордится тем, что один из его учеников (Илья Суцкевер) уволил Сэма Альтмана, потому что Сэма гораздо меньше беспокоит безопасность ИИ, чем прибыль от r/OpenAI.
Первоначально Сэм Альтман, генеральный директор OpenAI, был временно отстранен от должности советом директоров. Это действие, вызвавшее бурю негодования среди сотрудников и инвесторов из-за последовавшего разногласия, через несколько дней было отменено. Считается, что тогда входящий в совет директоров Игорь Суцкевер поддержал увольнение Альтмана. Примечательно, что после восстановления Альтмана Суцкевер не вернулся на работу, что может свидетельствовать о напряженности в их рабочих отношениях.
Проще говоря, физик обсудил быстрое развитие ИИ и потенциальный риск, который он представляет для человечества. Хилтон предполагает, что мы приближаемся к моменту, когда может быть достигнут сверхразум, развитие, которое может привести к гибели человечества. Однако, по его оценкам, потребуется около 7 триллионов долларов и несколько лет, чтобы построить 36 заводов по производству полупроводников и дополнительные центры обработки данных, чтобы воплотить это в жизнь.
Тем временем Хилтон распределяет свои обязанности, поскольку, по его мнению, у нас может быть еще около четырех лет. Ранее бывший исследователь из OpenAI предположил, что компания, возможно, приближается к важной вехе. Тем не менее, он, возможно, еще не готов полностью решить все, что включает в себя этот шаг.
Безопасность по-прежнему имеет первостепенное значение для OpenAI?
Когда большое количество высокопоставленных чиновников покинуло OpenAI, Ян Лейке, который раньше руководил согласованием, заявил, что у него часто возникали разногласия с руководством по ключевым вопросам разработки моделей ИИ следующего поколения, таким как безопасность, мониторинг, готовность, безопасность и т. д. устойчивость к противникам, (супер)согласованность, конфиденциальность, влияние на общество и многое другое. Эта ситуация навела Лейке на мысль, что компания в первую очередь заинтересована в создании привлекательных продуктов, а вопросы безопасности кажутся второстепенными.
Другой отчет, похоже, поддерживает точку зрения Лейке, поскольку выяснилось, что команде безопасности OpenAI было предложено ускорить процесс тестирования модели GPT-4o. Примечательно, что приглашения на вечеринку, посвященную запуску GPT-4o, якобы были отправлены создателем ChatGPT еще до того, как было проведено какое-либо тестирование. Однако представитель OpenAI утверждает, что запуск был непростым для их команды по безопасности, но утверждает, что они не пошли на компромисс с протоколами безопасности во время запуска продукта.
Ранее в этом году Илья Суцкевер работал главным научным сотрудником OpenAI, но решил уйти, чтобы посвятить себя проекту, который имел для него большое личное значение. Впоследствии он основал Safe Superintelligence Inc., организацию, занимающуюся разработкой безопасного сверхинтеллекта, что является решающим фактором в быстро развивающейся области технологий искусственного интеллекта.
Поначалу уход Суцкевера внешне выглядел незаметным; однако высшие руководители в частном порядке выразили обеспокоенность по поводу потенциального краха фирмы. Говорили, что они пытались уговорить главного научного сотрудника вернуться, но найти подходящую роль для соучредителя в рамках продолжающейся реструктуризации компании оказалось непросто.
Смотрите также
- Магазин Fortnite на 24.12.2024
- Прогнозы цен на Ethereum Name Service: анализ криптовалюты ENS
- Что такое кроп-фактор. Разница между DX и FX камерами.
- Калькулятор глубины резкости. Как рассчитать ГРИП.
- Honor начинает выпуск бета-версии MagicOS 9.0
- Что такое ISO в фотоаппарате
- Как научиться фотографировать. Инструкция для начинающих.
- Прогноз курса доллара к южнокорейской воне
- Слитое в сеть туалет Skibidi x Fortnite
- Автофокус. В чём разница между AF-S и AF объективами.
2024-10-10 18:10