С моей точки зрения, кажется, что, несмотря на продолжающиеся проблемы в области крупных технологических лабораторий искусственного интеллекта, таких как OpenAI, Anthropic и Google, в их стремлении создать сложные системы искусственного интеллекта из-за проблем масштабирования, вызванных недостатком высококачественного контента для обучения моделей, прогресс в области генеративного искусственного интеллекта остается устойчивым. Примечательно, что генеральный директор OpenAI Сэм Альтман намекнул, что разработка общего искусственного интеллекта (AGI) может произойти раньше, чем ожидалось, а до появления сверхинтеллекта осталось всего «несколько тысяч дней».
📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇
top-mob.com Telegram
Помимо беспокойства по поводу конфиденциальности и безопасности с помощью ИИ, многие люди опасаются этой технологии из-за возможности, что она может привести к нашему исчезновению. Роман Ямпольский, исследователь безопасности ИИ и директор Лаборатории кибербезопасности в Университете Луисвилля, оценивает вероятность того, что ИИ может привести к вымиранию человечества, составляет 0,000001%. По мнению Ямпольского, чтобы предотвратить такой исход, возможно, было бы разумно вообще не развивать ИИ.
Чтобы не дать ИИ выйти из-под контроля или стать слишком могущественным, Виталик Бутерин, один из основателей Эфириума, предлагает внедрить «всемирный механизм аварийной остановки», который можно было бы использовать для остановки технологий во всем мире, если это необходимо, тем самым защитив человечество от захвата это.
По словам Бутерина:
Цель состоит в том, чтобы разработать средства, позволяющие значительно снизить глобальную доступную вычислительную мощность на 90-99% примерно на один-два года на решающем этапе. Это временное сокращение может дать человечеству дополнительное время для адекватной подготовки. Важно отметить, что один год подготовки к чрезвычайным ситуациям потенциально может приравняться к прогрессу, достигнутому за столетие при нормальных обстоятельствах. Были рассмотрены различные методы реализации этой «паузы», такие как обязательная регистрация и проверка местоположения оборудования.
Канадский программист предполагает, что интеллектуальная криптографическая техника может стать сложным методом снижения рисков, связанных с ИИ. Он выступает за интеграцию надежного чипа в крупномасштабное оборудование искусственного интеллекта. Этот чип будет функционировать только в том случае, если он будет получать три цифровые подписи каждую неделю от крупных международных организаций, по крайней мере одна из которых не является военной.
Как исследователь, я подчеркнул, что предлагаемые нами подписи будут универсально применимы, то есть они смогут функционировать независимо от используемого устройства (и, если необходимо, мы могли бы даже реализовать систему доказательства с нулевым разглашением, проверяющую их публикацию в блокчейне). Этот подход «все или ничего» подразумевает, что разрешение одного устройства на продолжение функционирования автоматически предоставляет авторизацию всем остальным устройствам.
Кроме того, я намекнул на механизм, при котором пользователям потребуется еженедельно повторно подключаться к сети для получения подписей. Реализация этого требования к частому подключению направлена на то, чтобы препятствовать распространению нашей системы на повседневное потребительское оборудование, поскольку неудобство регулярного подключения может сдерживать широкое распространение в таких контекстах.
Сэм Альтман, генеральный директор OpenAI, предсказывает, что продвинутый ИИ будет обладать интеллектом, чтобы справиться с последствиями быстрого технического прогресса, даже потенциально угрожающими существованию человечества. Интересно, что он предполагает, что опасения по поводу безопасности могут не возникнуть в момент достижения общего искусственного интеллекта (AGI), поскольку влияние на общество может оказаться «на удивление минимальным». Тем не менее, Альтман подчеркивает необходимость регулирования разработки ИИ на международном уровне, подобно тому, как самолеты управляются глобальными агентствами, чтобы обеспечить надлежащее тестирование безопасности и надзор за этими достижениями.
Бутерин выступает за этот метод по разным причинам, например, из-за его способности остановить процесс, если есть ранние признаки потенциального катастрофического ущерба, при этом вызывая минимальное вмешательство в работу разработчиков.
Смотрите также
- Магазин Fortnite на 08.01.2025
- Игрок Fortnite косплеит скин Человека-бензопилы с косметикой
- Honor начинает выпуск бета-версии MagicOS 9.0
- Прогнозы цен на Virtuals Protocol: анализ криптовалюты VIRTUAL
- vivo iQOO 13 ОБЗОР: мощный процессор, чёткое изображение, портретная камера
- Сообщается, что Adidas создает настоящую обувь на основе Peely из Fortnite
- Лучшие геймерские смартфоны. Что купить в январе 2025.
- Новые смартфоны. Что купить в январе 2025.
- Прогнозы цен на Ethereum Name Service: анализ криптовалюты ENS
- Honor Choice Earbuds X
2025-01-06 14:09