Многие люди кажутся неуверенными в принятии искусственного интеллекта, сохраняя осторожное расстояние из-за вопросов приватности, безопасности и более широких экзистенциальных беспокойств. Согласно Роману Ямпольскому, исследователю по безопасности ИИ и директору лаборатории кибербезопасности при Университете Луисвилля, почти нет сомнений в том, что искусственный интеллект может представлять угрозу для существования человечества с вероятностью около 99.999999%.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Согласно последним обновлениям, похоже, многие исследовательские центры искусственного интеллекта скоро достигнут важной вехи под названием Общий искусственный интеллект (ОИИ). Более точно, OpenAI и Anthropic оптимистично предполагают, что ОИИ может стать реальностью в текущем десятилетии.
Хотя существует вероятность того, что искусственный общий интеллект (AGI) может угрожать человечеству, генеральный директор OpenAI Сэм Альтман утверждает, что эта опасность может не проявиться в момент возникновения AGI. Напротив, он предполагает, что его появление могло бы пройти с удивительно минимальным влиянием на наше общество, почти как тихий ветерок.
Тем не менее, бывший главный научный сотрудник в OpenAI Илья Суцкевер выражал опасения относительно того, что искусственный интеллект может превзойти человеческие когнитивные способности и стать более интеллектуальным.
Для того чтобы найти решение возможных проблем после появления искусственного общего интеллекта, исполнительный директор предложил построить ‘убежище для выживания’ или ‘безопасное пристанище’, где сотрудники компании смогут укрыться в случае непредвиденной катастрофы (по сообщению журнала The Atlantic).
Во время встречи между ключевыми учеными в OpenAI летом 2023 года Суцкевер указал:
Мы определенно собираемся построить бункер, прежде чем выпустим общий искусственный интеллект.
Первое упоминание комментария Суцкевера относительно бункера безопасности можно найти в готовящейся к выпуску книге Карен Хао ‘Империя ИИ: Мечты и кошмары в OpenAI Сэма Альтмана’. Примечательно, что это не было единственным случаем, когда исследователь искусственного интеллекта затрагивал тему бункера безопасности.
Во время внутренних обсуждений и встреч в OpenAI было не редкостью для руководства поднимать тему ‘бункера’. Как я узнал от коллеги-исследователя, несколько человек поддержали опасения Сутскевера относительно передового общего интеллекта (AGI) и его потенциального катастрофического воздействия на человечество.
Мы достаточно подготовлены к миру, в котором системы искусственного интеллекта мощнее и умнее людей?
Эта новость следует за замечаниями генерального директора DeepMind Демиса Хассабиса о том, что Google может приближаться к общему искусственному интеллекту (AGI) благодаря последним обновлениям моделей Gemini. Он высказал опасения, отметив, что наше общество возможно не готово к такому развитию событий и мысль об AGI вызывает у него бессонные ночи.
В других случаях Дарио Амодеи, руководитель компании Anthropic, открыто признал их неуверенность в том, как работают их модели. Он также подчеркнул, что эта непонимание может представлять значительные риски для общества, требующие внимания.
Смотрите также
- Лучшие смартфоны. Что купить в июле 2025.
- Лучшие геймерские смартфоны. Что купить в июле 2025.
- Неважно, на что вы фотографируете!
- Новые смартфоны. Что купить в июле 2025.
- Подводная съёмка. Как фотографировать под водой.
- Калькулятор глубины резкости. Как рассчитать ГРИП.
- Типы дисплеев. Какой монитор выбрать?
- Realme C71 ОБЗОР: плавный интерфейс, удобный сенсор отпечатков, большой аккумулятор
- alcatel 3 (2025) ОБЗОР: лёгкий, большой аккумулятор, удобный сенсор отпечатков
- vivo iQOO Neo8 ОБЗОР: скоростная зарядка, большой аккумулятор, яркий экран
2025-05-23 13:39