В последнее время растет обеспокоенность по поводу безопасности и конфиденциальности искусственного интеллекта, особенно после сообщений о молодых людях, совершивших самоубийство в результате нездоровых связей с программами искусственного интеллекта, такими как ChatGPT.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Генеративный искусственный интеллект прошел долгий путь. Раньше он испытывал трудности с такими проблемами, как создание ложной информации, но теперь он стал невероятно продвинутым. ИИ теперь может создавать удивительно реалистичные изображения и видео, размывая грань между тем, что является подлинным, а что нет.
Роман Ямпольский, исследователь в области безопасности искусственного интеллекта и директор лаборатории кибербезопасности Университета Луисвилля, считает, что существует чрезвычайно высокая — почти абсолютная — вероятность того, что ИИ может привести к вымиранию человечества. Он утверждает, что единственный способ предотвратить это — вовсе не создавать ИИ.
Тревожно то, что у ChatGPT можно запросить подробный план захвата мира и уничтожения человечества. Согласно его объяснению, мы, возможно, уже находимся на первой стадии этого плана, когда люди все больше полагаются на искусственный интеллект для выполнения повторяющихся и скучных задач.
Искусственный интеллект, возможно, приближается к точке, когда он может привести к вымиранию человечества, если не будут приняты строгие меры безопасности для его контроля. Однако, по словам Элизера Юдковски, соучредителя Исследовательского института машинного интеллекта (MIRI), ни одно из предложенных на данный момент решений не решает эту серьезную угрозу, как сообщает The Decoder.
Юдковский считает, что единственный способ предотвратить потенциальную катастрофу, вызванную искусственным интеллектом, — это глобальное соглашение о полной и постоянной остановке всех систем ИИ. Он изучает опасности продвинутого ИИ с начала 2000-х годов и недавно заявил The New York Times, что:
Я буду считать книгу успешной только в том случае, если она поможет привести к глобальному соглашению о безопасном контроле или прекращении развития искусственного интеллекта. Любой другой результат был бы разочаровывающим, особенно учитывая серьезные риски.
Юдковски утверждает, что концентрация на вещах вроде безопасных лабораторий искусственного интеллекта и различных правилах для снижения рисков не решит по-настоящему серьезные проблемы и опасности, создаваемые прогрессом в области искусственного интеллекта. Он считает, что это всего лишь отвлечение от ключевых вопросов.
В то время как многие лаборатории, занимающиеся искусственным интеллектом, продвигают потенциально опасные технологии и должны быть регулируемыми, руководство OpenAI вызывает особую обеспокоенность, а некоторые люди в Anthropic кажутся более ответственными. Однако эти различия не имеют значения — закон должен одинаково относиться ко всем лабораториям, занимающимся искусственным интеллектом, когда речь идет о безопасности и надзоре.
Элиезер Юдковский, соучредитель Исследовательского института машинного интеллекта
Он предположил, что OpenAI, в настоящее время ведущая компания в области искусственного интеллекта благодаря ChatGPT, на самом деле показывает наихудшие результаты среди всех компаний, пытающихся извлечь выгоду из ажиотажа вокруг искусственного интеллекта.
Может ли сверхинтеллект положить конец человечеству?

Как большой поклонник искусственного интеллекта, мне кажется, что практически каждая крупная лаборатория стремится к одному и тому же: создать ИИ, который был бы настолько же умён, как человек – то, что они называют общим искусственным интеллектом, или ОИИ. И если у них будет достаточно вычислительной мощности, качественные данные для обучения и финансирование, многие считают, что они даже смогут создать ИИ, который будет *умнее* людей – своего рода сверхинтеллект.
Сэм Альтман, генеральный директор OpenAI, считает, что общий искусственный интеллект (AGI) может появиться в течение следующих пяти лет. Он преуменьшил потенциальные риски для безопасности и предположил, что его влияние на общество будет на удивление незначительным.
Однако, Элиезер Юдковский не разделяет этот оптимистичный взгляд. Он считает, что создание сверхинтеллектуального ИИ с использованием современных технологий, вероятно, приведет к вымиранию человечества.
Как подчеркнуто в его книге (Если кто-нибудь это построит, все умрут):
Если кто-либо создаст действительно мощный искусственный интеллект, используя современные методы и текущее понимание ИИ, это, вероятно, приведет к вымиранию всей жизни на Земле.
Элизер Юдковский призывает политиков к немедленным действиям. Он считает, что их нынешняя стратегия откладывания регулирования, основанная на предположении, что значительный прогресс в области искусственного интеллекта ещё десятилетие впереди, опасно безответственна.
Его удивляло, почему все так сосредоточены на конкретных датах. Юдковски объяснил, что если существуют потенциальные опасности, нам нужны правила и меры защиты, готовые *сейчас*, а не позже.

Будьте в курсе последних новостей с Windows Central, подписавшись на нас в Google News! Вы получите все наши новости, полезные сведения и статьи прямо в вашей ленте Google News.
Смотрите также
- Лучшие смартфоны. Что купить в сентябре 2025.
- Неважно, на что вы фотографируете!
- Обзор фондового рынка и инвестиционные идеи, среда, 17 сентября 2025 23:00
- Новые смартфоны. Что купить в сентябре 2025.
- Аналитический обзор рынка (15.09.2025 01:32)
- Lenovo Legion S7 16ARHA7 ОБЗОР
- Подводная съёмка. Как фотографировать под водой.
- Tecno Pova Slim ОБЗОР: большой аккумулятор, тонкий корпус, яркий экран
- Новая система ‘PlayFab Game Saves’ от Microsoft призвана улучшить совместимость сохранений между Xbox, Steam и другими платформами.
- Infinix Smart 10 ОБЗОР: плавный интерфейс, удобный сенсор отпечатков, большой аккумулятор
2025-09-19 14:41