Генеральный директор OpenAI только что признал, что у его новых AI-агентов есть серьезная проблема с безопасностью — они могут стать лучшим другом хакера.

Современные передовые исследования в области искусственного интеллекта выходят далеко за рамки базовых чат-ботов. Эта технология сейчас меняет способы ведения бизнеса, автоматизируя рутинные задачи, что может привести к потере рабочих мест для некоторых работников.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Я внимательно слежу за развитием искусственного интеллекта, и в последнее время много говорят о том, сталкиваются ли такие компании, как OpenAI, Anthropic и Google, с ограничениями. Некоторые сообщения предполагали, что они натыкаются на ‘стену масштабирования’ – по сути, они не могут создавать более продвинутый AI, потому что у них заканчиваются хорошие данные для обучения. Но Сэм Альтман из OpenAI быстро опроверг эти утверждения, заявив, что никакой стены нет. Это довольно интересная дискуссия, и мне любопытно, как она будет развиваться!

Недавно руководитель признал, что программы ИИ быстро становятся реальной угрозой, особенно по мере того, как они становятся более мощными и сложными. Хотя эти программы могут делать много положительных вещей, они также могут выявлять серьезные недостатки в системе безопасности, которыми могут воспользоваться злоумышленники, причинив значительный ущерб, если эти слабые места не будут быстро устранены.

Руководитель объяснил, что ИИ значительно улучшился за последний год и теперь способен справляться со сложными задачами. Однако эта технология также может быть использована не по назначению для создания опасностей в реальном мире.

Мы ищем руководителя отдела подготовки, чтобы помочь нам ориентироваться в быстро меняющемся ландшафте искусственного интеллекта. Модели ИИ становятся все более мощными и предлагают невероятный потенциал, но также представляют новые и значительные вызовы. Мы особенно сосредоточены на понимании и смягчении потенциального воздействия этих моделей на психическое здоровье. (Примечание: Эта оценка была последний раз обновлена 27 декабря 2025 года.)

В последнее время я слышу много опасений, что OpenAI спешит создавать удивительные вещи, такие как AGI, и, возможно, недостаточно внимания уделяет обеспечению безопасности. Но я только что увидел, что они нанимают руководителя по подготовке! Очевидно, Сэм Альтман заявил, что они делают это, чтобы действительно усилить безопасность и защиту ИИ. Он даже упомянул, что эти ИИ-модели становятся *настолько* хороши в компьютерной безопасности, что уже находят серьезные уязвимости – это немного пугает, но хорошо, что они решают эту проблему!

Искусственный интеллект делает удивительно простым для хакеров взлом систем и кражу конфиденциальной информации, часто без необходимости напрямую участвовать в самих атаках.

По мере того, как технологии ИИ продолжают развиваться, неясно, как OpenAI будет справляться с возникающими трудностями, или достаточно ли новой должности главы отдела готовности для управления потенциальными опасностями. Microsoft, однако, заняла твердую позицию: их генеральный директор по ИИ, Мустафа Сулейман, объявил, что они прекратят инвестировать миллиарды в ИИ, если посчитают, что это может навредить людям.

По мере развития технологий искусственного интеллекта, сможем ли мы эффективно справиться с важными рисками для безопасности, которые он создает? Поделитесь своими мыслями в комментариях и примите участие в опросе!

Смотрите также

2026-01-06 15:09