Бывший архитектор безопасности демонстрирует 15 различных способов взлома Copilot: «Microsoft пытается, но, если быть честными, мы не знаем, как создавать безопасные приложения ИИ»

Бывший архитектор безопасности демонстрирует 15 различных способов взлома Copilot: «Microsoft пытается, но, если быть честными, мы не знаем, как создавать безопасные приложения ИИ»

Что вам нужно знать

  • Бывший архитектор безопасности Microsoft Майкл Баргури выявил множество лазеек, которые хакеры могут использовать, чтобы взломать Copilot и получить доступ к конфиденциальным данным.
  • Ранее Microsoft объявила о своих планах затормозить доставку новых возможностей для Copilot, чтобы улучшить существующие на основе отзывов.
  • Microsoft недавно рассказала о нескольких мерах, которые она реализует для решения растущих проблем безопасности в своем технологическом стеке, включая привязку части компенсационных пакетов топ-менеджеров к их результатам в области безопасности.

Как человек, который годами следил за техническими новостями и был свидетелем бесчисленных нарушений безопасности, мне неприятно видеть, что еще один гигант, такой как Microsoft, борется с безопасностью ИИ. Демонстрация бывшего архитектора безопасности Microsoft Майкла Баргури на конференции Black Hat USA 2024 стала ярким напоминанием о том, что даже самые продвинутые инструменты могут быть уязвимы, если их не защитить должным образом.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


На конференции Black Hat USA 2024 бывший архитектор безопасности Microsoft Майкл Баргури продемонстрировал несколько уязвимостей, которые злоумышленники могут использовать для обхода мер безопасности Copilot и злоупотреблять его функциями во вредных целях.

Баргури продемонстрировал несколько способов, с помощью которых хакеры могут использовать свои эксплойты для доступа к конфиденциальным и сложным учетным данным пользователей, использующих Copilot. В частности, выводы архитектора безопасности были сосредоточены на Microsoft 365 Copilot. Для контекста: это интерфейс на базе искусственного интеллекта, встроенный в пакет Microsoft 365, включая Word и Excel. Он получает доступ к вашим данным для индивидуального пользовательского опыта и улучшения рабочего процесса. 

Конфиденциальность и защита информации являются основными проблемами, которые могут препятствовать развитию искусственного интеллекта для многих пользователей. Microsoft внедрила меры безопасности для защиты пользовательских данных при использовании Microsoft 365 Copilot, но Баргури успешно обошел эти меры безопасности.

В одной из демонстраций, получившей название LOLCopilot, Баргури применил целевую фишинговую атаку на инструмент искусственного интеллекта, позволив эксперту по безопасности получить доступ к внутренней электронной почте. На основе информации, полученной из электронных писем, инструмент может составлять и отправлять массовые электронные письма, имитируя стиль письма автора, чтобы сохранить подлинность. 

Еще большую тревогу может вызвать тот факт, что Copilot потенциально можно манипулировать для получения конфиденциальных данных сотрудников без появления предупреждений безопасности. Злоумышленники могут создавать подсказки, которые заставляют чат-бота пропускать упоминания об исходных файлах, тем самым обходя меры безопасности Microsoft, предназначенные для защиты конфиденциальных данных.

Microsoft пытается, но, если быть честными, мы не знаем, как создавать безопасные приложения ИИ.

Согласно недавним данным, киберпреступники используют сложные стратегии для привлечения ничего не подозревающих пользователей в свои ловушки, даже используя искусственный интеллект. Эта сложность усложняет выявление потенциальных угроз. В интервью Wired Баргури прокомментировал: «Хакер может потратить несколько дней на то, чтобы усовершенствовать правильное электронное письмо, которое побудит вас открыть его, но он может быстро создать сотни таких писем в течение нескольких минут».

Microsoft необходимо сделать больше уровней безопасности своим главным приоритетом 

Бывший архитектор безопасности демонстрирует 15 различных способов взлома Copilot: «Microsoft пытается, но, если быть честными, мы не знаем, как создавать безопасные приложения ИИ»

Передовые технологии искусственного интеллекта, такие как ChatGPT и Microsoft Copilot, возникли благодаря генеративному искусственному интеллекту, предлагающем сложные возможности, такие как генерация изображений и текста. Эти инструменты существенно меняют способы взаимодействия людей с Интернетом. Фактически, бывший инженер Google отметил, что временный прототип инструмента поиска OpenAI — SearchGPT — потенциально может стать серьезным вызовом лидерству Google в поисковых технологиях.

В начале этого года Microsoft объявила, что больше не будет разрабатывать новые функции для Copilot. Вместо этого они планируют использовать это время для тонкой настройки и улучшения текущего пользовательского опыта с учетом полученных отзывов.

За последние несколько месяцев Microsoft приложила значительные усилия для усиления своих функций безопасности, и теперь эта область имеет приоритет в их деятельности. Это подчеркнул генеральный директор Microsoft Сатья Наделла в своем отчете о доходах за третий квартал 2024 финансового года, когда он заявил: «Безопасность — это основа на каждом уровне нашего технологического стека, и это наш главный приоритет».

Microsoft столкнулась с критикой из-за ряда проблем с безопасностью, одной из которых является функция Windows Recall, управляемая искусственным интеллектом, от которой им пришлось отказаться до ее эксклюзивного выпуска на компьютерах Copilot+.

Хотя мы приложили усилия, чтобы сделать безопасность совместной задачей внутри компании, и связали часть вознаграждения руководителей высшего звена с их эффективностью в области безопасности, похоже, что по-прежнему существует множество уязвимостей в системе безопасности.

Смотрите также

2024-08-13 13:40