ИИ Meta, Facebook и Instagram придет за данными пользователей ЕС — вот что нужно знать (и как отказаться)

Meta объявила о начале использования общедоступных данных пользователей из Европейского Союза для обучения своих систем искусственного интеллекта, следуя примеру практик, уже принятых агентами ИИ, такими как Microsoft Copilot, OpenAI и Google. Эти изменения согласуются с запланированным запуском Meta AI на 41 европейской территории в 2025 году и означают начало включения общедоступного контента пользователей Facebook и Instagram из ЕС в разработку генеративного искусственного интеллекта компании.

В отличие от других компаний ИИ, которые в основном используют общедоступную информацию из Европы, прозрачность Meta неожиданна на фоне ее прошлого. Эта стратегия отражает позицию Microsoft, изложенную в их блоге за январь 2025 года, где они заявили о своем намерении строго следовать правилам GDPR ЕС и регламенту AI.

📊 Хочешь понимать, куда дует ветер на рынке? ТопМоб — мощная аналитика, без воды и хайпа. Не прозевай разворот!

Включай мозг — подписывайся

Какие данные использует Мета — и что запрещено использовать?

Согласно заявлению в пресс-релизе компании Meta, они планируют использовать исключительно публично доступный контент для обучения своих моделей. Это включает видео, посты, комментарии, фотографии, подписи, ролики и истории, которые были опубликованы открыто. Более того, взаимодействие с мета AI через вопросы и запросы также будет использоваться для улучшения модели.

Стоит отметить, что компания Meta подчеркивает: они не используют частные беседы между друзьями и семьей для обучения своих моделей искусственного интеллекта. Это включает личные фотографии и видео. Кроме того, Мета гарантирует соблюдение правил защиты данных детей, воздерживаясь от использования каких-либо данных пользователей младше 18 лет в процессе тренировки их моделей.

Как Meta «обосновывает» обучение ИИ на данных из ЕС

Meta утверждает, что критически важно обучать их системы ИИ с помощью широкого спектра данных из разных стран, так как это позволяет ИИ уловить нюансы и сложности, которые могут быть упущены при сборе информации только из США и Великобритании. Такой подход дает возможность моделям ИИ изучать региональные диалекты, разговорные выражения, местные знания, а также характерные стили юмора, сарказма и тональности общения в различных странах.

После первоначального сдерживания, компания Мета перенесла обучение своих больших языковых моделей на публичный контент внутри ЕС, ожидая определения регуляторами юридических условий. Это действие было предпринято, поскольку первоначальный подход Меты оспаривался за возможное нарушение Общего регламента защиты данных (GDPR) в середине 2024 года.

После этого момента Европейский совет по защите данных (EDPB) поделился своими соображениями о применении персональных данных для обучения искусственному интеллекту (ИИ). Хотя это является лишь мнением, оно подчеркивает важность:

1. ‘Когда дело доходит до обучения искусственного интеллекта, каждая ситуация требует индивидуальной оценки.’
2. ‘Важно, чтобы данные, используемые для обучения ИИ, обрабатывались в каждом случае отдельно.’
3. ‘Для целей обучения ИИ каждый сценарий требует тщательного анализа.’
4. ‘При подготовке данных для обучения ИИ их следует тщательно проверять по отдельности.’

Согласно статье 21 Общего регламента по защите данных (GDPR), гражданам предоставляется возможность отказаться от использования их персональных данных при процессах обучения ИИ.

Мета признает точку зрения, выраженную Европейским агентством по защите данных (EDPB), и обязуется строго придерживаться европейских законов и правил при сборе данных для обучения своих систем искусственного интеллекта, демонстрируя уважение к предоставленному мнению.

Но не волнуйтесь, граждане ЕС могут отказаться от участия. Вот как это сделать.

Мета гарантирует пользователям, что процесс отказа от сбора данных будет простым и понятным. Пользователям будут приходить уведомления в приложении и электронные письма с подробным описанием характера собираемых данных, их предполагаемого использования – например, улучшения функциональности искусственного интеллекта Meta или общего пользовательского опыта – и преимуществ этого процесса. Эти сообщения также будут содержать ссылку на форму, где люди могут выразить своё желание не использовать свои данные для обучения моделей ИИ.

У вас есть возможность обойти ожидание формы и сразу же подать запрос на возражение через Центр конфиденциальности Facebook или Instagram.

На Facebook: перейдите к Настройки и конфиденциальность > Центр конфиденциальности > Темы приватности > Искусственный интеллект в Meta > Подать запрос на оспаривание

В настройках Instagram перейдите в раздел «Конфиденциальность», затем выберите «Центр конфиденциальности». После этого найдите раздел «Темы конфиденциальности» и перейдите к разделу об ИИ от Meta, где вы можете подать запрос на возражение.

Мета заверяет, что все ранее поданные возражения и любые новые будут должным образом приняты во внимание и рассмотрены.

Почему это важно и что будет дальше

Решение компании Meta обучить свой ИИ с использованием данных пользователей из ЕС, предоставленных публично, не является совершенно новым в практике — подобные компании, как Microsoft, OpenAI и Google, делали это годами, особенно в США. Однако что отличает Meta, так это заметно прозрачный и открытый подход к области, где технологические достижения в области искусственного интеллекта часто превышают регуляторные меры.

Этот пункт подчеркивает растущее значение европейских данных в разработке моделей искусственного интеллекта, которые более точно представляют региональные диалекты, привычки и культурные нюансы. В настоящее время многие системы ИИ демонстрируют тенденцию отдавать предпочтение английскому языку и англо-центричным взглядам из-за широкого использования этого языка в интернете.

Пока неясно, будут ли методы компании Meta устанавливать новые стандарты в различных отраслях. Главное заключается вот в чем: если вас волнуют вопросы приватности ваших цифровых данных во времена искусственного интеллекта, настало время действовать.

Смотрите также

2025-04-27 19:39