Google добавляет водяные знаки к фотографиям искусственного интеллекта

Google представила метод скрытой маркировки для цифровых изображений под названием Synthid. Эта система скрытно идентифицирует картины, которые были произведены или значительно изменены искусственным интеллектом. Неприносленно внедряя идентификатор в пиксели, сгенерированных AI или A-манипулированными фотографиями, эта технология позволяет программному обеспечению определять эти изображения, в то время как люди остаются не знаниями.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


В отличие от типичных водяных знаков или логотипов, которые могут быть видны и могут повлиять на качество изображения, невидимый водяной знак Google вообще не меняет внешний вид изображения. Он также построен, чтобы быть прочным, удерживая даже после общих изменений, таких как обрезка, применение фильтров или сжатие изображения. Эта долговечность гарантирует, что изображения, сгенерированные AI, все еще могут быть идентифицированы как таковые, даже если они будут изменены или слегка изменены в будущем. Google стремится к этим скрытым маркерам, чтобы упростить точку контента A-создания A-создания, способствуя прозрачности и доверия в Интернете.

Оценка сгенерированных ИИ и отредактированных с АИ-изображениями для прозрачности

Google недавно начала реализовывать синтид в своих предложениях, что позволяет легко идентифицировать сгенерированный ИИ или модифицированный контент. Начиная с этой осенью, система водяных знаков была включена в Magic Editor, в частности, новая функция Emagine AI Edit, на устройствах Pixel. Когда пользователь вносит существенные изменения на фотографию с использованием ИИ, например, добавление или удаление людей или большие объекты, в сохраненное изображение вставляется невидимый водяной знак с синтедом. Тем не менее, незначительные корректировки, такие как тонко изменяющие цвета, могут быть слишком незначительными, чтобы активировать водяной знак.

Google использует Synthid на изображениях, созданных моделью текста до изображения, и в настоящее время расширяет эту технологию на отредактированные фотографии с помощью ИИ. Этот шаг является частью более крупной стратегии Google для продвижения прозрачности в искусственном интеллекте, подхода, который используется другими технологическими компаниями и поддерживается политиками. Двигая возможность распознавать манипуляции с ИИ на изображениях, Google стремится бороться с дезинформацией и глубокими темпами, которые трудно обнаружить из -за неопределяемых изменений.

Как работает синтед водяных знаков

Synthid, разработанный командой Google DeepMind, рассматривает вопрос о маркировке выходов ИИ без изменения визуальной привлекательности изображения. Это достигает этого, тонко изменяя данные пикселей низкого уровня в определенном шаблоне по изображению. Корректировки настолько минуты, что они невидимы для человеческого глаза, но они создают уникальную цифровую подпись, которая может быть обнаружена специализированными инструментами или собственным программным обеспечением Google. Поскольку шаблон распределяется по всему изображению, он остается неповрежденным, даже когда изображение обрезается, переворачивается или изменяется иным образом.

В системе Google это всего лишь модель обнаружения ИИ, которая может идентифицировать водяной знак; Для человеческих глаз образ выглядит нетронутым. Первоначально Synthid был в основном применен к контенту, вытекающему из собственных моделей ИИ и услуг Google, таких как результаты искусства, сгенерированные изображением, или результаты Magic Editor. По сути, каждый водяной знак служит кодом, указывающим на использование ИИ в создании, потенциально раскрывая, какая конкретная модель или инструмент ИИ использовалась. Google, наряду с другими технологическими компаниями, стремитесь к тому, чтобы эти методы в конечном итоге стали обычным явлением, что позволяет точно проследить СМИ, созданные AI.

Отраслевые реакции и экспертные перспективы

Эксперты в этой области в основном высоко оценили инициативу Google, чтобы сделать СМИ, сгенерированные AI, более прозрачными. Тем не менее, они рекомендуют осторожность, предполагая, что только водяные знаки недостаточно, чтобы проверить подлинность содержания. Кен Серклз, директор по продукту Digimarc, объясняет, что, хотя большинство средств массовой информации, производимой AI, является безобидным, злонамеренный пользователь может обойти водяные знаки, используя безымянный инструмент для создания вводящих в заблуждение изображений. С другой стороны, если бы только определенные компании использовали водяные знаки, а другие — нет, для плохих актеров было бы просто избежать обнаружения, выбрав безымянный маршрут. Кроме того, существуют опасения по поводу фрагментации, поскольку различные компании разрабатывают свои собственные системы маркировки контента искусственного интеллекта. Без сотрудничества или совместимости ни один стандарт единого водяного знака не может покрыть весь контент. Генеральный директор Google DeepMind выразил оптимизм, что Synthid может стать универсальным интернет -стандартом, но сейчас это один из нескольких конкурирующих методов. Вместо этого некоторые эксперты выступают за такие инициативы, как C2PA (Coalition for Content Provenance и Authenticity), которые внедряют криптографические данные в файлы в качестве более универсального решения, принятого многочисленными крупными компаниями. Чтобы любой маркировочный подход был эффективным, он должен быть универсальным, требуя, чтобы каждый генератор изображений ИИ включал свою систему обнаружения в каждый файл. Это кажется невероятным при добровольных мерах, согласно одному анализу. Таким образом, действие Google рассматривается как положительный шаг, но оно признается только одной частью большей головоломки, необходимой для аутентификации цифрового контента.

Цифровые правозащиты и общественные организации также поделились своими мыслями по этому вопросу. Они распознают преимущества маркировки контента, сгенерированного AI, но выражают обеспокоенность по поводу того, как эти системы могут быть развернуты или контролированы. Основное беспокойство заключается в том, что требуется, чтобы водяные знаки ИИ могли нарушать конфиденциальность или свободу слова. Как говорит это в настоящее время доступ к цифровым правам, навязывая такие водяные знаки представляет потенциальную угрозу для основных прав, таких как конфиденциальность и свобода выражения мнений. Они подчеркивают, что пользователи не должны быть вынуждены раскрывать личную информацию или непреднамеренно помечать их работу. Например, художник, использующий инструменты искусственного интеллекта, может предпочесть не определять свою работу как таковую, или разоблачитель может потребоваться анонимность, которую может поставить под угрозу обязательный водяной знак. Применение этих водяных знаков также представляет трудности — эксперты отмечают, что определенные противники могут попытаться стереть или нарушить водяной знак, если они знают, что он там. В некоторых случаях простое регулирование наименее значимых пикселей файла изображения или слегка изменение размера/вращения изображения может разрушить встроенный шаблон водяного знака. Google утверждает, что Synthid устойчив ко многим таким модификациям, но признает, что квалифицированный злоумышленник может найти способы обойти эту защиту.

Глядя в будущее

Чтобы водяные знаки могли эффективно уменьшить распространение обманчивых изображений ИИ, крайне важно, чтобы общепринятый стандарт был принят несколькими платформами. Регуляторы внимательно следят за этой ситуацией, причем некоторые законодательные органы предполагают обязательное раскрытие или водяное значение содержания, сгенерированного AI, в определенных регионах. Google на данный момент выбрал добровольный подход в своей собственной экосистеме, способствуя сотрудничеству между игроками отрасли, а не полагаться на регулирование. В ближайшем будущем рекомендуется наблюдать за производительность Синтида в реальных условиях-будет ли он сопротивляться попыткам удаления и окажется полезным для пользователей? Мнения исследователей, журналистов и цифровых правозащитных групп будут значительно повлиять на разработку последующих версий. Инструменты прозрачности, такие как Synthid, могут стать общей особенностью в онлайн -медиа, но они будут наиболее эффективными в сочетании с другими методами проверки (например, метаданные Provenance и образование пользователей) для борьбы с глубокими и поддержанием доверия среди зрителей, гарантируя, что они могут полагаться на то, что они наблюдают Полем

Смотрите также

2025-02-08 16:06