Оживляя цифровые лица: точный контроль эмоций для 3D-аватаров

Автор: Денис Аветисян


Новая технология позволяет реалистично управлять выражением эмоций на 3D-моделях лиц, создавая более живые и правдоподобные цифровые образы.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"
На основе единственного изображения разработана система, способная реконструировать выразительные трехмерные аватары с возможностью точного и плавного управления эмоциями, при этом каждая эмоция проявляется с учётом индивидуальных особенностей, а весь процесс осуществляется за один прямой проход без необходимости индивидуальной оптимизации для каждого объекта.
На основе единственного изображения разработана система, способная реконструировать выразительные трехмерные аватары с возможностью точного и плавного управления эмоциями, при этом каждая эмоция проявляется с учётом индивидуальных особенностей, а весь процесс осуществляется за один прямой проход без необходимости индивидуальной оптимизации для каждого объекта.

В статье представлена инновационная система управления эмоциями в 3D-аватарах, основанная на раздельном контроле геометрии и внешнего вида лица, а также на специально созданном наборе данных для обучения.

Несмотря на значительный прогресс в области 3D-аватаров, реалистичное и контролируемое выражение эмоций остается сложной задачей. В своей работе ‘Giving Faces Their Feelings Back: Explicit Emotion Control for Feedforward Single-Image 3D Head Avatars’ авторы представляют новый подход к управлению эмоциями в 3D-моделях лиц, рассматривая эмоции как независимый управляющий сигнал. Предложенная методика разделяет влияние эмоций на геометрию и визуальные характеристики, используя двойной механизм модуляции и новый, синхронизированный по времени, мульти-идентичный набор данных. Способны ли подобные решения открыть путь к созданию действительно выразительных и масштабируемых 3D-аватаров, способных передавать весь спектр человеческих эмоций?


Зачем нам реалистичные аватары?

Создание убедительных трехмерных головных аватаров традиционно требует сложных производственных процессов и значительных ручных усилий. Этот трудоемкий подход включает в себя моделирование, текстурирование, риггинг и анимацию, каждый из которых требует высокой квалификации и занимает много времени. В результате, масштабирование производства аватаров для широкого применения, например, в виртуальной реальности или метавселенных, становится серьезной проблемой. Автоматизация и оптимизация этих этапов — ключевая задача для исследователей, стремящихся снизить стоимость и время разработки, делая реалистичные аватары более доступными для массового использования и интерактивных приложений.

Существующие методы создания цифровых аватаров часто сталкиваются с трудностями при передаче тончайших нюансов человеческих эмоций. Исследования показывают, что алгоритмы, используемые для захвата и переноса выражений лица, не всегда способны адекватно воспроизвести сложность мимики, включая микровыражения и едва заметные изменения в мускулатуре лица. Это приводит к тому, что создаваемые цифровые копии могут казаться неестественными или лишенными эмоциональной глубины, что снижает реалистичность и достоверность виртуального представления. Особенно сложной задачей является фиксация и передача эмоций, проявляющихся в глазах и вокруг них, поскольку именно эти области лица играют ключевую роль в невербальной коммуникации и восприятии эмоционального состояния.

Основная проблема при создании реалистичных цифровых аватаров заключается в неспособности отделить выражение эмоций от индивидуальных черт лица. Традиционные методы часто запечатлевают и то, и другое одновременно, что приводит к неестественным результатам — например, улыбка может искажать уникальные особенности лица, делая аватар менее узнаваемым или вызывая ощущение фальши. Это ограничивает возможности по созданию динамичных и правдоподобных персонажей, способных выражать широкий спектр эмоций, сохраняя при этом свою индивидуальность. В результате, цифровые аватары часто выглядят скованно или неправдоподобно, особенно при попытке воспроизвести сложные эмоциональные состояния, требующие тонкой координации лицевых мышц и сохранения идентичности.

Предложенная система обеспечивает контролируемый и идентично-согласованный синтез эмоций, используя синхронизированный мульти-идентичный датасет, полученный посредством переноса эмоциональной динамики, и модулирующую сеть, управляющую геометрией и внешним видом на основе референсного изображения и метки эмоции.
Предложенная система обеспечивает контролируемый и идентично-согласованный синтез эмоций, используя синхронизированный мульти-идентичный датасет, полученный посредством переноса эмоциональной динамики, и модулирующую сеть, управляющую геометрией и внешним видом на основе референсного изображения и метки эмоции.

Двойной путь контроля эмоций: как мы это делаем

Наш подход использует структуру “Двойного Пути Эмоциональной Модуляции” для контроля выражения эмоций посредством изменения как геометрии, так и внешнего вида 3D-модели лица. Данная структура позволяет управлять выражением эмоций, воздействуя на форму лица (геометрию) и одновременно корректируя текстуру и визуальные детали (внешний вид), что обеспечивает комплексный контроль над эмоциональной выразительностью аватара. Разделение управления на два пути позволяет более точно и реалистично моделировать эмоциональные реакции.

В рамках предложенного подхода, параметрическая 3D-модель лица (FLAME) подвергается эмоциональной кондиции посредством процесса, названного ‘Геометрической Модуляцией’. Этот процесс нормализует выражение эмоций, стандартизируя его и устраняя влияние индивидуальных особенностей личности (identity bias). Геометрическая Модуляция позволяет отделить эмоциональную составляющую от базовой геометрии лица, что обеспечивает более точное и контролируемое воспроизведение эмоций на 3D-аватаре, независимо от его исходной идентичности. Это достигается путем управления параметрами, определяющими форму лица, и их корреляцией с различными эмоциональными состояниями.

Модуляция внешнего вида (Appearance Modulation) заключается в изменении текстуры и визуальных деталей цифрового аватара для отражения желаемой эмоции. В отличие от геометрической модуляции, которая воздействует на форму лица, данный метод фокусируется на деталях, специфичных для личности, таких как морщины, цвет кожи и микро-выражения. Это позволяет добиться более реалистичного и индивидуализированного эмоционального отклика, поскольку различные люди демонстрируют эмоции по-разному даже при одинаковой интенсивности. Настройка текстур и визуальных элементов позволяет учитывать эти индивидуальные особенности, обеспечивая более правдоподобное и убедительное выражение эмоций аватаром.

Интерполяция эмоций успешно применяется к реальным данным, обеспечивая плавный переход между различными эмоциональными состояниями.
Интерполяция эмоций успешно применяется к реальным данным, обеспечивая плавный переход между различными эмоциональными состояниями.

Создание данных для обучения: синхронизация эмоций

Представлен многоидентичный набор данных “Emotion-Consistent Multi-Identity Dataset”, созданный посредством захвата движений лица (Facial Motion Capture). Данный набор данных включает в себя записи эмоциональных выражений, полученные от различных субъектов, и обеспечивает синхронизацию данных между ними. Это достигается за счет использования технологии захвата движений, которая позволяет точно регистрировать и сопоставлять выражения лиц разных людей в единой временной шкале. Набор данных содержит информацию о лицевой мимике, позволяющую воспроизводить и анализировать эмоциональные состояния, и предназначен для обучения моделей, требующих согласованные данные об эмоциях от различных индивидуумов.

Ключевой особенностью созданного набора данных является временная синхронизация данных, обеспечивающая высокую точность обучения представлений эмоций. Временная синхронизация означает, что данные о выражении лица, полученные с помощью захвата движений, привязаны к единой временной шкале для всех идентичностей. Это критически важно для минимизации временных несоответствий, которые могут возникнуть при анализе динамических выражений лица, и позволяет алгоритмам обучения более эффективно извлекать и обобщать эмоциональные признаки. Отсутствие временной синхронизации привело бы к неточным результатам и снижению производительности моделей, использующих эти данные для распознавания и воспроизведения эмоций.

Для обучения эмоционального эмбеддинга используется собранный набор данных, представляющий собой векторное представление эмоций. Этот эмбеддинг служит входными данными для двух отдельных нейронных сетей: сети модуляции геометрии и сети модуляции внешнего вида. Входной вектор эмоций позволяет каждой сети адаптировать соответствующие параметры, изменяя геометрию лица и его текстуру для реалистичного отображения целевой эмоции. Использование единого вектора эмоций для управления обеими сетями обеспечивает согласованность между изменениями геометрии и текстуры, что необходимо для правдоподобной генерации выражений лица.

Контроль эмоций без привязки к личине: универсальный подход

В основе разработанной системы лежит механизм перекрестного внимания (Cross-Attention), позволяющий эффективно управлять модулирующими сетями посредством внедрения эмоционального вектора. Этот подход обеспечивает точное и детализированное воздействие на выражение эмоций, поскольку каждая модулирующая сеть, получая информацию об эмоциональном состоянии, способна адаптировать свои параметры для достижения желаемого результата. Вместо жесткого программирования выражения эмоций для каждого аватара, система динамически регулирует параметры анимации, основываясь на входном эмоциональном векторе, что позволяет достичь высокой степени контроля и выразительности. Такая архитектура открывает возможности для создания реалистичных и правдоподобных эмоциональных реакций у цифровых персонажей, значительно превосходящие традиционные методы.

Предложенный подход обеспечивает контроль над эмоциями, не зависящий от индивидуальных особенностей аватара. Это означает, что эмоции могут быть успешно перенесены между различными цифровыми персонажами без необходимости проведения отдельной оптимизации или обучения для каждого из них. Традиционно, для достижения реалистичной передачи эмоций требовалось адаптировать алгоритмы к конкретным чертам лица и мимике каждого аватара, что значительно усложняло процесс и требовало больших вычислительных ресурсов. Разработанная система обходит это ограничение, позволяя эффективно модулировать выражения лица любого аватара, основываясь на универсальном представлении эмоций, что открывает новые возможности для создания динамичных и реалистичных виртуальных взаимодействий.

Для обеспечения масштабируемого и эффективного создания и анимации аватаров была разработана прямая (feedforward) схема, использующая технологию 3D Gaussian Splatting. Данный подход позволяет генерировать реалистичные изображения с высокой скоростью, не требуя сложных вычислительных ресурсов. Важно отметить, что внедрение контроля над эмоциями не привело к ухудшению качества реконструкции; сравнительный анализ с базовыми методами показал сопоставимые значения PSNR и SSIM, что подтверждает сохранение визуальной достоверности и детализации аватаров даже при изменении эмоционального состояния.

Проведенные пользовательские исследования подтвердили высокую эффективность предложенного подхода к управлению эмоциями. Оценка результатов показала, что система достигла наивысших баллов среди сравниваемых методов по двум ключевым параметрам: распознаваемости эмоций и их выразительности. Участники исследований отчетливо идентифицировали передаваемые эмоции, а также отмечали их реалистичность и яркость, что свидетельствует о способности системы достоверно воспроизводить эмоциональное состояние аватара и эффективно передавать его зрителю. Эти результаты подчеркивают потенциал разработанной технологии для создания более убедительных и эмоционально насыщенных виртуальных взаимодействий.

Исследование, посвящённое управлению эмоциями в 3D-аватарах, неизбежно наталкивается на фундаментальную истину: любое, даже самое изящное решение — это лишь временная отсрочка неизбежного технического долга. Авторы предлагают детализированную модель управления геометрией и внешним видом аватаров, стремясь к реалистичной передаче эмоций. Однако, как показывает опыт, любая система, обещающая «самовосстановление», попросту еще не сломалась. Иначе говоря, чем сложнее архитектура, тем больше потенциальных точек отказа. Создание нового датасета, безусловно, полезно, но документация к нему — это, скорее, форма коллективного самообмана. Как справедливо заметил Эндрю Ын: «Искусственный интеллект — это не волшебство, а инженерия». И в этой инженерии всегда найдется место для багов, которые, если воспроизводятся, лишь подтверждают стабильность нашей системы.

Что дальше?

Представленная работа, безусловно, добавляет ещё один уровень сложности в и без того запутанную область цифрового представления лица. Авторы пытаются приручить эмоции, выделив их в отдельные каналы управления геометрией и внешним видом. Но, как показывает практика, любая элегантная архитектура рано или поздно встретится с реальными данными. Созданный датасет — это лишь первый шаг, и рано или поздно кто-то столкнётся с необходимостью обучения модели на видео, где люди не просто изображают эмоции, а живут ими, с микровыражениями, которые невозможно смоделировать искусственно.

Неизбежно возникнет вопрос о переносимости. Успешно смоделировать эмоции на одном лице — это одно, а заставить эту модель работать на лицах, отличающихся этнической принадлежностью, возрастом или даже просто освещением — уже совсем другая задача. Ведь, как известно, багтрекер — это дневник боли, а каждая «революционная» технология завтра станет техдолгом. И, скорее всего, вместо того, чтобы создавать «чувствующие» аватары, мы будем просто отлаживать их бесконечные ошибки.

В конечном итоге, задача не в том, чтобы научить машину изображать эмоции, а в том, чтобы понять, насколько вообще возможно достоверно их воспроизвести в цифровом пространстве. Иначе, мы просто создадим ещё один инструмент для манипуляций, где «реальность» будет определяться алгоритмом, а не чувствами. Мы не деплоим — мы отпускаем, и не знаем, что из этого выйдет.


Оригинал статьи: https://arxiv.org/pdf/2604.14541.pdf

Связаться с автором: https://www.linkedin.com/in/avetisyan/

Смотрите также:

2026-04-18 08:47