Воскрешение с помощью ИИ может превратить вашу скорбь в «призрачный труд».

Окей, так что ИИ теперь может *действительно* убедительно воссоздавать людей, которых уже нет в живых, и, честно говоря, это немного тревожно. Дискуссия идет даже не о том, *звучит* ли это реалистично – речь идет об этичности использования голоса, внешности и даже личности человека, и по сути создания его цифровой версии, которую можно использовать как угодно. Это совершенно новый уровень беспокойства.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Недавно я прочитал об этой действительно интересной идее в *New Media and Society* – исследователи Том Дивон и Кристиан Пенцхольд называют это ‘спектральным трудом’. В основном, они говорят, что когда ИИ воссоздает кого-то после его смерти, это как будто этот человек все еще ‘работает’ через все оставленные данные. Это немного жутко, потому что это может произойти даже если человек никогда с этим не соглашался, и на самом деле нет никаких правил, чтобы это остановить.

Восстановленная версия чего-либо – будь то фотография, голос или воспоминание – не обязательно отражает то, как мы действительно это помним, а скорее то, как технология это реконструирует. Эта разница может создать ощущение неполноценности, как будто это имитация, созданная самой технологией, а не удовлетворительное возвращение в прошлое.

Три режима воскрешения

Дивон и Пентзольд изучили 51 случай использования ИИ для попыток «воскресить» людей, собрав примеры из США, Европы, Ближнего Востока и Восточной Азии в период с января 2023 года по 1 июня 2024 года. Они разделили эти случаи на три основные категории: публичные демонстрации, политические или социальные приложения и способы, которыми люди справляются с личными потерями.

Сегодняшние медиа часто представляют отполированную, развлекательную версию реальности. Важные социальные и политические идеи часто используют исторических личностей для выражения своей точки зрения. Но наиболее распространенная и личная форма новых медиа – такие вещи, как чат-боты и контент, сгенерированный искусственным интеллектом, – предназначены для ощущения непрерывного разговора. И поскольку это ощущается так знакомо, это быстро принимается как норма.

Когда присутствие становится продуктом

Наиболее убедительный аргумент в этой статье сосредоточен на том, как мы используем данные, связанные с умершими. Авторы предполагают, что когда люди умирают, аспекты их личности – их данные, образ и эмоциональное воздействие – по сути, превращаются в ресурсы. Эти следы затем используются, распространяются и даже приносят прибыль.

В другой статье авторы объясняют, что дискомфорт заключается не просто в том, насколько реалистичны эти фигуры ИИ. Речь идет скорее об ощущении контроля – или его отсутствии. Эти ИИ могут *казаться* реагирующими на вас, но на самом деле они контролируются человеком, который создал запросы, правилами платформы и текущими правками. Это создает ощущение связи, которое не является подлинным.

Что вам следует сделать сейчас

По мере того, как генеративные системы искусственного интеллекта собирают и используют нашу личную информацию, нам необходимо пересмотреть такие вопросы, как согласие, конфиденциальность и то, как мы принимаем решения о конце жизни. Текущие правила не успевают за быстрым развитием и распространением этих технологий.

Разумно рассматривать ваши голосовые записи, фотографии и онлайн-аккаунты как ценное имущество. Чётко решите, кому разрешено к ним получать доступ, и, когда это возможно, запишите эти разрешения для дальнейшего использования.

Прежде чем подписаться на сервис, который создаёт AI-версию вас после вашей смерти, важно выяснить, кто контролирует то, что этот AI говорит и делает.

Смотрите также

2026-01-20 13:28