
Окей, так что ИИ теперь может *действительно* убедительно воссоздавать людей, которых уже нет в живых, и, честно говоря, это немного тревожно. Дискуссия идет даже не о том, *звучит* ли это реалистично – речь идет об этичности использования голоса, внешности и даже личности человека, и по сути создания его цифровой версии, которую можно использовать как угодно. Это совершенно новый уровень беспокойства.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Недавно я прочитал об этой действительно интересной идее в *New Media and Society* – исследователи Том Дивон и Кристиан Пенцхольд называют это ‘спектральным трудом’. В основном, они говорят, что когда ИИ воссоздает кого-то после его смерти, это как будто этот человек все еще ‘работает’ через все оставленные данные. Это немного жутко, потому что это может произойти даже если человек никогда с этим не соглашался, и на самом деле нет никаких правил, чтобы это остановить.
Восстановленная версия чего-либо – будь то фотография, голос или воспоминание – не обязательно отражает то, как мы действительно это помним, а скорее то, как технология это реконструирует. Эта разница может создать ощущение неполноценности, как будто это имитация, созданная самой технологией, а не удовлетворительное возвращение в прошлое.
Три режима воскрешения
Дивон и Пентзольд изучили 51 случай использования ИИ для попыток «воскресить» людей, собрав примеры из США, Европы, Ближнего Востока и Восточной Азии в период с января 2023 года по 1 июня 2024 года. Они разделили эти случаи на три основные категории: публичные демонстрации, политические или социальные приложения и способы, которыми люди справляются с личными потерями.
Сегодняшние медиа часто представляют отполированную, развлекательную версию реальности. Важные социальные и политические идеи часто используют исторических личностей для выражения своей точки зрения. Но наиболее распространенная и личная форма новых медиа – такие вещи, как чат-боты и контент, сгенерированный искусственным интеллектом, – предназначены для ощущения непрерывного разговора. И поскольку это ощущается так знакомо, это быстро принимается как норма.
Когда присутствие становится продуктом
Наиболее убедительный аргумент в этой статье сосредоточен на том, как мы используем данные, связанные с умершими. Авторы предполагают, что когда люди умирают, аспекты их личности – их данные, образ и эмоциональное воздействие – по сути, превращаются в ресурсы. Эти следы затем используются, распространяются и даже приносят прибыль.
В другой статье авторы объясняют, что дискомфорт заключается не просто в том, насколько реалистичны эти фигуры ИИ. Речь идет скорее об ощущении контроля – или его отсутствии. Эти ИИ могут *казаться* реагирующими на вас, но на самом деле они контролируются человеком, который создал запросы, правилами платформы и текущими правками. Это создает ощущение связи, которое не является подлинным.
Что вам следует сделать сейчас
По мере того, как генеративные системы искусственного интеллекта собирают и используют нашу личную информацию, нам необходимо пересмотреть такие вопросы, как согласие, конфиденциальность и то, как мы принимаем решения о конце жизни. Текущие правила не успевают за быстрым развитием и распространением этих технологий.
Разумно рассматривать ваши голосовые записи, фотографии и онлайн-аккаунты как ценное имущество. Чётко решите, кому разрешено к ним получать доступ, и, когда это возможно, запишите эти разрешения для дальнейшего использования.
Прежде чем подписаться на сервис, который создаёт AI-версию вас после вашей смерти, важно выяснить, кто контролирует то, что этот AI говорит и делает.
Смотрите также
- vivo iQOO Z10 Turbo+ ОБЗОР: скоростная зарядка, плавный интерфейс, объёмный накопитель
- Калькулятор глубины резкости. Как рассчитать ГРИП.
- Microsoft Edge позволяет воспроизводить YouTube в фоновом режиме на Android — подписка Premium не требуется.
- Нефть против «Зомби»: Что ждет инвесторов на фоне продления санкционной лицензии и проблем АФК «Система»? (19.04.2026 21:32)
- AMD разворачивает «штаб-квартиру» для мониторинга нашего веб-сайта на предмет утечек.
- CSAM используя стримера ‘Lacari’ пойман с поличным … Microsoft Notepad — опубликовал извинения и отрицание после получения перманентного бана.
- Motorola Moto G77 ОБЗОР: отличная камера, лёгкий, чёткое изображение
- Лучшие смартфоны. Что купить в апреле 2026.
- Обзор Asus VivoBook 16: лучше большинства бюджетных ноутбуков.
- Что такое kit и что такое body.
2026-01-20 13:28