Генеральный директор Google DeepMind утверждает, что ИИ может повторить токсичные недостатки социальных сетей — допустит ли он те же ошибки, вызванные погоней за кликами?

По словам Демиса Хассабиса, главы Google DeepMind, искусственный интеллект рискует совершать аналогичные ошибки, которые наблюдались на платформах социальных сетей (сообщает Business Insider). Он оценивает, что достижение искусственным интеллектом интеллекта на уровне человека – известного как Общий искусственный интеллект или AGI – находится примерно в пяти-десяти годах. Несмотря на недавние достижения, Хассабис подчеркивает, что текущие системы искусственного интеллекта еще не достигли этой точки.

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Он отметил, что платформы социальных сетей, такие как X, Instagram и Facebook, способствовали развитию зависимого поведения и общественному расколу. Хассабис предупредил, что искусственный интеллект может усугубить эти проблемы, но в гораздо большем масштабе.

Социальные сети разработаны так, чтобы вызывать привыкание, используя технику, схожую с работой игровых автоматов. Они предоставляют вознаграждения – такие как отметки «нравится», комментарии и репосты – в непредсказуемые моменты. Это случайное подкрепление удивительно эффективно удерживает пользователей, поскольку исследования показали, что это мощная форма обучения.

Проведение большого количества времени в социальных сетях может повлиять на систему вознаграждения мозга. Это задействует те же пути, которые заставляют нас чувствовать себя хорошо, когда мы испытываем что-то приятное, и со временем это может привести к зависимости, похожей на наркотическую.

Это особенно заметно при потреблении быстрого и легко усваиваемого контента, но это также происходит на платформах, таких как X и Facebook, где вы бесконечно прокручиваете ленту. Эти сайты создают цикл, в котором пользователи чего-то хотят, ищут это, а затем чувствуют удовлетворение, получая награды, такие как лайки и комментарии. Это побуждает их продолжать использовать платформу.

Как аналитик, я изучал влияние использования социальных сетей, и результаты вызывают опасения. Наши исследования показывают, что проведение более двух часов в день на этих платформах может фактически снизить способность мозга контролировать импульсы примерно на 35%. Это значимо, поскольку префронтальная кора — затронутая область — отвечает за управление позывами и преодоление привычек. По сути, чем больше вы пользуетесь социальными сетями, тем сложнее остановиться, что создает некий замкнутый круг.

Недавнее исследование, охватившее более 100 миллионов публикаций в социальных сетях из Facebook, X (ранее Twitter) и Reddit, показало, что люди естественным образом тяготеют к тем, кто разделяет их убеждения. Эта тенденция приводит к формированию онлайн-сообществ, где схожие точки зрения усиливаются, создавая «информационные пузыри». Внутри этих пузырей люди с большей вероятностью ищут информацию, подтверждающую то, во что они уже верят – явление, известное как предвзятость подтверждения – и это в конечном итоге может подтолкнуть группы к принятию более радикальных взглядов.

Легко попасть в ‘ловушку вовлечения’ в сети. Контент, вызывающий сильные эмоции – особенно гнев – имеет тенденцию распространяться гораздо быстрее. Это связано с тем, что системы, используемые платформами социальных сетей, разработаны для продвижения публикаций, получающих много реакций, и, к сожалению, негативный или шокирующий контент часто привлекает больше всего внимания.

Суровые предупреждения Демиса Хассаби

Демис Хассабис предупреждает, что искусственный интеллект может повторить негативный опыт, который мы получили от социальных сетей, что приведет к таким проблемам, как усиление разобщенности, вызывание привыкания и манипуляции. Он утверждает, что подход Кремниевой долины, заключающийся в быстрой публикации продуктов без полного учета их долгосрочных последствий, является проблематичным, и призывает технологические компании нести большую ответственность за влияние их технологий на общество.

Хассабис также отметил, что алгоритмы, созданные для удержания внимания людей, могут фактически наносить вред. Эти системы отдают приоритет захвату вашего внимания, даже если это не идет вам на пользу. Он подчеркнул, что искусственный интеллект должен быть разработан для помощи людям, а не для контроля или манипулирования ими.

Он утверждает, что системы искусственного интеллекта нуждаются в тщательном научном тестировании и ясном понимании принципов их работы, прежде чем они будут широко использоваться. Это мнение разделяют многие, в том числе и я, особенно после тревожных сообщений – например, о том, что одна программа якобы посоветовала человеку покончить с собой, что теперь привело к юридическим последствиям.

Ободряет слышать, как руководитель Google высказывает эти опасения, особенно учитывая, что они предвидят еще большие трудности в будущем. Это вселяет оптимизм, что мы сможем предотвратить будущее, в котором искусственный интеллект контролирует все. Сейчас мы можем только наблюдать, как Microsoft активно инвестирует в искусственный интеллект и все больше интегрирует его в работу своих сотрудников.

Будьте в курсе последних новостей от Windows Central, подписавшись на нас в Google News! Вы будете получать все наши новости, аналитические статьи и обзоры прямо в своей ленте.

Смотрите также

2025-09-19 14:10