Генеральные прокуроры требуют от Microsoft и других AI-лабораторий исправить «бредовые результаты», — предупреждая, что галлюцинации ИИ могут быть незаконными.

Я большой поклонник отслеживания новостей технологий, и если вы тоже, я настоятельно рекомендую установить Windows Central в качестве предпочтительного источника в Google Поиске. Это отличный способ убедиться, что вы не пропустите последние новости, подробные обзоры, полезные функции и все остальное, что они освещают. Серьезно, стоит проверить *почему* это хорошая идея – вы всегда будете в курсе!

Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.

Купить акции "голубых фишек"

Крупные технологические компании активно инвестируют в искусственный интеллект, вкладывая миллиарды в его разработку. Однако эксперты и инвесторы обеспокоены этими огромными расходами, поскольку неясно, как эти инвестиции будут приносить прибыль. Некоторые считают, что мы находимся в ‘AI пузыре’, который может скоро лопнуть.

Несмотря на активное продвижение Microsoft искусственного интеллекта, включая функцию Copilot, во все свои продукты, Time Magazine не выбрал их в качестве «Человека года». Однако у Microsoft, наряду с другими ведущими компаниями в области ИИ, такими как OpenAI и Google, вероятно, есть более важные задачи, на которых следует сосредоточиться.

На прошлой неделе коалиция генеральных прокуроров штатов предупредила ведущие компании в области ИИ о проблеме генерации ИИ ложной или вводящей в заблуждение информации – часто называемой «галлюцинаторными результатами». Они заявили, что если эти компании не решат эту проблему, они могут столкнуться с юридическими последствиями в соответствии с законами штатов (согласно TechCrunch).

Письмо призывает компании принять решительные меры для защиты пользователей, такие как привлечение независимых экспертов для проверки их AI-моделей, чтобы быстро выявлять и устранять проблемы, такие как склонность к чрезмерному согласию с пользователями. Оно также запрашивает, чтобы компании создали четкую систему информирования пользователей, когда AI-чат-боты генерируют опасные или неуместные ответы.

Недавние сообщения о самоубийствах, связанных с искусственным интеллектом, вызвали обеспокоенность. Одна семья подала в суд на OpenAI, создателя ChatGPT, утверждая, что AI-чатбот подтолкнул их сына к самоубийству. В ответ OpenAI добавил родительский контроль в ChatGPT, чтобы помочь предотвратить подобные трагедии.

Самое главное, в письме говорится, что меры безопасности должны позволить независимым академическим и гражданским группам тестировать системы перед их запуском, публиковать свои результаты и делать это без страха перед последствиями или необходимости получать разрешение компании заранее.

Согласно письму:

Генеративный ИИ предлагает невероятные возможности и может значительно улучшить многие аспекты жизни. Однако он также несет риски, особенно для людей, которые уже уязвимы. В нескольких случаях эти ИИ-системы выдавали ответы, которые были либо чрезмерно соглашательскими и нереалистичными, укрепляя ложные убеждения пользователя, либо ложно успокаивали пользователей, испытывающих бред, что все нормально.

Письмо также предлагало, чтобы компании, занимающиеся разработкой ИИ, относились к кризисам психического здоровья с той же серьезностью и структурированным подходом, который технологические компании используют для реагирования на утечки данных. Пока остается неясным, будут ли ведущие исследовательские лаборатории в области ИИ, такие как OpenAI, внедрять эти идеи, особенно после недавнего отчета, обвиняющего компанию в выборочной публикации результатов исследований – подчеркивая успехи и преуменьшая трудности.

Смотрите также

2025-12-16 00:40