С развитием технологии искусственного интеллекта и достижением новых высот, выходя за рамки простого ответа на вопросы, как это было в ранние времена работы Bing Chat, пользователям без технических знаний становится все сложнее полноценно использовать эти инструменты ИИ.
Пока крипто-инвесторы ловят иксы и ликвидации, мы тут скучно изучаем отчетность и ждем дивиденды. Если тебе близка эта скука, добро пожаловать.
Купить акции "голубых фишек"Меня тревожно и увлекательно наблюдать за тем, как по всему миру инструменты вроде ChatGPT от OpenAI быстро набирают популярность, привлекая более миллиона новых пользователей в течение часа после запуска их последнего инструмента генерации изображений. Этот инновационный продукт вызвал вирусный ажиотаж среди разнообразных сообществ социальных сетей, где мемы про Studio Ghibli стали ярким свидетельством его широкого применения.
Как аналитик, я заметил общую точку сравнения между предложением от Microsoft, CoPilot, и ChatGPT от OpenAI, несмотря на текущие различия в коммерческих стратегиях этих технологических гигантов. Любопытно, что обе платформы главным образом используют аналогичную технологию и модели искусственного интеллекта. Тем не менее, недавние обновления показывают, что Microsoft экспериментирует с моделями сторонних разработчиков в Copilot и активно работает над созданием собственных уникальных моделей за пределами существующих.
Анализ показал, что наиболее частой жалобой пользователей на команду разработчиков ИИ Microsoft является неэффективность Copilot по сравнению с ChatGPT. Однако компания быстро опровергла это утверждение и возложила ответственность за проблему на неправильное формулирование запросов со стороны пользователей. В ответ они создали Академию Copilot для повышения квалификации пользователей в работе с ИИ и улучшения общей удовлетворенности такими инструментами, как Copilot.
В мае руководитель команды разработчиков Microsoft Teams Джефф Тайпер признал, что Copilot и ChatGPT очень похожи, если не идентичны. Однако он подчеркнул, что версия от Microsoft предлагает улучшенные функции безопасности и имеет превосходный пользовательский опыт.
Однако кажется, что у Microsoft может быть своя правота; потенциально это отклонение ответственности на недочёты в дизайне запросов, особенно если выводы недавнего исследования, проведённого учёными из Массачусетского технологического института (согласно информации FuturiSM), точны.
Будьте осторожны с опечатками при использовании ИИ
Исследование подчеркивает, что чрезмерная зависимость от искусственного интеллекта для руководства в здравоохранении может быть рискованной и иногда ошибочной. Более того, результаты показывают, что инструменты ИИ могут советовать пользователям избегать медицинской помощи при наличии опечаток или ошибок в их запросах, таких как неправильно написанные слова, лишние пробелы или неверное использование языка. В данном контексте разговорная речь и сленг являются потенциальными сигналами тревоги.
Исследователи добавили важное ограничение к своим выводам, утверждая, что женщины могут быть более уязвимы, чем мужчины, к обману со стороны вводящих в заблуждение советов ИИ. Однако важно относиться к этой информации с долей скептицизма. Исследование сосредоточилось на нескольких инструментах искусственного интеллекта, включая OpenAI’s GPT-4, Meta’s LLaMA-3-70b и медицинский AI под названием Palmira-Med.
В симуляции они использовали различные сценарии здоровья из медицинской базы данных, обсуждения на Reddit о здоровье и искусственно сгенерированные случаи числом в тысячи.
Интересно, что исследователи решили включить несоответствия в данные как способ испытания моделей искусственного интеллекта. Это было сделано с помощью различных методов, включая несогласованную капитализацию начала предложений, восклицательные знаки, разговорный язык и выражения типа ‘возможно’ или ‘это возможно’.
Похоже, что чатботы были обмануты уловкой, из-за чего скорректировали свои взгляды и медицинские рекомендации. В соответствии с исследованием, эти возмущения увеличили вероятность того, что чатбот посоветует пациенту воздержаться от посещения больницы на 7-9%.
Исследователи обнаружили, что системы искусственного интеллекта преимущественно зависят от качества данных медицинского обучения. В результате они иногда сталкиваются с трудностями при эффективной интерпретации информации, предоставленной пациентом, так как она зачастую не обладает последовательностью и структурой, типичными для медицинских публикаций.
Согласно исследованию, автор и руководитель работы из Массачусетского технологического института Абинита Гоурабатишна:
Хотя эти модели обычно дорабатываются при работе с запросами медицинской экспертизы, иногда их применяют для совершенно разных задач, например, оценки серьёзности клинической ситуации. По-прежнему много предстоит узнать о возможностях и ограничениях моделей изучения языка.
Результаты исследования подчеркивают значительные опасения относительно внедрения искусственного интеллекта в здравоохранении после заявления компании Microsoft о революционном медицинском инструменте на основе ИИ, который, как сообщается, является в 4 раза более точным и на 20% экономичным по сравнению с человеческими врачами. Генеральный директор подразделения AI компании Microsoft назвал это ‘важным шагом к медицинской суперинтеллекту.’
Кажется, что генеративный ИИ пока требует значительного развития прежде чем его можно будет полностью полагаться в таких сложных областях как медицина, учитывая текущее состояние разработки.
Смотрите также
- Лучшие смартфоны. Что купить в июле 2025.
- Неважно, на что вы фотографируете!
- Лучшие геймерские смартфоны. Что купить в июле 2025.
- Новые смартфоны. Что купить в июле 2025.
- Подводная съёмка. Как фотографировать под водой.
- Калькулятор глубины резкости. Как рассчитать ГРИП.
- Типы дисплеев. Какой монитор выбрать?
- Realme C71 ОБЗОР: плавный интерфейс, удобный сенсор отпечатков, большой аккумулятор
- alcatel 3 (2025) ОБЗОР: лёгкий, большой аккумулятор, удобный сенсор отпечатков
- vivo iQOO Neo8 ОБЗОР: скоростная зарядка, большой аккумулятор, яркий экран
2025-07-10 14:09