Сторонник децентрализованного ИИ считает, что инструменты с открытым исходным кодом расширяют возможности небольших компаний, занимающихся ИИ

Как аналитик с обширным опытом работы в индустрии искусственного интеллекта (ИИ), я твердо верю, что прозрачность и этические соображения необходимы для устойчивого роста этой области. Громкий иск против Lovo, который использовал голоса отдельных лиц без их согласия, является суровым напоминанием о потенциальных последствиях, когда фирмы игнорируют права на неприкосновенность частной жизни и этические стандарты.


📱 🚀 Перестаньте бесцельно прожигать жизнь! Присоединяйтесь к нашему Telegram-каналу @lospopadosos, чтобы узнавать последние новости о мобильных гаджетах. Потому что кому нужно реальное общение с людьми, когда вы можете наслаждаться чудесами технологий? 😎 💥 👇

top-mob.com Telegram


Чтобы избежать потенциальных судебных исков и споров по поводу использования незаконно полученных данных при обучении своих моделей ИИ, Альберто Фернандес советует компаниям, занимающимся ИИ, вместо этого использовать общедоступные данные или данные с открытым исходным кодом. Фернандес, сторонник децентрализованного искусственного интеллекта и европейский представитель Qubic Ecosystem, призывает эти фирмы принять меры для решения проблем конфиденциальности путем анонимизации и агрегирования используемых ими данных.

Стоимость обучения моделей ИИ представляет собой значительный входной барьер

В майском деле, в котором стартапу Lovo, занимающемуся искусственным интеллектом, предъявили иск за использование голосов двух актеров без разрешения, Фернандес согласился с обвинителями, что это было нарушением конфиденциальности. Он также заявил, что действия компании противоречили этическим принципам, поскольку они игнорировали контроль актеров над своим внешним видом. Представитель Qubic предполагает, что получение явного согласия от лиц, о которых идет речь, могло бы предотвратить любые потенциальные юридические последствия для Лово.

В TopMob Фернандес признал точность выводов отчета Стэнфордского университета AI Index относительно роста затрат на разработку моделей искусственного интеллекта высшего уровня. Тем не менее он подчеркнул, что небольшие компании с меньшими финансовыми ресурсами могут процветать, специализируясь на нишевых рынках и используя инструменты с открытым исходным кодом.

Что касается роли регулирующих органов в технологии искусственного интеллекта, Фернандес подчеркнул важность установления однозначных руководящих принципов. Он выступал за регулярные оценки и наложение наказаний за несоблюдение этих правил. Более того, он подчеркнул необходимость глобального сотрудничества для решения транснациональных проблем и повышения понимания безопасного использования ИИ посредством учебных программ.

Продолжая свои ответы, Фернандес изложил свои взгляды на будущее развитие сектора искусственного интеллекта в течение следующих пяти лет, а также подчеркнул важность содействия прогрессу и обеспечения безопасности широкой общественности.

В мае прошлого года пара подала в суд на Lovo, стартап в области искусственного интеллекта из Беркли, утверждая, что компания ненадлежащим образом использовала их голоса. Этот инцидент подчеркивает растущую напряженность между создателями контента и технологическими фирмами, обвиняемыми в сборе огромных объемов данных для поддержки своих систем искусственного интеллекта без получения согласия. По вашему мнению, имело ли Lovo оправдание для включения мнений отдельных лиц в свое системное обучение без предварительного одобрения? Какие потенциальные меры могла бы принять компания, чтобы избежать возможных судебных разбирательств?

Альберто Фернандес (АФ): Для LOVO важно уважать частную жизнь людей, получая их согласие, прежде чем использовать их голоса для обучения системы. Такой подход поддерживает этические стандарты, соответствует законам об интеллектуальной собственности и защищает автономию людей. Чтобы свести к минимуму потенциальные юридические проблемы, LOVO могла бы использовать такие альтернативы, как общедоступные голосовые данные, синтетическая генерация голоса или анонимизация и агрегирование существующих голосовых данных.

В условиях сегодняшнего технологического прогресса управление данными сопряжено со сложностями, которые в первую очередь связаны с ограничениями существующей нормативной базы. Эти правила защищают общественность от известных рисков, но могут препятствовать инновациям. Для достижения баланса власти могли бы:

Чтобы найти баланс между защитой населения и поощрением инноваций в управлении данными, крайне важно создать нормативно-правовую базу, которая будет одновременно адаптируемой и быстро реагирующей. Одним из эффективных методов является реализация стратегии, ориентированной на риск, при которой правила корректируются в соответствии с потенциальными рисками, связанными с отдельными типами данных и технологий. Такой подход гарантирует строгую безопасность конфиденциальной информации, одновременно предлагая больше свободы для менее опасных инноваций.

Как исследователь, изучающий нормативно-правовую базу для новых технологий, я бы выступал за внедрение нормативных «песочниц» как средства стимулирования инноваций при сохранении безопасности. Эти контролируемые среды позволяют тестировать новые технологии под надзором регулирующих органов, предоставляя ценную информацию и опыт, которые могут служить основой для будущих правил. Кроме того, открытые каналы связи между регулирующими органами, заинтересованными сторонами отрасли и общественностью необходимы для обеспечения того, чтобы развивающиеся правила оставались эффективными и реагировали на технологические достижения, избегая тем самым неоправданных препятствий на пути прогресса.

Сложности регулирования — лишь один из многих препятствий, которые предстоит преодолеть сектору искусственного интеллекта. Недавнее исследование Стэнфордского университета показало, что значительные расходы, связанные с обучением моделей искусственного интеллекта, создают барьер для новичков. Согласны ли вы с этой оценкой исследования Стэнфорда? Если да, то какие стратегии, по вашему мнению, могут использовать молодые компании, занимающиеся искусственным интеллектом, чтобы справиться с этой финансовой проблемой и процветать, а не исчезать?

Соглашаясь с выводами Стэнфордского университета, я признаю наличие существенных финансовых препятствий для обучения моделей ИИ за пределами крупных отраслей. Чтобы преодолеть эту проблему, использование облачных платформ искусственного интеллекта и объединение усилий с академическими учреждениями и консорциумами предлагают экономически эффективные решения. Кроме того, ориентация на нишевые рынки и внедрение инструментов с открытым исходным кодом могут расширить возможности для малых предприятий в секторе искусственного интеллекта, позволяя им развиваться и процветать в конкурентной борьбе.

Как представитель европейской экосистемы Qubic, сети первого уровня, специализирующейся на искусственном интеллекте (ИИ), я стремлюсь продвигать этическую разработку ИИ. Наша команда осознает важность решения проблем, с которыми сталкивается индустрия искусственного интеллекта в отношении этики и прозрачности.

Эксперт: Как основатель Qubic и поборник этической разработки ИИ, я стремлюсь способствовать прозрачности, защите конфиденциальности данных и расширению доступа к передовым технологиям ИИ для всех. Решая отраслевые препятствия посредством предоставления обширной и безопасной инфраструктуры, обеспечивающей децентрализованное управление данными и внедряя строгие структуры управления, Qubic уделяет приоритетное внимание этическим стандартам в инновациях в области искусственного интеллекта.

Наши предложения позволяют разработчикам создавать новаторские проекты в области ИИ, которые соответствуют этическим принципам и способствуют развитию морально обоснованных технологий ИИ. Кроме того, недавно мы направили приглашение ЮНЕСКО на нашу последнюю конференцию по искусственному интеллекту, подчеркнув наше внимание к этической разработке искусственного интеллекта и соблюдению международных этических стандартов, в конечном итоге гарантируя, что технология искусственного интеллекта будет служить человечеству ответственным образом.

«Как регулирующие органы в разных регионах могут защитить граждан от использования мошенниками, которые утверждают, что предоставляют услуги ИИ?»

Как исследователь в области искусственного интеллекта (ИИ), я считаю, что регулирующие органы играют решающую роль в защите общественности путем установления и обеспечения соблюдения четких стандартов для услуг ИИ. Это включает в себя проведение регулярных проверок для обеспечения соблюдения требований, наложение штрафов за несоблюдение требований и содействие прозрачности. Кроме того, международное сотрудничество между регулирующими органами имеет важное значение для решения трансграничных проблем при внедрении ИИ. Наконец, осведомленность общественности о безопасных практиках искусственного интеллекта может быть повышена посредством образовательных инициатив.

Как исследователь, участвовавший в разработке Qubic, я могу объяснить, что вместо того, чтобы полагаться на традиционные механизмы консенсуса «доказательство работы» или «доказательство доли», мы выбрали полезное доказательство работы (uPoW). Обоснование этого выбора проистекает из нашей цели сделать технологию блокчейна более полезной и продуктивной для сообщества.

Как криптоинвестор, я бы описал это так: Qubic использует два разных механизма консенсуса. Первый основан на кворуме и основан на концепции Ника Сабо, согласно которой для подтверждения транзакции требуется определенное количество утверждений. Это контрастирует с нашим алгоритмом Useful Proof of Work (uPoW), который направляет вычислительную мощность на практические задачи для повышения эффективности и использования ресурсов. Благодаря объединению майнинга и продуктивной работы с помощью uPoW сеть становится более плодотворной и устойчивой, сохраняя при этом надежную безопасность благодаря консенсусу на основе кворума.

BCN: И наконец, какой вы видите индустрию искусственного интеллекта через пять лет?

Я ожидаю, что в течение следующих пяти лет сектор искусственного интеллекта добьется существенного прогресса в разработке более этичных и ответственных технологий. Этому прогрессу будут способствовать многочисленные технологические прорывы. Цель состоит в том, чтобы сделать сложный ИИ доступным для всех, соблюдая при этом этические принципы с помощью прозрачных и подотчетных методов. Роль искусственного интеллекта в повседневной жизни резко расширится, что приведет к повышению эффективности в различных отраслях и предоставлению персонализированного пользовательского опыта, который будет более привлекательным, чем когда-либо прежде.

Кроме того, ожидается, что в этот период произойдет значительный прогресс в области искусственного общего интеллекта (AGI). Совместная работа сообщества ИИ направлена ​​на создание будущего, в котором ИИ положительно влияет на общество, стимулируя инновации и способствуя ответственному технологическому росту.

Смотрите также

2024-07-13 09:57