Анализ в глубине: какие искры могут создать ИИ и Web3?

ПродвинутыйJun 07, 2024
В этой статье исследуется стремительное развитие технологий искусственного интеллекта (ИИ) и Web3, а также потенциальная ценность и влияние их интеграции. Искусственный интеллект преуспевает в повышении производительности, в то время как Web3 трансформирует производственные отношения за счет децентрализации. Сочетание этих технологий позволяет применять инновационные приложения в области анализа данных, персонализированных пользовательских услуг, а также безопасности и защиты конфиденциальности.
Анализ в глубине: какие искры могут создать ИИ и Web3?

Введение: Разработка AI+Web3

В последние годы быстрое развитие технологий искусственного интеллекта (ИИ) и Web3 привлекло широкое внимание во всем мире. ИИ, технология, которая имитирует и имитирует человеческий интеллект, достигла значительных прорывов в таких областях, как распознавание лиц, обработка естественного языка и машинное обучение. Стремительное развитие технологий искусственного интеллекта привело к огромным преобразованиям и инновациям в различных отраслях.

В 2023 году объем рынка индустрии искусственного интеллекта достиг 200 миллиардов долларов, при этом гиганты отрасли и известные игроки, такие как OpenAI, Character.AI и Midjourney, быстро развиваются и ведущий бум искусственного интеллекта.

В то же время Web3, новая интернет-модель, постепенно меняет наше восприятие и использование интернета. Основанный на децентрализованной технологии блокчейн, Web3 реализует обмен данными и контроль, автономию пользователей и установление механизмов доверия с помощью таких функций, как смарт-контракты, распределенное хранилище и децентрализованная проверка личности. Основная идея Web3 заключается в том, чтобы освободить данные от централизованных органов, предоставив пользователям контроль и возможность делиться ценностью своих данных.

В настоящее время рыночная стоимость индустрии Web3 достигла $25 трлн. От Биткойна, Ethereum и Solana до игроков прикладного уровня, таких как Uniswap и Stepn, постоянно появляются новые нарративы и сценарии, привлекающие все больше и больше людей присоединиться к индустрии Web3.

Очевидно, что интеграция искусственного интеллекта и Web3 является фокусом для строителей и венчурных капиталистов как с Востока, так и с Запада. Изучение того, как эффективно сочетать эти две технологии, является очень полезным делом.

В этой статье мы сосредоточимся на текущем состоянии разработки AI+Web3, изучив потенциальную ценность и влияние их интеграции. Сначала мы познакомим вас с основными понятиями и характеристиками ИИ и Web3, а затем обсудим их взаимосвязь. После этого мы проанализируем текущее состояние AI+Web3-проектов и углубимся в ограничения и вызовы, с которыми они сталкиваются. С помощью этого исследования мы стремимся предоставить ценные рекомендации и идеи для инвесторов и профессионалов отрасли.

Как ИИ взаимодействует с Web3

Развитие ИИ и Web3 можно рассматривать как две стороны шкалы: ИИ повышает производительность, а Web3 революционизирует производственные отношения. Итак, какие искры могут создать ИИ и Web3 при столкновении? Сначала мы проанализируем проблемы и потенциальные улучшения в индустрии искусственного интеллекта и Web3, а затем рассмотрим, как они могут помочь решить проблемы друг друга.

  1. Проблемы и потенциальные улучшения в индустрии ИИ
  2. Проблемы и потенциальные улучшения в индустрии Web3

2.1 Проблемы в индустрии ИИ

Чтобы исследовать проблемы, с которыми сталкивается индустрия ИИ, мы должны сначала понять ее суть. Ядро индустрии искусственного интеллекта вращается вокруг трех ключевых элементов: вычислительной мощности, алгоритмов и данных.

  1. Во-первых, вычислительная мощность: Вычислительная мощность относится к способности выполнять крупномасштабные вычисления и обработку. Задачи ИИ обычно требуют обработки больших объемов данных и выполнения сложных вычислений, таких как обучение моделей глубоких нейронных сетей. Высокая вычислительная мощность может ускорить процессы обучения моделей и логического вывода, повышая производительность и эффективность систем ИИ. В последние годы достижения в области аппаратных технологий, таких как графические процессоры (GPU) и специализированные чипы искусственного интеллекта (например, TPU), значительно увеличили вычислительную мощность, стимулируя развитие индустрии искусственного интеллекта. Nvidia, крупный поставщик графических процессоров, в последние годы наблюдал резкий рост цен на свои акции, захватив большую долю рынка и получив значительную прибыль.
  2. Что такое алгоритм: Алгоритмы являются основными компонентами систем ИИ. Они представляют собой математические и статистические методы, используемые для решения задач и выполнения задач. Алгоритмы искусственного интеллекта можно разделить на традиционные алгоритмы машинного обучения и алгоритмы глубокого обучения, причем алгоритмы глубокого обучения совершили значительные прорывы в последние годы. Выбор и разработка алгоритмов имеют решающее значение для производительности и эффективности систем ИИ. Постоянное совершенствование и инновации в алгоритмах могут повысить точность, надежность и возможности обобщения систем ИИ. Разные алгоритмы дают разные результаты, поэтому усовершенствования алгоритмов необходимы для выполнения задач.
  3. Почему данные важны: Основная задача систем ИИ заключается в извлечении закономерностей и правил из данных посредством обучения и обучения. Данные формируют основу для обучения и оптимизации моделей. С помощью крупномасштабных выборок данных системы ИИ могут обучаться более точным и интеллектуальным моделям. Богатые наборы данных предоставляют исчерпывающую и разнообразную информацию, позволяя моделям лучше обобщать невидимые данные и помогая системам ИИ лучше понимать и решать реальные проблемы.

Разобравшись с тремя основными элементами современного ИИ, давайте рассмотрим трудности и проблемы, с которыми сталкивается ИИ в этих областях.

Во-первых, с точки зрения вычислительной мощности, задачи ИИ обычно требуют большого количества вычислительных ресурсов для обучения и вывода моделей, особенно для моделей глубокого обучения. Однако получение и управление крупномасштабными вычислительными мощностями является дорогостоящей и сложной задачей. Стоимость, энергопотребление и обслуживание высокопроизводительного вычислительного оборудования являются существенными проблемами. Это особенно сложно для стартапов и индивидуальных разработчиков, для которых получение достаточной вычислительной мощности может быть затруднительным.

Что касается алгоритмов, то, несмотря на значительные успехи алгоритмов глубокого обучения во многих областях, все еще существуют проблемы и трудности. Например, обучение глубоких нейронных сетей требует большого объема данных и вычислительных ресурсов. Кроме того, для некоторых задач интерпретируемость и объяснимость моделей может быть недостаточной. Надежность и способность алгоритмов к обобщению также являются важными вопросами, поскольку производительность модели на невидимых данных может быть нестабильной. Поиск наилучшего алгоритма, обеспечивающего оптимальную производительность среди многих алгоритмов, является постоянным исследованием.

С точки зрения данных, данные являются движущей силой ИИ, но получение высококачественных и разнообразных данных остается сложной задачей. Данные в некоторых областях, таких как конфиденциальные данные о здоровье в медицинском секторе, может быть трудно получить. Кроме того, качество, точность и маркировка данных являются критически важными вопросами, поскольку неполные или необъективные данные могут привести к ошибочному поведению модели или смещениям. Защита конфиденциальности и безопасности данных также является важным фактором.

Кроме того, есть вопросы, связанные с интерпретируемостью и прозрачностью. Характер моделей ИИ «черного ящика» вызывает озабоченность общественности. В некоторых приложениях, таких как финансы, здравоохранение и правосудие, процесс принятия решений на основе моделей должен быть интерпретируемым и отслеживаемым. Однако существующим моделям глубокого обучения часто не хватает прозрачности. Объяснение процесса принятия решений по моделям и предоставление надежных объяснений остаются сложной задачей.

Кроме того, бизнес-модели многих стартап-проектов в области ИИ не очень понятны, что также вызывает путаницу у многих предпринимателей в области ИИ.

2.2 Проблемы в индустрии Web3

В индустрии Web3 существует множество проблем, которые необходимо решить, начиная от анализа данных и пользовательского опыта и заканчивая уязвимостями смарт-контрактов и хакерскими атаками. Искусственный интеллект как инструмент повышения производительности обладает значительным потенциалом в этих областях.

Во-первых, есть возможности для улучшения анализа данных и возможностей прогнозирования. Применение ИИ в анализе данных и прогнозировании оказало значительное влияние на индустрию Web3. Благодаря интеллектуальному анализу и интеллектуальному анализу с помощью алгоритмов искусственного интеллекта платформы Web3 могут извлекать ценную информацию из огромных объемов данных и принимать более точные прогнозы и решения. Это особенно важно для оценки рисков, прогнозирования рынка и управления активами в децентрализованных финансах (DeFi).

Кроме того, существует потенциал для улучшения пользовательского опыта и персонализации услуг. Приложения искусственного интеллекта позволяют платформам Web3 предлагать лучший пользовательский опыт и персонализированные услуги. Анализируя и моделируя пользовательские данные, платформы Web3 могут предоставлять персонализированные рекомендации, настраиваемые услуги и интеллектуальный опыт взаимодействия. Это помогает повысить вовлеченность и удовлетворенность пользователей, способствуя развитию экосистемы Web3. Например, многие протоколы Web3 интегрируют инструменты искусственного интеллекта, такие как ChatGPT, чтобы лучше обслуживать пользователей.

С точки зрения безопасности и защиты конфиденциальности приложения ИИ также оказывают глубокое влияние на индустрию Web3. Технология искусственного интеллекта может использоваться для обнаружения сетевых атак и защиты от них, выявления аномального поведения и обеспечения более строгих мер безопасности. Кроме того, ИИ можно применять для защиты конфиденциальности данных, защищая личную информацию пользователей на платформах Web3 с помощью таких методов, как шифрование данных и вычисления конфиденциальности. Что касается аудита смарт-контрактов, поскольку в процессах написания и аудита смарт-контрактов могут существовать уязвимости и риски безопасности, технология искусственного интеллекта может использоваться для автоматизированного аудита контрактов и обнаружения уязвимостей, повышая безопасность и надежность контрактов.

Очевидно, что ИИ может внести значительный вклад в решение проблем и потенциальные улучшения в индустрии Web3 в различных аспектах.

Анализ текущей ситуации проекта AI+Web3

Объединение проектов AI и Web3 в первую очередь фокусируется на двух основных аспектах: использование технологии блокчейн для улучшения проектов ИИ и использование технологии ИИ для улучшения проектов Web3. На этом пути появилось множество проектов, в том числе Io.net, Gensyn, Ritual и другие. Следующий анализ будет посвящен различным подобластям, в которых ИИ помогает Web3, а где Web3 улучшает ИИ.

3.1 Web3 помогает ИИ

3.1.1 децентрализованный Вычислительная мощность

С момента запуска ChatGPT компанией OpenAI в конце 2022 года он вызвал ажиотаж в сфере ИИ. В течение пяти дней после релиза пользовательская база достигла одного миллиона, превзойдя показатель загрузки Instagram, которому потребовалось примерно два с половиной месяца, чтобы достичь того же рубежа. Впоследствии ChatGPT пережил быстрый рост: к ноябрю 2023 года количество ежемесячных активных пользователей достигло 100 миллионов, а к ноябрю 2023 года — 100 миллионов. С появлением ChatGPT сектор искусственного интеллекта быстро превратился из нишевой области в высоко ценимую отрасль.

Согласно отчету Trendforce, для работы ChatGPT требуется 30 000 графических процессоров NVIDIA A100, а будущие модели, такие как GPT-5, потребуют еще большей вычислительной мощности. Это вызвало гонку вооружений среди различных компаний, занимающихся ИИ, поскольку обладание достаточной вычислительной мощностью имеет решающее значение для поддержания конкурентного преимущества на арене ИИ, ведущего к нехватке графических процессоров.

До роста ИИ основной поставщик графических процессоров, NVIDIA, в основном обслуживал клиентов из трех основных облачных сервисов: AWS, Azure и GCP. С ростом искусственного интеллекта появилось множество новых покупателей, в том числе крупные технологические компании, такие как Meta, Oracle, а также другие платформы данных и стартапы в области искусственного интеллекта, которые присоединились к гонке за запасами графических процессоров для обучения моделей ИИ. Крупные технологические компании, такие как Meta и Tesla, значительно увеличили закупки кастомизированных моделей искусственного интеллекта и внутренних исследований. Компании, занимающиеся базовыми моделями, такие как Anthropic, и платформы данных, такие как Snowflake и Databricks, также приобрели больше графических процессоров, чтобы помочь своим клиентам в предоставлении услуг ИИ.

Как упоминал Semi Analysis в прошлом году, существует разрыв между «богатыми» и «бедными графическими процессорами», и лишь немногие из них владеют более чем 20 000 графических процессоров A100/H100, что позволяет членам команды использовать от 100 до 1000 графических процессоров для проектов. Эти компании либо являются поставщиками облачных услуг, либо создали свои собственные большие языковые модели (LLM), включая OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral и другие.

Тем не менее, большинство компаний падение в категорию «плохих графических процессоров», борясь со значительно меньшим количеством графических процессоров и тратя значительное количество времени и усилий на задачи, которые сложнее для развития экосистемы. Причем эта ситуация не ограничивается стартапами. Некоторые из самых известных компаний, занимающихся искусственным интеллектом, такие как Hugging Face, Databricks (MosaicML), Together и даже Snowflake, имеют количество A100/H100 менее 20 000. Несмотря на наличие технических талантов мирового класса, эти компании ограничены ограниченным предложением графических процессоров, что ставит их в невыгодное положение по сравнению с более крупными компаниями в конкурентной борьбе за ИИ.

Эта нехватка не ограничивается категорией «плохих графических процессоров»; даже к концу 2023 года ведущему игроку на рынке искусственного интеллекта OpenAI пришлось временно закрыть платные регистрации из-за невозможности получить достаточное количество графических процессоров и закупить больше расходных материалов для графических процессоров.

Очевидно, что быстрое развитие искусственного интеллекта привело к серьезному несоответствию между спросом и предложением графических процессоров, что привело к неминуемому дефициту предложения.

Чтобы решить эту проблему, некоторые проекты Web3 начали изучать решения для децентрализованных вычислительных мощностей, используя уникальные характеристики технологии Web3. К таким проектам относятся Akash, Render, Gensyn и другие. Общей чертой среди этих проектов является использование токенов для поддержки пользователей предоставлять простаивающие вычислительные мощности графического процессора, тем самым становясь стороной предложения вычислительной мощности для клиентов ИИ.

Профиль предложения в основном состоит из трех аспектов: поставщики облачных услуг, майнеры криптовалют и предприятия. К поставщикам облачных услуг относятся крупные поставщики облачных услуг (например, AWS, Azure, GCP) и поставщики облачных услуг GPU (такие как Coreweave, Lambda, Crusoe), где пользователи могут перепродавать простаивающие вычислительные мощности этих поставщиков для получения дохода. С переходом Ethereum с PoW на PoS простаивающая вычислительная мощность графического процессора стала важной потенциальной стороной предложения для майнеров криптовалюты. Кроме того, крупные предприятия, такие как Tesla и Meta, которые приобрели большое количество графических процессоров для стратегических целей, также могут предоставить свои простаивающие вычислительные мощности графических процессоров в рамках предложения.

В настоящее время игроков в этой области можно разделить на две категории: те, кто использует децентрализованные вычислительные мощности для инференса ИИ, и те, кто использует их для обучения ИИ. Первая категория включает в себя такие проекты, как Render (хотя он и ориентирован на рендеринг, он также может быть использован для вычислений с искусственным интеллектом), Akash, Aethir, в то время как вторая категория включает в себя такие проекты, как io.net (поддерживающий как инференс, так и обучение) и Gensyn. Ключевое различие между ними заключается в разных требованиях к вычислительной мощности.

Давайте сначала обсудим проекты, ориентированные на инференс ИИ. Эти проекты привлекают пользователей к предоставлению вычислительной мощности с помощью стимулов в виде токенов, а затем предоставляют услуги вычислительной мощности на стороне спроса, тем самым способствуя соответствию спроса и предложения простаивающих вычислительных мощностей. Подробности о таких проектах описаны в исследовательском отчете DePIN от Ryze Labs, не стесняйтесь их читать.

Суть заключается в механизме поощрения токенов, где проект сначала привлекает поставщиков, а затем пользователей, тем самым достигая холодного старта и основного механизма работы проекта, что позволяет в дальнейшем расширяться и развиваться. В этом цикле сторона предложения получает более ценные вознаграждения в виде токенов, в то время как сторона спроса пользуется более экономичными услугами. Стоимость токенов проекта и рост как спроса, так и предложения участников остаются стабильными. По мере роста цены токена привлекается все больше участников и спекулянтов, создавая цикл захвата стоимости.

Другая категория включает в себя использование децентрализованных вычислительных мощностей для обучения ИИ, таких как Gensyn и io.net (которые поддержка как обучение ИИ, так и логические выводы). На самом деле, операционная логика этих проектов принципиально не отличается от проектов ИИ-инференса. Они по-прежнему полагаются на символические стимулы для привлечения участия со стороны предложения для обеспечения вычислительной мощности, которая затем используется стороной спроса.

io.net, как децентрализованная вычислительная сеть, в настоящее время может похвастаться более чем 500 000 графических процессоров, что делает ее выдающимся исполнителем в проектах децентрализованных вычислительных мощностей. Кроме того, он интегрировал вычислительные мощности Render и Filecoin, демонстрируя непрерывное развитие своей экосистемы.

Кроме того, Gensyn облегчает распределение задач машинного обучения и вознаграждения с помощью смарт-контрактов, чтобы обеспечить обучение ИИ. Как показано на диаграмме ниже, почасовая стоимость работы по обучению машинного обучения в Gensyn составляет примерно 0,4 USD, что значительно ниже, чем стоимость более 2 USD для AWS и GCP.

Экосистема Gensyn включает в себя четыре организации-участника:

  • Отправители: это пользователи на стороне спроса, которые потребляют задачи и платят за задачи по обучению ИИ.
  • Исполнители: Исполнители выполняют задачи по обучению модели и предоставляют доказательства выполнения задачи для проверки.
  • Верификаторы: Верификаторы связывают недетерминированный процесс обучения с детерминированными линейными вычислениями. Они сравнивают доказательства, предоставленные исполнителями, с ожидаемыми пороговыми значениями.
  • Репортеры: Репортеры проверяют работу верификаторов и поднимают задачи, чтобы получить вознаграждение за выявление проблем.

Как мы видим, Gensyn стремится стать массово масштабируемым и экономически эффективным вычислительным протоколом для глобальных моделей глубокого обучения. Однако, глядя на эту область, почему большинство проектов выбирают децентрализованные вычислительные мощности для инференса ИИ, а не для обучения?

Давайте также поможем друзьям, которые не знакомы с обучением и логическим выводом ИИ, понять разницу между ними:

  • Обучение ИИ: Если уподобить искусственный интеллект ученику, то обучение похоже на предоставление ИИ большого количества знаний и примеров, которые можно понимать как данные. Искусственный интеллект учится на этих примерах. Поскольку обучение включает в себя понимание и запоминание большого объема информации, этот процесс требует значительных вычислительных мощностей и времени.
  • Вывод ИИ: Так что же это за вывод? Его можно понимать как использование полученных знаний для решения задач или сдачи экзаменов. Во время умозаключений искусственный интеллект использует полученные знания для предоставления ответов, а не для получения новых знаний. Таким образом, вычислительные требования к процессу логического вывода относительно невелики.

Можно заметить, что требования к вычислительной мощности как для логического вывода ИИ, так и для обучения ИИ существенно различаются. Доступность децентрализованных вычислительных мощностей для инференса ИИ и обучения ИИ будет дополнительно проанализирована в предстоящем разделе, посвященном задачам.

Кроме того, Ritual стремится объединить распределенные сети с создателями моделей для поддержания децентрализации и безопасности. Его первый продукт, Infernet, позволяет смарт-контрактам на блокчейне получать доступ к моделям ИИ вне блокчейна, позволяя таким контрактам получать доступ к ИИ таким образом, чтобы поддерживать проверку, децентрализацию и защиту конфиденциальности.

Координатор Infernet отвечает за управление поведением узлов в сети и реагирование на вычислительные запросы потребителей. Когда пользователи используют Infernet, такие задачи, как вывод и доказательство, выполняются вне блокчейна, а выходные данные возвращаются координатору и в конечном итоге передаются потребителям в блокчейне через смарт-контракты.

В дополнение к децентрализованным сетям вычислительных мощностей, существуют также децентрализованные сети пропускной способности, такие как Grass, которые направлены на повышение скорости и эффективности передачи данных. В целом, появление децентрализованных сетей вычислительных мощностей открывает новые возможности для предложения вычислительных мощностей ИИ, продвигая ИИ вперед в новых направлениях.

3.1.2 Децентрализованная модель алгоритма

Как упоминалось во второй главе, тремя основными элементами ИИ являются вычислительная мощность, алгоритмы и данные. Поскольку вычислительная мощность может формировать сеть поставок посредством децентрализации, могут ли алгоритмы также следовать аналогичному подходу и формировать сеть поставок для моделей алгоритмов?

Прежде чем анализировать проекты в этой области, давайте сначала разберемся в значении моделей децентрализованных алгоритмов. Многие могут задаться вопросом, раз у нас уже есть OpenAI, зачем нам нужна децентрализованная сеть алгоритмов?

По сути, децентрализованная сеть алгоритмов — это децентрализованный рынок услуг алгоритмов ИИ, который соединяет множество различных моделей ИИ. Каждая модель ИИ обладает собственной экспертизой и навыками. Когда пользователи задают вопросы, маркетплейс выбирает наиболее подходящую модель ИИ для ответа на вопрос. Chat-GPT, разработанный OpenAI, является одной из таких моделей искусственного интеллекта, которая может понимать и генерировать текст, похожий на человеческий.

Проще говоря, ChatGPT похож на очень способного студента, помогающего решать различные типы проблем, в то время как децентрализованная сеть алгоритмов похожа на школу с множеством студентов, помогающих решать проблемы. Несмотря на то, что нынешний студент (ChatGPT) обладает высокими способностями, в лонге есть большой потенциал для школы, которая может набирать студентов со всего мира.

В настоящее время в области децентрализованных моделей алгоритмов также есть несколько проектов, которые экспериментируют и изучают. Далее мы будем использовать репрезентативный проект Bittensor в качестве кейса, чтобы помочь понять развитие этой нишевой сферы.

В Bittensor поставщики моделей алгоритмов (или майнеров) вносят свои модели машинного обучения в сеть. Эти модели могут анализировать данные и предоставлять аналитические сведения. Поставщики моделей получают криптовалютные токены, известные как TAO, в качестве вознаграждения за свой вклад.

Чтобы гарантировать качество ответов, Bittensor использует уникальный механизм консенсуса для достижения консенсуса по лучшему ответу. Когда задается вопрос, несколько майнеров моделей дают ответы. Затем валидаторы в сети начинают работать над определением лучшего ответа, который затем отправляется обратно пользователю.

Токен TAO в экосистеме Bittensor играет две основные роли на протяжении всего процесса. С одной стороны, это служит стимулом для майнеров вносить модели алгоритмов в сеть. С другой стороны, пользователям нужно тратить токены, чтобы задавать вопросы и заставлять сеть выполнять задачи.

Поскольку Bittensor децентрализован, любой, у кого есть доступ в Интернет, может присоединиться к сети, либо в качестве пользователя, задающего вопросы, либо в качестве майнера, предоставляющего ответы. Это позволяет большему количеству людей использовать возможности искусственного интеллекта.

Таким образом, децентрализованные сети с моделью алгоритмов, такие как Bittensor, имеют потенциал для создания более открытого и прозрачного ландшафта. В этой экосистеме модели ИИ можно обучать, совместно использовать и использовать безопасным и децентрализованным образом. Кроме того, другие сети, такие как BasedAI, пытаются предпринять аналогичные усилия, с интригующим аспектом использования доказательств с нулевым разглашением (ZK) для защиты конфиденциальности интерактивных данных пользовательской модели, который будет более подробно рассмотрен в четвертом подразделе.

По мере развития децентрализованных платформ моделей алгоритмов они позволят небольшим компаниям конкурировать с крупными организациями в использовании передовых инструментов искусственного интеллекта, что потенциально окажет значительное влияние на различные отрасли.

3.1.3 Децентрализованный сбор данных

Для обучения моделей ИИ необходим большой запас данных. Тем не менее, большинство Web2-компаний в настоящее время по-прежнему монополизируют пользовательские данные. Такие платформы, как X, Reddit, TikTok, Snapchat, Instagram и YouTube, запрещают сбор данных для обучения ИИ, что является существенным препятствием для развития индустрии ИИ.

С другой стороны, некоторые платформы Web2 продают пользовательские данные компаниям, занимающимся искусственным интеллектом, не делясь с пользователями какой-либо прибылью. Например, Reddit заключил соглашение с Google на сумму 60 миллионов долларов, что позволило Google обучать модели искусственного интеллекта с помощью своих постов. Это приводит к тому, что права на сбор данных монополизируются крупными компаниями, занимающимися капиталом и большими данными, что подталкивает отрасль к капиталоемкому направлению.

В ответ на эту ситуацию некоторые проекты используют стимулы Web3 и токенов для достижения децентрализованного сбора данных. Возьмем, к примеру, PublicAI: пользователи могут участвовать в двух ролях:

  • Одной из категорий являются поставщики данных ИИ. Пользователи могут находить ценный контент на X, тегировать @PublicAI официальные счет со своими инсайтами и использовать хэштеги #AI или #Web3 для категоризации контента, тем самым отправляя его в центр обработки данных PublicAI для сбора.
  • Другая категория — валидаторы данных. Пользователи могут войти в дата-центр PublicAI и проголосовать за самые ценные данные для обучения ИИ.

В качестве вознаграждения пользователи могут зарабатывать токены за счет этих вкладов, способствуя взаимовыгодным отношениям между поставщиками данных и индустрией ИИ.

В дополнение к таким проектам, как PublicAI, которые специально собирают данные для обучения ИИ, существует множество других проектов, использующих стимулы токенов для децентрализованного сбора данных. Например, Ocean собирает пользовательские данные с помощью токенизации данных для обслуживания ИИ, Hivemapper использует автомобильные камеры пользователей для сбора картографических данных, Dimo собирает данные об автомобилях, а WiHi собирает данные о погоде. Эти проекты, благодаря децентрализованному сбору данных, также служат потенциальными источниками данных для обучения ИИ. Таким образом, в широком смысле их можно включить в парадигму Web3, помогающего ИИ.

3.1.4 ZK защищает конфиденциальность пользователей в ИИ

Технология блокчейна предлагает преимущества децентрализации, а также вводит важную функцию: доказательства с нулевым разглашением. Технология нулевого разглашения позволяет проверять информацию, сохраняя при этом конфиденциальность.

В традиционном машинном обучении данные, как правило, должны храниться и обрабатываться централизованно, что может привести к рискам для конфиденциальности. Методы защиты конфиденциальности данных, такие как шифрование или анонимизация данных, могут ограничивать точность и производительность моделей машинного обучения.

Технология доказательства с нулевым разглашением помогает решить эту дилемму, устраняя конфликт между защитой конфиденциальности и обменом данными. Машинное обучение с нулевым разглашением (ZKML) использует технологию доказательства с нулевым разглашением, чтобы обеспечить обучение моделей машинного обучения и логические выводы без раскрытия исходных данных. Доказательства с нулевым разглашением гарантируют, что характеристики данных и результаты модели могут быть проверены как правильные без раскрытия фактического содержимого данных.

Основной целью ZKML является поиск баланса между защитой конфиденциальности и обменом данными. Его можно применять в различных сценариях, таких как анализ медицинских данных, анализ финансовых данных и сотрудничество между организациями. Используя ZKML, люди могут защитить конфиденциальность своих конфиденциальных данных, обмениваясь данными с другими, чтобы получить более широкую информацию и возможности для совместной работы без риска нарушения конфиденциальности данных. Это месторождение все еще находится на ранних стадиях, и большинство проектов все еще находятся в стадии разведки. Например, BasedAI предлагает децентрализованный подход, легко интегрируя полностью гомоморфное шифрование (FHE) с большими языковыми моделями (LLM) для сохранения конфиденциальности данных. Большие языковые модели с нулевым разглашением (ZK-LLM) встраивают конфиденциальность в свою распределенную сетевую инфраструктуру, гарантируя, что пользовательские данные остаются конфиденциальными на протяжении всей работы сети.

Вот краткое объяснение полностью гомоморфного шифрования (FHE). FHE — это метод шифрования, который позволяет выполнять вычисления с зашифрованными данными без необходимости их расшифровки. Это означает, что различные математические операции (такие как сложение, умножение и т. д.), выполняемые с данными, зашифрованными FHE, дают те же результаты, что и с исходными незашифрованными данными, тем самым защищая конфиденциальность пользовательских данных.

В дополнение к вышеупомянутым методам, Web3 также поддерживает ИИ через такие проекты, как Cortex, который позволяет выполнять программы ИИ в блокчейне. Запуск программ машинного обучения на традиционных блокчейнах сталкивается с проблемой, поскольку виртуальные машины крайне неэффективны при запуске любых нетривиальных моделей машинного обучения. Большинство считает, что запуск ИИ на блокчейне невозможен. Однако виртуальная машина Cortex (CVM) использует графические процессоры для выполнения программ искусственного интеллекта в блокчейне и совместима с виртуальной машиной Ethereum (EVM). Другими словами, цепочка Cortex может выполнять все децентрализованные приложения Ethereum и интегрировать машинное обучение искусственного интеллекта в эти децентрализованные приложения. Это позволяет моделям машинного обучения работать децентрализованно, неизменяемо и прозрачно, при этом сетевой консенсус проверяет каждый шаг вывода ИИ.

3.2 ИИ помогает Web3

В столкновении между ИИ и Web3, помимо помощи Web3 ИИ, заслуживает внимания и помощь ИИ индустрии Web3. Основным вкладом искусственного интеллекта является повышение производительности, поэтому существует множество попыток ИИ аудита смарт-контрактов, анализа и прогнозирования данных, персонализированных услуг, безопасности и защиты конфиденциальности и т. Д.

3.2.1 Анализ и прогнозирование данных

Многие проекты Web3 интегрируют существующие сервисы искусственного интеллекта (например, ChatGPT) или разрабатывают свои собственные, чтобы предоставлять пользователям Web3 услуги по анализу данных и прогнозированию. Эти услуги охватывают широкий спектр, включая алгоритмы искусственного интеллекта для инвестиционных стратегий, инструменты анализа в блокчейне, а также прогнозы цен и рынка.

Например, Pond использует графовые алгоритмы искусственного интеллекта для прогнозирования ценных будущих альфа-токенов, предлагая услуги инвестиционного консультирования пользователям и учреждениям. BullBear AI обучается на исторических данных пользователей, истории цен и рыночных тенденциях, чтобы предоставлять точную информацию, подтверждающую прогнозы ценовых тенденций, помогая пользователям получать прибыль.

Такие платформы, как Numerai, проводят инвестиционные конкурсы, участники которых используют искусственный интеллект и большие языковые модели для прогнозирования фондовых рынков. Они обучают модели на высококачественных данных, предоставляемых платформой, и отправляют ежедневные прогнозы. Numerai оценивает эти прогнозы в течение следующего месяца, и участники могут застейкать NMR токены на свои модели, чтобы получать вознаграждения в зависимости от производительности.

Arkham, блокчейн-платформа для анализа данных, также интегрирует ИИ в свои сервисы. Arkham связывает адреса блокчейна с такими организациями, как биржи, фонды и киты, отображая ключевые данные и анализ, чтобы дать пользователям преимущество в принятии решений. Arkham Ultra сопоставляет адреса с реальными сущностями, используя алгоритмы, разработанные в течение трех лет при поддержке основателей Palantir и OpenAI.

3.2.2 Персонализированные услуги

Приложения искусственного интеллекта в поиске и рекомендациях широко распространены в проектах Web2, обслуживая персонализированные потребности пользователей. Проекты Web3 аналогичным образом интегрируют ИИ для улучшения пользовательского опыта.

Например, известная платформа анализа данных Dune недавно представила инструмент Wand, который использует большие языковые модели для написания SQL-запросов. С помощью Wand Create пользователи могут создавать SQL-запросы на основе вопросов на естественном языке, что упрощает поиск данных для тех, кто не знаком с SQL.

Контент-платформы, такие как Followin, интегрируют ChatGPT для обобщения точек зрения и обновлений в конкретных секторах. Энциклопедия Web3 IQ.wiki стремится стать основным источником объективных, высококачественных знаний о технологии блокчейн и криптовалюте. Он интегрирует GPT-4 для обобщения вики-статей, делая информацию о блокчейне более доступной во всем мире. Поисковая система Kaito на основе LLM стремится произвести революцию в поиске информации Web3.

В творческой сфере такие проекты, как NFPrompt, снижают затраты на создание контента. NFPrompt позволяет пользователям легче создавать NFT с помощью искусственного интеллекта, предоставляя различные персонализированные творческие услуги.

3.2.3 Аудит смарт-контрактов ИИ

Аудит смарт-контрактов является важнейшей задачей в Web3, и ИИ может повысить эффективность и точность выявления уязвимостей кода.

Виталик Бутерин отметил, что одной из самых больших проблем в криптовалютном пространстве являются ошибки в нашем коде. Искусственный интеллект обещает значительно упростить использование инструментов формальной верификации для подтверждения правильности кода. Достижение этого может привести к почти безошибочному SEK EVM (виртуальная машина Ethereum), повышая безопасность космоса, поскольку меньшее количество ошибок повышает общую безопасность.

Например, проект 0x0.ai предлагает аудитора смарт-контрактов на основе искусственного интеллекта. Этот инструмент использует передовые алгоритмы для анализа смарт-контрактов и выявления потенциальных уязвимостей или проблем, которые могут привести к мошенничеству или другим рискам безопасности. Аудиторы используют машинное обучение для обнаружения закономерностей и аномалий в коде, отмечая потенциальные проблемы для дальнейшего рассмотрения.

Есть и другие нативные кейсы, когда ИИ помогает Web3. PAAL помогает пользователям создавать персонализированных ботов с искусственным интеллектом, которые можно развернуть в Telegram и Discord для обслуживания пользователей Web3. Мультичейн-агрегатор DEX Hera на основе искусственного интеллекта использует искусственный интеллект для обеспечения наилучших торговых путей между любыми парами токенов по различным токенам. В целом, вклад ИИ в Web3 заключается в первую очередь на уровне инструментов, улучшая различные процессы и функции.

Ограничения и текущие проблемы проекта ИИ + Web3

4.1 Реалистичные препятствия в децентрализованных Вычислительная мощность

В настоящее время многие проекты Web3, помогающие ИИ, сосредоточены на децентрализованных вычислительных мощностях. Использование токен-стимулов для поощрения пользователей по всему миру стать частью источника вычислительной мощности является очень интересным нововведением. Однако, с другой стороны, есть некоторые реалистичные вопросы, которые необходимо решить:

По сравнению с поставщиками услуг централизованных вычислительных мощностей, децентрализованные вычислительные мощности обычно полагаются на узлы и участников, распределенных по всему миру, для предоставления вычислительных ресурсов. Из-за возможных задержек и нестабильности сетевых подключений между этими узлами производительность и стабильность могут быть хуже, чем у продуктов централизованной вычислительной мощности.

Кроме того, на доступность децентрализованных вычислительных мощностей влияет степень соответствия между спросом и предложением. Если поставщиков недостаточно или спрос слишком высок, это может привести к нехватке ресурсов или невозможности удовлетворить потребности пользователей.

Наконец, по сравнению с продуктами для централизованных вычислений, децентрализованные вычислительные мощности обычно включают в себя больше технических деталей и сложности. Пользователям может потребоваться понимать и обрабатывать аспекты распределенных сетей, смарт-контрактов и криптовалютных платежей, что увеличивает стоимость понимания и использования пользователями.

После углубленных обсуждений с многочисленными проектными группами децентрализованных вычислительных мощностей было обнаружено, что нынешние децентрализованные вычислительные мощности по-прежнему в основном ограничены логическим выводом ИИ, а не обучением ИИ.

Далее я воспользуюсь четырьмя вопросами, чтобы помочь всем понять причины этого:

  1. Почему большинство проектов децентрализованных вычислительных мощностей предпочитают делать логические выводы ИИ, а не обучать ИИ?

  2. Что делает NVIDIA такой мощной? По каким причинам обучение децентрализованным вычислительным мощностям затруднено?

  3. Каким будет эндшпиль для децентрализованных вычислительных мощностей (Render, Akash, io.net и т.д.)?

  4. Каким будет эндшпиль для децентрализованных алгоритмов (Bittensor)?

Давайте разберемся в деталях по порядку:

1) Наблюдая за этой областью, большинство проектов децентрализованных вычислительных мощностей предпочитают сосредоточиться на инференсе ИИ, а не на обучении, в первую очередь из-за различных требований к вычислительной мощности и пропускной способности.

Чтобы всем было понятнее, давайте сравним ИИ со студентом:

  • Обучение ИИ: Если мы сравним искусственный интеллект с учеником, обучение похоже на предоставление ИИ большого количества знаний и примеров, сродни тому, что мы часто называем данными. Искусственный интеллект учится на этих примерах. Поскольку обучение включает в себя понимание и запоминание огромных объемов информации, этот процесс требует значительных вычислительных мощностей и времени.

  • Инференс ИИ: Инференс можно понимать как использование полученных знаний для решения задач или сдачи экзаменов. Во время логического вывода ИИ использует полученные знания для ответов на вопросы, а не для получения новой информации, поэтому вычислительные требования относительно ниже.

Нетрудно заметить, что фундаментальная разница в сложности заключается в том, что обучение ИИ больших моделей требует огромных объемов данных и чрезвычайно высокой пропускной способности для передачи данных, что делает его очень сложным для достижения с помощью децентрализованных вычислительных мощностей. В отличие от этого, логический вывод требует гораздо меньше данных и пропускной способности, что делает его более осуществимым.

Для больших моделей устойчивость имеет решающее значение. Если обучение прерывается, оно должно быть перезапущено, что приводит к высоким невозвратным затратам. С другой стороны, могут быть удовлетворены требования с относительно низкими требованиями к вычислительной мощности, такие как логический вывод ИИ или определенные специфические сценарии, включающие обучение средних и малых моделей. В децентрализованных сетях вычислительных мощностей некоторые относительно крупные поставщики услуг узлов могут удовлетворить эти относительно высокие требования к вычислительной мощности.

2) Итак, где же узкие места в данных и пропускной способности? Почему децентрализованное обучение трудно достичь?

Это включает в себя два ключевых элемента обучения больших моделей: вычислительную мощность одной карты и параллелизм нескольких карт.

В настоящее время все центры, требующие обучения больших моделей, называемые суперкомпьютерными центрами, можно сравнить с человеческим телом, где базовый блок, графический процессор, похож на клетку. Если вычислительная мощность одной ячейки (GPU) высока, то общая вычислительная мощность (количество × одной ячейки) также может быть очень высокой.

Параллелизм нескольких карт: Для обучения большой модели часто требуются сотни миллиардов гигабайт. Для суперкомпьютерных центров, обучающих большие модели, требуются не менее десятков тысяч графических процессоров A100. Это требует мобилизации тысяч карт для обучения. Однако обучение большой модели — это не простой последовательный процесс; он не просто тренируется на первой карте А100, а затем переходит на вторую. Вместо этого разные части модели обучаются на разных графических процессорах одновременно, и для обучения части А могут потребоваться результаты из части Б, включающей параллельную обработку.

Доминирование NVIDIA и растущая рыночная стоимость, в то время как AMD и отечественным компаниям, таким как Huawei и Horizon, трудно наверстать упущенное, проистекают из двух аспектов: программной среды CUDA и мультикарточной связи NVLink.

Программная среда CUDA: Наличие программной экосистемы, соответствующей аппаратному обеспечению, имеет решающее значение, как и система CUDA от NVIDIA. Создание новой системы — сложная задача, сродни созданию нового языка с высокими затратами на замену.

NVLink Multi-card Communication: По сути, связь с несколькими картами включает в себя ввод и вывод информации. Распараллеливание и передача имеют решающее значение. Наличие NVLink означает, что карты NVIDIA и AMD не могут взаимодействовать; Кроме того, NVLink ограничивает физическое расстояние между графическими процессорами, требуя, чтобы они находились в одном суперкомпьютерном центре. Это затрудняет формирование децентрализованных вычислительных мощностей, распределенных по всему миру, целостного вычислительного кластера для обучения больших моделей.

Первый пункт объясняет, почему AMD и отечественные компании, такие как Huawei и Horizon, изо всех сил пытаются наверстать упущенное; второй пункт объясняет, почему децентрализованное обучение трудно достичь.

3) Каким будет эндшпиль децентрализованных вычислительных мощностей? Децентрализованные вычислительные мощности в настоящее время испытывают трудности с обучением больших моделей, потому что стабильность имеет первостепенное значение. Перерывы в работе требуют переподготовки, что приводит к высоким невозвратным затратам. Высокие требования к параллелизму нескольких карт ограничены ограничениями физической пропускной способности. NVLink от NVIDIA обеспечивает связь между несколькими картами, но в суперкомпьютерном центре NVLink ограничивает физическое расстояние между графическими процессорами. Таким образом, рассредоточенные вычислительные мощности не могут сформировать вычислительный кластер для обучения больших моделей.

Однако для требований с относительно низкими требованиями к вычислительной мощности, таких как логический вывод ИИ или определенные конкретные сценарии, включающие обучение средних и малых моделей, децентрализованные сети вычислительных мощностей с некоторыми относительно крупными поставщиками услуг узлов имеют потенциал. Кроме того, такие сценарии, как периферийные вычисления для рендеринга, относительно проще реализовать.

4) Каким будет эндшпиль для децентрализованных моделей алгоритмов? Будущее моделей децентрализованных алгоритмов зависит от того, в каком направлении будет развиваться ИИ. Я считаю, что в будущем ИИ могут появиться 1-2 гиганта моделей с закрытым исходным кодом (например, ChatGPT) наряду с множеством моделей. В этом контексте продукты прикладного уровня не должны быть привязаны к одной большой модели, а должны взаимодействовать с несколькими большими моделями. В этом сценарии модель Bittensor показывает значительный потенциал.

В текущих проектах, объединяющих Web3 и ИИ, особенно в тех, где ИИ помогает инициативам Web3, большинство проектов просто используют ИИ поверхностно, не демонстрируя глубокую интеграцию между ИИ и криптовалютами. Это поверхностное применение проявляется в следующих двух аспектах:

  • Во-первых, независимо от того, используется ли ИИ для анализа и прогнозирования данных, в сценариях рекомендаций и поиска или для аудита кода, разница невелика по сравнению с интеграцией ИИ в проекты Web2. Эти проекты просто используют ИИ для повышения эффективности и анализа, не демонстрируя нативное слияние ИИ и криптовалют и не представляя инновационные решения.
  • Во-вторых, многие команды Web3 используют ИИ скорее в качестве маркетингового трюка, исключительно извлекая выгоду из концепции ИИ. Они применяют технологию ИИ в очень ограниченных областях, а затем начинают продвигать тенденцию ИИ, создавая фасад тесной интеграции с ИИ. Однако в этих проектах отсутствуют существенные инновации.

Хотя текущие проекты Web3 и AI имеют эти ограничения, мы должны признать, что это только ранняя стадия разработки. В будущем мы можем ожидать более глубоких исследований и инноваций для достижения более тесной интеграции между ИИ и криптовалютами, создания более нативных и значимых решений в таких областях, как финансы, децентрализованные автономные организации (DAO), рынки предсказаний и NFT.

4.3 Токен Экономика служит буфером для нарративов проектов ИИ

Как упоминалось ранее, проекты ИИ сталкиваются с проблемами в своих бизнес-моделях, особенно в связи с тем, что все больше и больше крупных моделей постепенно становятся с открытым исходным кодом. Многие проекты AI + Web3, часто проекты с чистым искусственным интеллектом, изо всех сил пытающиеся процветать и обеспечивать финансирование в пространстве Web2, предпочитают накладывать нарративы и экономику токенов из Web3, чтобы стимулировать участие пользователей.

Тем не менее, ключевой вопрос заключается в том, действительно ли интеграция экономики токенов помогает проектам ИИ удовлетворять реальные потребности, или она просто служит нарративным или шорт-долгосрочным ценностным предложением. В настоящее время большинство проектов AI+Web3 далеки от того, чтобы дойти до практической стадии. Есть надежда, что более приземленные и вдумчивые команды будут использовать токены не только как средство для раскрутки проектов ИИ, но и по-настоящему выполнять практические сценарии использования.

Резюме

В настоящее время в проектах AI + Web3 появилось множество кейсов и приложений. Во-первых, технология искусственного интеллекта может обеспечить более эффективные и интеллектуальные варианты использования Web3. Благодаря возможностям искусственного интеллекта в анализе данных и прогнозировании, пользователи Web3 могут иметь лучшие инструменты для принятия инвестиционных решений и других сценариев. Кроме того, ИИ может проводить аудит кода смарт-контрактов, оптимизировать выполнение контрактов и повышать производительность и эффективность блокчейна. Кроме того, технология искусственного интеллекта может предлагать более точные и интеллектуальные рекомендации и персонализированные услуги для децентрализованных приложений, тем самым улучшая пользовательский опыт.

В то же время децентрализованный и программируемый характер Web3 также открывает новые возможности для технологии искусственного интеллекта. Благодаря стимулам в виде токенов проекты децентрализованных вычислительных мощностей предлагают новые решения дилеммы недостаточной вычислительной мощности ИИ. Смарт-контракты и механизмы распределенного хранения Web3 также предлагают более широкое пространство и ресурсы для обмена алгоритмами ИИ и обучения. Механизмы автономии и доверия пользователей Web3 также открывают новые возможности для развития ИИ, позволяя пользователям автономно участвовать в обмене данными и обучении, тем самым повышая разнообразие и качество данных и еще больше повышая производительность и точность моделей ИИ.

Хотя текущие кроссоверные проекты AI + Web3 все еще находятся на ранних стадиях и сталкиваются со многими проблемами, они также приносят много преимуществ. Например, децентрализованные вычислительные мощности имеют некоторые недостатки, но они снижают зависимость от централизованных учреждений, обеспечивают большую прозрачность и проверяемость, а также обеспечивают более широкое участие и инновации. Для конкретных сценариев использования и потребностей пользователей децентрализованные вычислительные мощности могут быть ценным выбором. То же самое относится и к сбору данных; Децентрализованные проекты по сбору данных предлагают такие преимущества, как снижение зависимости от отдельных источников данных, обеспечение более широкого охвата данных, а также содействие разнообразию и инклюзивности данных. На практике необходимо сбалансировать эти преимущества и недостатки и принять надлежащие управленческие и технические меры для преодоления проблем, гарантируя, что децентрализованные проекты по сбору данных окажут положительное влияние на развитие ИИ.

В целом, интеграция AI + Web3 предлагает бесконечные возможности для будущих технологических инноваций и экономического развития. Считается, что, сочетая возможности интеллектуального анализа и принятия решений ИИ с децентрализованным и автономным характером Web3, мы можем построить более умную, открытую и справедливую экономическую и даже социальную систему.

Отказ от ответственности:

  1. Эта статья перепечатана с [Ryze Labs]. Все авторские права принадлежат оригинальному автору [Фреду]. Если у вас есть возражения против этой перепечатки, пожалуйста, свяжитесь с командой Gate Learn, и они оперативно разберутся с этим.
  2. Отказ от ответственности: Взгляды и мнения, выраженные в этой статье, принадлежат исключительно автору и не являются какими-либо инвестиционными рекомендациями.
  3. Переводом статьи на другие языки занимается команда Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.

Анализ в глубине: какие искры могут создать ИИ и Web3?

ПродвинутыйJun 07, 2024
В этой статье исследуется стремительное развитие технологий искусственного интеллекта (ИИ) и Web3, а также потенциальная ценность и влияние их интеграции. Искусственный интеллект преуспевает в повышении производительности, в то время как Web3 трансформирует производственные отношения за счет децентрализации. Сочетание этих технологий позволяет применять инновационные приложения в области анализа данных, персонализированных пользовательских услуг, а также безопасности и защиты конфиденциальности.
Анализ в глубине: какие искры могут создать ИИ и Web3?

Введение: Разработка AI+Web3

В последние годы быстрое развитие технологий искусственного интеллекта (ИИ) и Web3 привлекло широкое внимание во всем мире. ИИ, технология, которая имитирует и имитирует человеческий интеллект, достигла значительных прорывов в таких областях, как распознавание лиц, обработка естественного языка и машинное обучение. Стремительное развитие технологий искусственного интеллекта привело к огромным преобразованиям и инновациям в различных отраслях.

В 2023 году объем рынка индустрии искусственного интеллекта достиг 200 миллиардов долларов, при этом гиганты отрасли и известные игроки, такие как OpenAI, Character.AI и Midjourney, быстро развиваются и ведущий бум искусственного интеллекта.

В то же время Web3, новая интернет-модель, постепенно меняет наше восприятие и использование интернета. Основанный на децентрализованной технологии блокчейн, Web3 реализует обмен данными и контроль, автономию пользователей и установление механизмов доверия с помощью таких функций, как смарт-контракты, распределенное хранилище и децентрализованная проверка личности. Основная идея Web3 заключается в том, чтобы освободить данные от централизованных органов, предоставив пользователям контроль и возможность делиться ценностью своих данных.

В настоящее время рыночная стоимость индустрии Web3 достигла $25 трлн. От Биткойна, Ethereum и Solana до игроков прикладного уровня, таких как Uniswap и Stepn, постоянно появляются новые нарративы и сценарии, привлекающие все больше и больше людей присоединиться к индустрии Web3.

Очевидно, что интеграция искусственного интеллекта и Web3 является фокусом для строителей и венчурных капиталистов как с Востока, так и с Запада. Изучение того, как эффективно сочетать эти две технологии, является очень полезным делом.

В этой статье мы сосредоточимся на текущем состоянии разработки AI+Web3, изучив потенциальную ценность и влияние их интеграции. Сначала мы познакомим вас с основными понятиями и характеристиками ИИ и Web3, а затем обсудим их взаимосвязь. После этого мы проанализируем текущее состояние AI+Web3-проектов и углубимся в ограничения и вызовы, с которыми они сталкиваются. С помощью этого исследования мы стремимся предоставить ценные рекомендации и идеи для инвесторов и профессионалов отрасли.

Как ИИ взаимодействует с Web3

Развитие ИИ и Web3 можно рассматривать как две стороны шкалы: ИИ повышает производительность, а Web3 революционизирует производственные отношения. Итак, какие искры могут создать ИИ и Web3 при столкновении? Сначала мы проанализируем проблемы и потенциальные улучшения в индустрии искусственного интеллекта и Web3, а затем рассмотрим, как они могут помочь решить проблемы друг друга.

  1. Проблемы и потенциальные улучшения в индустрии ИИ
  2. Проблемы и потенциальные улучшения в индустрии Web3

2.1 Проблемы в индустрии ИИ

Чтобы исследовать проблемы, с которыми сталкивается индустрия ИИ, мы должны сначала понять ее суть. Ядро индустрии искусственного интеллекта вращается вокруг трех ключевых элементов: вычислительной мощности, алгоритмов и данных.

  1. Во-первых, вычислительная мощность: Вычислительная мощность относится к способности выполнять крупномасштабные вычисления и обработку. Задачи ИИ обычно требуют обработки больших объемов данных и выполнения сложных вычислений, таких как обучение моделей глубоких нейронных сетей. Высокая вычислительная мощность может ускорить процессы обучения моделей и логического вывода, повышая производительность и эффективность систем ИИ. В последние годы достижения в области аппаратных технологий, таких как графические процессоры (GPU) и специализированные чипы искусственного интеллекта (например, TPU), значительно увеличили вычислительную мощность, стимулируя развитие индустрии искусственного интеллекта. Nvidia, крупный поставщик графических процессоров, в последние годы наблюдал резкий рост цен на свои акции, захватив большую долю рынка и получив значительную прибыль.
  2. Что такое алгоритм: Алгоритмы являются основными компонентами систем ИИ. Они представляют собой математические и статистические методы, используемые для решения задач и выполнения задач. Алгоритмы искусственного интеллекта можно разделить на традиционные алгоритмы машинного обучения и алгоритмы глубокого обучения, причем алгоритмы глубокого обучения совершили значительные прорывы в последние годы. Выбор и разработка алгоритмов имеют решающее значение для производительности и эффективности систем ИИ. Постоянное совершенствование и инновации в алгоритмах могут повысить точность, надежность и возможности обобщения систем ИИ. Разные алгоритмы дают разные результаты, поэтому усовершенствования алгоритмов необходимы для выполнения задач.
  3. Почему данные важны: Основная задача систем ИИ заключается в извлечении закономерностей и правил из данных посредством обучения и обучения. Данные формируют основу для обучения и оптимизации моделей. С помощью крупномасштабных выборок данных системы ИИ могут обучаться более точным и интеллектуальным моделям. Богатые наборы данных предоставляют исчерпывающую и разнообразную информацию, позволяя моделям лучше обобщать невидимые данные и помогая системам ИИ лучше понимать и решать реальные проблемы.

Разобравшись с тремя основными элементами современного ИИ, давайте рассмотрим трудности и проблемы, с которыми сталкивается ИИ в этих областях.

Во-первых, с точки зрения вычислительной мощности, задачи ИИ обычно требуют большого количества вычислительных ресурсов для обучения и вывода моделей, особенно для моделей глубокого обучения. Однако получение и управление крупномасштабными вычислительными мощностями является дорогостоящей и сложной задачей. Стоимость, энергопотребление и обслуживание высокопроизводительного вычислительного оборудования являются существенными проблемами. Это особенно сложно для стартапов и индивидуальных разработчиков, для которых получение достаточной вычислительной мощности может быть затруднительным.

Что касается алгоритмов, то, несмотря на значительные успехи алгоритмов глубокого обучения во многих областях, все еще существуют проблемы и трудности. Например, обучение глубоких нейронных сетей требует большого объема данных и вычислительных ресурсов. Кроме того, для некоторых задач интерпретируемость и объяснимость моделей может быть недостаточной. Надежность и способность алгоритмов к обобщению также являются важными вопросами, поскольку производительность модели на невидимых данных может быть нестабильной. Поиск наилучшего алгоритма, обеспечивающего оптимальную производительность среди многих алгоритмов, является постоянным исследованием.

С точки зрения данных, данные являются движущей силой ИИ, но получение высококачественных и разнообразных данных остается сложной задачей. Данные в некоторых областях, таких как конфиденциальные данные о здоровье в медицинском секторе, может быть трудно получить. Кроме того, качество, точность и маркировка данных являются критически важными вопросами, поскольку неполные или необъективные данные могут привести к ошибочному поведению модели или смещениям. Защита конфиденциальности и безопасности данных также является важным фактором.

Кроме того, есть вопросы, связанные с интерпретируемостью и прозрачностью. Характер моделей ИИ «черного ящика» вызывает озабоченность общественности. В некоторых приложениях, таких как финансы, здравоохранение и правосудие, процесс принятия решений на основе моделей должен быть интерпретируемым и отслеживаемым. Однако существующим моделям глубокого обучения часто не хватает прозрачности. Объяснение процесса принятия решений по моделям и предоставление надежных объяснений остаются сложной задачей.

Кроме того, бизнес-модели многих стартап-проектов в области ИИ не очень понятны, что также вызывает путаницу у многих предпринимателей в области ИИ.

2.2 Проблемы в индустрии Web3

В индустрии Web3 существует множество проблем, которые необходимо решить, начиная от анализа данных и пользовательского опыта и заканчивая уязвимостями смарт-контрактов и хакерскими атаками. Искусственный интеллект как инструмент повышения производительности обладает значительным потенциалом в этих областях.

Во-первых, есть возможности для улучшения анализа данных и возможностей прогнозирования. Применение ИИ в анализе данных и прогнозировании оказало значительное влияние на индустрию Web3. Благодаря интеллектуальному анализу и интеллектуальному анализу с помощью алгоритмов искусственного интеллекта платформы Web3 могут извлекать ценную информацию из огромных объемов данных и принимать более точные прогнозы и решения. Это особенно важно для оценки рисков, прогнозирования рынка и управления активами в децентрализованных финансах (DeFi).

Кроме того, существует потенциал для улучшения пользовательского опыта и персонализации услуг. Приложения искусственного интеллекта позволяют платформам Web3 предлагать лучший пользовательский опыт и персонализированные услуги. Анализируя и моделируя пользовательские данные, платформы Web3 могут предоставлять персонализированные рекомендации, настраиваемые услуги и интеллектуальный опыт взаимодействия. Это помогает повысить вовлеченность и удовлетворенность пользователей, способствуя развитию экосистемы Web3. Например, многие протоколы Web3 интегрируют инструменты искусственного интеллекта, такие как ChatGPT, чтобы лучше обслуживать пользователей.

С точки зрения безопасности и защиты конфиденциальности приложения ИИ также оказывают глубокое влияние на индустрию Web3. Технология искусственного интеллекта может использоваться для обнаружения сетевых атак и защиты от них, выявления аномального поведения и обеспечения более строгих мер безопасности. Кроме того, ИИ можно применять для защиты конфиденциальности данных, защищая личную информацию пользователей на платформах Web3 с помощью таких методов, как шифрование данных и вычисления конфиденциальности. Что касается аудита смарт-контрактов, поскольку в процессах написания и аудита смарт-контрактов могут существовать уязвимости и риски безопасности, технология искусственного интеллекта может использоваться для автоматизированного аудита контрактов и обнаружения уязвимостей, повышая безопасность и надежность контрактов.

Очевидно, что ИИ может внести значительный вклад в решение проблем и потенциальные улучшения в индустрии Web3 в различных аспектах.

Анализ текущей ситуации проекта AI+Web3

Объединение проектов AI и Web3 в первую очередь фокусируется на двух основных аспектах: использование технологии блокчейн для улучшения проектов ИИ и использование технологии ИИ для улучшения проектов Web3. На этом пути появилось множество проектов, в том числе Io.net, Gensyn, Ritual и другие. Следующий анализ будет посвящен различным подобластям, в которых ИИ помогает Web3, а где Web3 улучшает ИИ.

3.1 Web3 помогает ИИ

3.1.1 децентрализованный Вычислительная мощность

С момента запуска ChatGPT компанией OpenAI в конце 2022 года он вызвал ажиотаж в сфере ИИ. В течение пяти дней после релиза пользовательская база достигла одного миллиона, превзойдя показатель загрузки Instagram, которому потребовалось примерно два с половиной месяца, чтобы достичь того же рубежа. Впоследствии ChatGPT пережил быстрый рост: к ноябрю 2023 года количество ежемесячных активных пользователей достигло 100 миллионов, а к ноябрю 2023 года — 100 миллионов. С появлением ChatGPT сектор искусственного интеллекта быстро превратился из нишевой области в высоко ценимую отрасль.

Согласно отчету Trendforce, для работы ChatGPT требуется 30 000 графических процессоров NVIDIA A100, а будущие модели, такие как GPT-5, потребуют еще большей вычислительной мощности. Это вызвало гонку вооружений среди различных компаний, занимающихся ИИ, поскольку обладание достаточной вычислительной мощностью имеет решающее значение для поддержания конкурентного преимущества на арене ИИ, ведущего к нехватке графических процессоров.

До роста ИИ основной поставщик графических процессоров, NVIDIA, в основном обслуживал клиентов из трех основных облачных сервисов: AWS, Azure и GCP. С ростом искусственного интеллекта появилось множество новых покупателей, в том числе крупные технологические компании, такие как Meta, Oracle, а также другие платформы данных и стартапы в области искусственного интеллекта, которые присоединились к гонке за запасами графических процессоров для обучения моделей ИИ. Крупные технологические компании, такие как Meta и Tesla, значительно увеличили закупки кастомизированных моделей искусственного интеллекта и внутренних исследований. Компании, занимающиеся базовыми моделями, такие как Anthropic, и платформы данных, такие как Snowflake и Databricks, также приобрели больше графических процессоров, чтобы помочь своим клиентам в предоставлении услуг ИИ.

Как упоминал Semi Analysis в прошлом году, существует разрыв между «богатыми» и «бедными графическими процессорами», и лишь немногие из них владеют более чем 20 000 графических процессоров A100/H100, что позволяет членам команды использовать от 100 до 1000 графических процессоров для проектов. Эти компании либо являются поставщиками облачных услуг, либо создали свои собственные большие языковые модели (LLM), включая OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral и другие.

Тем не менее, большинство компаний падение в категорию «плохих графических процессоров», борясь со значительно меньшим количеством графических процессоров и тратя значительное количество времени и усилий на задачи, которые сложнее для развития экосистемы. Причем эта ситуация не ограничивается стартапами. Некоторые из самых известных компаний, занимающихся искусственным интеллектом, такие как Hugging Face, Databricks (MosaicML), Together и даже Snowflake, имеют количество A100/H100 менее 20 000. Несмотря на наличие технических талантов мирового класса, эти компании ограничены ограниченным предложением графических процессоров, что ставит их в невыгодное положение по сравнению с более крупными компаниями в конкурентной борьбе за ИИ.

Эта нехватка не ограничивается категорией «плохих графических процессоров»; даже к концу 2023 года ведущему игроку на рынке искусственного интеллекта OpenAI пришлось временно закрыть платные регистрации из-за невозможности получить достаточное количество графических процессоров и закупить больше расходных материалов для графических процессоров.

Очевидно, что быстрое развитие искусственного интеллекта привело к серьезному несоответствию между спросом и предложением графических процессоров, что привело к неминуемому дефициту предложения.

Чтобы решить эту проблему, некоторые проекты Web3 начали изучать решения для децентрализованных вычислительных мощностей, используя уникальные характеристики технологии Web3. К таким проектам относятся Akash, Render, Gensyn и другие. Общей чертой среди этих проектов является использование токенов для поддержки пользователей предоставлять простаивающие вычислительные мощности графического процессора, тем самым становясь стороной предложения вычислительной мощности для клиентов ИИ.

Профиль предложения в основном состоит из трех аспектов: поставщики облачных услуг, майнеры криптовалют и предприятия. К поставщикам облачных услуг относятся крупные поставщики облачных услуг (например, AWS, Azure, GCP) и поставщики облачных услуг GPU (такие как Coreweave, Lambda, Crusoe), где пользователи могут перепродавать простаивающие вычислительные мощности этих поставщиков для получения дохода. С переходом Ethereum с PoW на PoS простаивающая вычислительная мощность графического процессора стала важной потенциальной стороной предложения для майнеров криптовалюты. Кроме того, крупные предприятия, такие как Tesla и Meta, которые приобрели большое количество графических процессоров для стратегических целей, также могут предоставить свои простаивающие вычислительные мощности графических процессоров в рамках предложения.

В настоящее время игроков в этой области можно разделить на две категории: те, кто использует децентрализованные вычислительные мощности для инференса ИИ, и те, кто использует их для обучения ИИ. Первая категория включает в себя такие проекты, как Render (хотя он и ориентирован на рендеринг, он также может быть использован для вычислений с искусственным интеллектом), Akash, Aethir, в то время как вторая категория включает в себя такие проекты, как io.net (поддерживающий как инференс, так и обучение) и Gensyn. Ключевое различие между ними заключается в разных требованиях к вычислительной мощности.

Давайте сначала обсудим проекты, ориентированные на инференс ИИ. Эти проекты привлекают пользователей к предоставлению вычислительной мощности с помощью стимулов в виде токенов, а затем предоставляют услуги вычислительной мощности на стороне спроса, тем самым способствуя соответствию спроса и предложения простаивающих вычислительных мощностей. Подробности о таких проектах описаны в исследовательском отчете DePIN от Ryze Labs, не стесняйтесь их читать.

Суть заключается в механизме поощрения токенов, где проект сначала привлекает поставщиков, а затем пользователей, тем самым достигая холодного старта и основного механизма работы проекта, что позволяет в дальнейшем расширяться и развиваться. В этом цикле сторона предложения получает более ценные вознаграждения в виде токенов, в то время как сторона спроса пользуется более экономичными услугами. Стоимость токенов проекта и рост как спроса, так и предложения участников остаются стабильными. По мере роста цены токена привлекается все больше участников и спекулянтов, создавая цикл захвата стоимости.

Другая категория включает в себя использование децентрализованных вычислительных мощностей для обучения ИИ, таких как Gensyn и io.net (которые поддержка как обучение ИИ, так и логические выводы). На самом деле, операционная логика этих проектов принципиально не отличается от проектов ИИ-инференса. Они по-прежнему полагаются на символические стимулы для привлечения участия со стороны предложения для обеспечения вычислительной мощности, которая затем используется стороной спроса.

io.net, как децентрализованная вычислительная сеть, в настоящее время может похвастаться более чем 500 000 графических процессоров, что делает ее выдающимся исполнителем в проектах децентрализованных вычислительных мощностей. Кроме того, он интегрировал вычислительные мощности Render и Filecoin, демонстрируя непрерывное развитие своей экосистемы.

Кроме того, Gensyn облегчает распределение задач машинного обучения и вознаграждения с помощью смарт-контрактов, чтобы обеспечить обучение ИИ. Как показано на диаграмме ниже, почасовая стоимость работы по обучению машинного обучения в Gensyn составляет примерно 0,4 USD, что значительно ниже, чем стоимость более 2 USD для AWS и GCP.

Экосистема Gensyn включает в себя четыре организации-участника:

  • Отправители: это пользователи на стороне спроса, которые потребляют задачи и платят за задачи по обучению ИИ.
  • Исполнители: Исполнители выполняют задачи по обучению модели и предоставляют доказательства выполнения задачи для проверки.
  • Верификаторы: Верификаторы связывают недетерминированный процесс обучения с детерминированными линейными вычислениями. Они сравнивают доказательства, предоставленные исполнителями, с ожидаемыми пороговыми значениями.
  • Репортеры: Репортеры проверяют работу верификаторов и поднимают задачи, чтобы получить вознаграждение за выявление проблем.

Как мы видим, Gensyn стремится стать массово масштабируемым и экономически эффективным вычислительным протоколом для глобальных моделей глубокого обучения. Однако, глядя на эту область, почему большинство проектов выбирают децентрализованные вычислительные мощности для инференса ИИ, а не для обучения?

Давайте также поможем друзьям, которые не знакомы с обучением и логическим выводом ИИ, понять разницу между ними:

  • Обучение ИИ: Если уподобить искусственный интеллект ученику, то обучение похоже на предоставление ИИ большого количества знаний и примеров, которые можно понимать как данные. Искусственный интеллект учится на этих примерах. Поскольку обучение включает в себя понимание и запоминание большого объема информации, этот процесс требует значительных вычислительных мощностей и времени.
  • Вывод ИИ: Так что же это за вывод? Его можно понимать как использование полученных знаний для решения задач или сдачи экзаменов. Во время умозаключений искусственный интеллект использует полученные знания для предоставления ответов, а не для получения новых знаний. Таким образом, вычислительные требования к процессу логического вывода относительно невелики.

Можно заметить, что требования к вычислительной мощности как для логического вывода ИИ, так и для обучения ИИ существенно различаются. Доступность децентрализованных вычислительных мощностей для инференса ИИ и обучения ИИ будет дополнительно проанализирована в предстоящем разделе, посвященном задачам.

Кроме того, Ritual стремится объединить распределенные сети с создателями моделей для поддержания децентрализации и безопасности. Его первый продукт, Infernet, позволяет смарт-контрактам на блокчейне получать доступ к моделям ИИ вне блокчейна, позволяя таким контрактам получать доступ к ИИ таким образом, чтобы поддерживать проверку, децентрализацию и защиту конфиденциальности.

Координатор Infernet отвечает за управление поведением узлов в сети и реагирование на вычислительные запросы потребителей. Когда пользователи используют Infernet, такие задачи, как вывод и доказательство, выполняются вне блокчейна, а выходные данные возвращаются координатору и в конечном итоге передаются потребителям в блокчейне через смарт-контракты.

В дополнение к децентрализованным сетям вычислительных мощностей, существуют также децентрализованные сети пропускной способности, такие как Grass, которые направлены на повышение скорости и эффективности передачи данных. В целом, появление децентрализованных сетей вычислительных мощностей открывает новые возможности для предложения вычислительных мощностей ИИ, продвигая ИИ вперед в новых направлениях.

3.1.2 Децентрализованная модель алгоритма

Как упоминалось во второй главе, тремя основными элементами ИИ являются вычислительная мощность, алгоритмы и данные. Поскольку вычислительная мощность может формировать сеть поставок посредством децентрализации, могут ли алгоритмы также следовать аналогичному подходу и формировать сеть поставок для моделей алгоритмов?

Прежде чем анализировать проекты в этой области, давайте сначала разберемся в значении моделей децентрализованных алгоритмов. Многие могут задаться вопросом, раз у нас уже есть OpenAI, зачем нам нужна децентрализованная сеть алгоритмов?

По сути, децентрализованная сеть алгоритмов — это децентрализованный рынок услуг алгоритмов ИИ, который соединяет множество различных моделей ИИ. Каждая модель ИИ обладает собственной экспертизой и навыками. Когда пользователи задают вопросы, маркетплейс выбирает наиболее подходящую модель ИИ для ответа на вопрос. Chat-GPT, разработанный OpenAI, является одной из таких моделей искусственного интеллекта, которая может понимать и генерировать текст, похожий на человеческий.

Проще говоря, ChatGPT похож на очень способного студента, помогающего решать различные типы проблем, в то время как децентрализованная сеть алгоритмов похожа на школу с множеством студентов, помогающих решать проблемы. Несмотря на то, что нынешний студент (ChatGPT) обладает высокими способностями, в лонге есть большой потенциал для школы, которая может набирать студентов со всего мира.

В настоящее время в области децентрализованных моделей алгоритмов также есть несколько проектов, которые экспериментируют и изучают. Далее мы будем использовать репрезентативный проект Bittensor в качестве кейса, чтобы помочь понять развитие этой нишевой сферы.

В Bittensor поставщики моделей алгоритмов (или майнеров) вносят свои модели машинного обучения в сеть. Эти модели могут анализировать данные и предоставлять аналитические сведения. Поставщики моделей получают криптовалютные токены, известные как TAO, в качестве вознаграждения за свой вклад.

Чтобы гарантировать качество ответов, Bittensor использует уникальный механизм консенсуса для достижения консенсуса по лучшему ответу. Когда задается вопрос, несколько майнеров моделей дают ответы. Затем валидаторы в сети начинают работать над определением лучшего ответа, который затем отправляется обратно пользователю.

Токен TAO в экосистеме Bittensor играет две основные роли на протяжении всего процесса. С одной стороны, это служит стимулом для майнеров вносить модели алгоритмов в сеть. С другой стороны, пользователям нужно тратить токены, чтобы задавать вопросы и заставлять сеть выполнять задачи.

Поскольку Bittensor децентрализован, любой, у кого есть доступ в Интернет, может присоединиться к сети, либо в качестве пользователя, задающего вопросы, либо в качестве майнера, предоставляющего ответы. Это позволяет большему количеству людей использовать возможности искусственного интеллекта.

Таким образом, децентрализованные сети с моделью алгоритмов, такие как Bittensor, имеют потенциал для создания более открытого и прозрачного ландшафта. В этой экосистеме модели ИИ можно обучать, совместно использовать и использовать безопасным и децентрализованным образом. Кроме того, другие сети, такие как BasedAI, пытаются предпринять аналогичные усилия, с интригующим аспектом использования доказательств с нулевым разглашением (ZK) для защиты конфиденциальности интерактивных данных пользовательской модели, который будет более подробно рассмотрен в четвертом подразделе.

По мере развития децентрализованных платформ моделей алгоритмов они позволят небольшим компаниям конкурировать с крупными организациями в использовании передовых инструментов искусственного интеллекта, что потенциально окажет значительное влияние на различные отрасли.

3.1.3 Децентрализованный сбор данных

Для обучения моделей ИИ необходим большой запас данных. Тем не менее, большинство Web2-компаний в настоящее время по-прежнему монополизируют пользовательские данные. Такие платформы, как X, Reddit, TikTok, Snapchat, Instagram и YouTube, запрещают сбор данных для обучения ИИ, что является существенным препятствием для развития индустрии ИИ.

С другой стороны, некоторые платформы Web2 продают пользовательские данные компаниям, занимающимся искусственным интеллектом, не делясь с пользователями какой-либо прибылью. Например, Reddit заключил соглашение с Google на сумму 60 миллионов долларов, что позволило Google обучать модели искусственного интеллекта с помощью своих постов. Это приводит к тому, что права на сбор данных монополизируются крупными компаниями, занимающимися капиталом и большими данными, что подталкивает отрасль к капиталоемкому направлению.

В ответ на эту ситуацию некоторые проекты используют стимулы Web3 и токенов для достижения децентрализованного сбора данных. Возьмем, к примеру, PublicAI: пользователи могут участвовать в двух ролях:

  • Одной из категорий являются поставщики данных ИИ. Пользователи могут находить ценный контент на X, тегировать @PublicAI официальные счет со своими инсайтами и использовать хэштеги #AI или #Web3 для категоризации контента, тем самым отправляя его в центр обработки данных PublicAI для сбора.
  • Другая категория — валидаторы данных. Пользователи могут войти в дата-центр PublicAI и проголосовать за самые ценные данные для обучения ИИ.

В качестве вознаграждения пользователи могут зарабатывать токены за счет этих вкладов, способствуя взаимовыгодным отношениям между поставщиками данных и индустрией ИИ.

В дополнение к таким проектам, как PublicAI, которые специально собирают данные для обучения ИИ, существует множество других проектов, использующих стимулы токенов для децентрализованного сбора данных. Например, Ocean собирает пользовательские данные с помощью токенизации данных для обслуживания ИИ, Hivemapper использует автомобильные камеры пользователей для сбора картографических данных, Dimo собирает данные об автомобилях, а WiHi собирает данные о погоде. Эти проекты, благодаря децентрализованному сбору данных, также служат потенциальными источниками данных для обучения ИИ. Таким образом, в широком смысле их можно включить в парадигму Web3, помогающего ИИ.

3.1.4 ZK защищает конфиденциальность пользователей в ИИ

Технология блокчейна предлагает преимущества децентрализации, а также вводит важную функцию: доказательства с нулевым разглашением. Технология нулевого разглашения позволяет проверять информацию, сохраняя при этом конфиденциальность.

В традиционном машинном обучении данные, как правило, должны храниться и обрабатываться централизованно, что может привести к рискам для конфиденциальности. Методы защиты конфиденциальности данных, такие как шифрование или анонимизация данных, могут ограничивать точность и производительность моделей машинного обучения.

Технология доказательства с нулевым разглашением помогает решить эту дилемму, устраняя конфликт между защитой конфиденциальности и обменом данными. Машинное обучение с нулевым разглашением (ZKML) использует технологию доказательства с нулевым разглашением, чтобы обеспечить обучение моделей машинного обучения и логические выводы без раскрытия исходных данных. Доказательства с нулевым разглашением гарантируют, что характеристики данных и результаты модели могут быть проверены как правильные без раскрытия фактического содержимого данных.

Основной целью ZKML является поиск баланса между защитой конфиденциальности и обменом данными. Его можно применять в различных сценариях, таких как анализ медицинских данных, анализ финансовых данных и сотрудничество между организациями. Используя ZKML, люди могут защитить конфиденциальность своих конфиденциальных данных, обмениваясь данными с другими, чтобы получить более широкую информацию и возможности для совместной работы без риска нарушения конфиденциальности данных. Это месторождение все еще находится на ранних стадиях, и большинство проектов все еще находятся в стадии разведки. Например, BasedAI предлагает децентрализованный подход, легко интегрируя полностью гомоморфное шифрование (FHE) с большими языковыми моделями (LLM) для сохранения конфиденциальности данных. Большие языковые модели с нулевым разглашением (ZK-LLM) встраивают конфиденциальность в свою распределенную сетевую инфраструктуру, гарантируя, что пользовательские данные остаются конфиденциальными на протяжении всей работы сети.

Вот краткое объяснение полностью гомоморфного шифрования (FHE). FHE — это метод шифрования, который позволяет выполнять вычисления с зашифрованными данными без необходимости их расшифровки. Это означает, что различные математические операции (такие как сложение, умножение и т. д.), выполняемые с данными, зашифрованными FHE, дают те же результаты, что и с исходными незашифрованными данными, тем самым защищая конфиденциальность пользовательских данных.

В дополнение к вышеупомянутым методам, Web3 также поддерживает ИИ через такие проекты, как Cortex, который позволяет выполнять программы ИИ в блокчейне. Запуск программ машинного обучения на традиционных блокчейнах сталкивается с проблемой, поскольку виртуальные машины крайне неэффективны при запуске любых нетривиальных моделей машинного обучения. Большинство считает, что запуск ИИ на блокчейне невозможен. Однако виртуальная машина Cortex (CVM) использует графические процессоры для выполнения программ искусственного интеллекта в блокчейне и совместима с виртуальной машиной Ethereum (EVM). Другими словами, цепочка Cortex может выполнять все децентрализованные приложения Ethereum и интегрировать машинное обучение искусственного интеллекта в эти децентрализованные приложения. Это позволяет моделям машинного обучения работать децентрализованно, неизменяемо и прозрачно, при этом сетевой консенсус проверяет каждый шаг вывода ИИ.

3.2 ИИ помогает Web3

В столкновении между ИИ и Web3, помимо помощи Web3 ИИ, заслуживает внимания и помощь ИИ индустрии Web3. Основным вкладом искусственного интеллекта является повышение производительности, поэтому существует множество попыток ИИ аудита смарт-контрактов, анализа и прогнозирования данных, персонализированных услуг, безопасности и защиты конфиденциальности и т. Д.

3.2.1 Анализ и прогнозирование данных

Многие проекты Web3 интегрируют существующие сервисы искусственного интеллекта (например, ChatGPT) или разрабатывают свои собственные, чтобы предоставлять пользователям Web3 услуги по анализу данных и прогнозированию. Эти услуги охватывают широкий спектр, включая алгоритмы искусственного интеллекта для инвестиционных стратегий, инструменты анализа в блокчейне, а также прогнозы цен и рынка.

Например, Pond использует графовые алгоритмы искусственного интеллекта для прогнозирования ценных будущих альфа-токенов, предлагая услуги инвестиционного консультирования пользователям и учреждениям. BullBear AI обучается на исторических данных пользователей, истории цен и рыночных тенденциях, чтобы предоставлять точную информацию, подтверждающую прогнозы ценовых тенденций, помогая пользователям получать прибыль.

Такие платформы, как Numerai, проводят инвестиционные конкурсы, участники которых используют искусственный интеллект и большие языковые модели для прогнозирования фондовых рынков. Они обучают модели на высококачественных данных, предоставляемых платформой, и отправляют ежедневные прогнозы. Numerai оценивает эти прогнозы в течение следующего месяца, и участники могут застейкать NMR токены на свои модели, чтобы получать вознаграждения в зависимости от производительности.

Arkham, блокчейн-платформа для анализа данных, также интегрирует ИИ в свои сервисы. Arkham связывает адреса блокчейна с такими организациями, как биржи, фонды и киты, отображая ключевые данные и анализ, чтобы дать пользователям преимущество в принятии решений. Arkham Ultra сопоставляет адреса с реальными сущностями, используя алгоритмы, разработанные в течение трех лет при поддержке основателей Palantir и OpenAI.

3.2.2 Персонализированные услуги

Приложения искусственного интеллекта в поиске и рекомендациях широко распространены в проектах Web2, обслуживая персонализированные потребности пользователей. Проекты Web3 аналогичным образом интегрируют ИИ для улучшения пользовательского опыта.

Например, известная платформа анализа данных Dune недавно представила инструмент Wand, который использует большие языковые модели для написания SQL-запросов. С помощью Wand Create пользователи могут создавать SQL-запросы на основе вопросов на естественном языке, что упрощает поиск данных для тех, кто не знаком с SQL.

Контент-платформы, такие как Followin, интегрируют ChatGPT для обобщения точек зрения и обновлений в конкретных секторах. Энциклопедия Web3 IQ.wiki стремится стать основным источником объективных, высококачественных знаний о технологии блокчейн и криптовалюте. Он интегрирует GPT-4 для обобщения вики-статей, делая информацию о блокчейне более доступной во всем мире. Поисковая система Kaito на основе LLM стремится произвести революцию в поиске информации Web3.

В творческой сфере такие проекты, как NFPrompt, снижают затраты на создание контента. NFPrompt позволяет пользователям легче создавать NFT с помощью искусственного интеллекта, предоставляя различные персонализированные творческие услуги.

3.2.3 Аудит смарт-контрактов ИИ

Аудит смарт-контрактов является важнейшей задачей в Web3, и ИИ может повысить эффективность и точность выявления уязвимостей кода.

Виталик Бутерин отметил, что одной из самых больших проблем в криптовалютном пространстве являются ошибки в нашем коде. Искусственный интеллект обещает значительно упростить использование инструментов формальной верификации для подтверждения правильности кода. Достижение этого может привести к почти безошибочному SEK EVM (виртуальная машина Ethereum), повышая безопасность космоса, поскольку меньшее количество ошибок повышает общую безопасность.

Например, проект 0x0.ai предлагает аудитора смарт-контрактов на основе искусственного интеллекта. Этот инструмент использует передовые алгоритмы для анализа смарт-контрактов и выявления потенциальных уязвимостей или проблем, которые могут привести к мошенничеству или другим рискам безопасности. Аудиторы используют машинное обучение для обнаружения закономерностей и аномалий в коде, отмечая потенциальные проблемы для дальнейшего рассмотрения.

Есть и другие нативные кейсы, когда ИИ помогает Web3. PAAL помогает пользователям создавать персонализированных ботов с искусственным интеллектом, которые можно развернуть в Telegram и Discord для обслуживания пользователей Web3. Мультичейн-агрегатор DEX Hera на основе искусственного интеллекта использует искусственный интеллект для обеспечения наилучших торговых путей между любыми парами токенов по различным токенам. В целом, вклад ИИ в Web3 заключается в первую очередь на уровне инструментов, улучшая различные процессы и функции.

Ограничения и текущие проблемы проекта ИИ + Web3

4.1 Реалистичные препятствия в децентрализованных Вычислительная мощность

В настоящее время многие проекты Web3, помогающие ИИ, сосредоточены на децентрализованных вычислительных мощностях. Использование токен-стимулов для поощрения пользователей по всему миру стать частью источника вычислительной мощности является очень интересным нововведением. Однако, с другой стороны, есть некоторые реалистичные вопросы, которые необходимо решить:

По сравнению с поставщиками услуг централизованных вычислительных мощностей, децентрализованные вычислительные мощности обычно полагаются на узлы и участников, распределенных по всему миру, для предоставления вычислительных ресурсов. Из-за возможных задержек и нестабильности сетевых подключений между этими узлами производительность и стабильность могут быть хуже, чем у продуктов централизованной вычислительной мощности.

Кроме того, на доступность децентрализованных вычислительных мощностей влияет степень соответствия между спросом и предложением. Если поставщиков недостаточно или спрос слишком высок, это может привести к нехватке ресурсов или невозможности удовлетворить потребности пользователей.

Наконец, по сравнению с продуктами для централизованных вычислений, децентрализованные вычислительные мощности обычно включают в себя больше технических деталей и сложности. Пользователям может потребоваться понимать и обрабатывать аспекты распределенных сетей, смарт-контрактов и криптовалютных платежей, что увеличивает стоимость понимания и использования пользователями.

После углубленных обсуждений с многочисленными проектными группами децентрализованных вычислительных мощностей было обнаружено, что нынешние децентрализованные вычислительные мощности по-прежнему в основном ограничены логическим выводом ИИ, а не обучением ИИ.

Далее я воспользуюсь четырьмя вопросами, чтобы помочь всем понять причины этого:

  1. Почему большинство проектов децентрализованных вычислительных мощностей предпочитают делать логические выводы ИИ, а не обучать ИИ?

  2. Что делает NVIDIA такой мощной? По каким причинам обучение децентрализованным вычислительным мощностям затруднено?

  3. Каким будет эндшпиль для децентрализованных вычислительных мощностей (Render, Akash, io.net и т.д.)?

  4. Каким будет эндшпиль для децентрализованных алгоритмов (Bittensor)?

Давайте разберемся в деталях по порядку:

1) Наблюдая за этой областью, большинство проектов децентрализованных вычислительных мощностей предпочитают сосредоточиться на инференсе ИИ, а не на обучении, в первую очередь из-за различных требований к вычислительной мощности и пропускной способности.

Чтобы всем было понятнее, давайте сравним ИИ со студентом:

  • Обучение ИИ: Если мы сравним искусственный интеллект с учеником, обучение похоже на предоставление ИИ большого количества знаний и примеров, сродни тому, что мы часто называем данными. Искусственный интеллект учится на этих примерах. Поскольку обучение включает в себя понимание и запоминание огромных объемов информации, этот процесс требует значительных вычислительных мощностей и времени.

  • Инференс ИИ: Инференс можно понимать как использование полученных знаний для решения задач или сдачи экзаменов. Во время логического вывода ИИ использует полученные знания для ответов на вопросы, а не для получения новой информации, поэтому вычислительные требования относительно ниже.

Нетрудно заметить, что фундаментальная разница в сложности заключается в том, что обучение ИИ больших моделей требует огромных объемов данных и чрезвычайно высокой пропускной способности для передачи данных, что делает его очень сложным для достижения с помощью децентрализованных вычислительных мощностей. В отличие от этого, логический вывод требует гораздо меньше данных и пропускной способности, что делает его более осуществимым.

Для больших моделей устойчивость имеет решающее значение. Если обучение прерывается, оно должно быть перезапущено, что приводит к высоким невозвратным затратам. С другой стороны, могут быть удовлетворены требования с относительно низкими требованиями к вычислительной мощности, такие как логический вывод ИИ или определенные специфические сценарии, включающие обучение средних и малых моделей. В децентрализованных сетях вычислительных мощностей некоторые относительно крупные поставщики услуг узлов могут удовлетворить эти относительно высокие требования к вычислительной мощности.

2) Итак, где же узкие места в данных и пропускной способности? Почему децентрализованное обучение трудно достичь?

Это включает в себя два ключевых элемента обучения больших моделей: вычислительную мощность одной карты и параллелизм нескольких карт.

В настоящее время все центры, требующие обучения больших моделей, называемые суперкомпьютерными центрами, можно сравнить с человеческим телом, где базовый блок, графический процессор, похож на клетку. Если вычислительная мощность одной ячейки (GPU) высока, то общая вычислительная мощность (количество × одной ячейки) также может быть очень высокой.

Параллелизм нескольких карт: Для обучения большой модели часто требуются сотни миллиардов гигабайт. Для суперкомпьютерных центров, обучающих большие модели, требуются не менее десятков тысяч графических процессоров A100. Это требует мобилизации тысяч карт для обучения. Однако обучение большой модели — это не простой последовательный процесс; он не просто тренируется на первой карте А100, а затем переходит на вторую. Вместо этого разные части модели обучаются на разных графических процессорах одновременно, и для обучения части А могут потребоваться результаты из части Б, включающей параллельную обработку.

Доминирование NVIDIA и растущая рыночная стоимость, в то время как AMD и отечественным компаниям, таким как Huawei и Horizon, трудно наверстать упущенное, проистекают из двух аспектов: программной среды CUDA и мультикарточной связи NVLink.

Программная среда CUDA: Наличие программной экосистемы, соответствующей аппаратному обеспечению, имеет решающее значение, как и система CUDA от NVIDIA. Создание новой системы — сложная задача, сродни созданию нового языка с высокими затратами на замену.

NVLink Multi-card Communication: По сути, связь с несколькими картами включает в себя ввод и вывод информации. Распараллеливание и передача имеют решающее значение. Наличие NVLink означает, что карты NVIDIA и AMD не могут взаимодействовать; Кроме того, NVLink ограничивает физическое расстояние между графическими процессорами, требуя, чтобы они находились в одном суперкомпьютерном центре. Это затрудняет формирование децентрализованных вычислительных мощностей, распределенных по всему миру, целостного вычислительного кластера для обучения больших моделей.

Первый пункт объясняет, почему AMD и отечественные компании, такие как Huawei и Horizon, изо всех сил пытаются наверстать упущенное; второй пункт объясняет, почему децентрализованное обучение трудно достичь.

3) Каким будет эндшпиль децентрализованных вычислительных мощностей? Децентрализованные вычислительные мощности в настоящее время испытывают трудности с обучением больших моделей, потому что стабильность имеет первостепенное значение. Перерывы в работе требуют переподготовки, что приводит к высоким невозвратным затратам. Высокие требования к параллелизму нескольких карт ограничены ограничениями физической пропускной способности. NVLink от NVIDIA обеспечивает связь между несколькими картами, но в суперкомпьютерном центре NVLink ограничивает физическое расстояние между графическими процессорами. Таким образом, рассредоточенные вычислительные мощности не могут сформировать вычислительный кластер для обучения больших моделей.

Однако для требований с относительно низкими требованиями к вычислительной мощности, таких как логический вывод ИИ или определенные конкретные сценарии, включающие обучение средних и малых моделей, децентрализованные сети вычислительных мощностей с некоторыми относительно крупными поставщиками услуг узлов имеют потенциал. Кроме того, такие сценарии, как периферийные вычисления для рендеринга, относительно проще реализовать.

4) Каким будет эндшпиль для децентрализованных моделей алгоритмов? Будущее моделей децентрализованных алгоритмов зависит от того, в каком направлении будет развиваться ИИ. Я считаю, что в будущем ИИ могут появиться 1-2 гиганта моделей с закрытым исходным кодом (например, ChatGPT) наряду с множеством моделей. В этом контексте продукты прикладного уровня не должны быть привязаны к одной большой модели, а должны взаимодействовать с несколькими большими моделями. В этом сценарии модель Bittensor показывает значительный потенциал.

В текущих проектах, объединяющих Web3 и ИИ, особенно в тех, где ИИ помогает инициативам Web3, большинство проектов просто используют ИИ поверхностно, не демонстрируя глубокую интеграцию между ИИ и криптовалютами. Это поверхностное применение проявляется в следующих двух аспектах:

  • Во-первых, независимо от того, используется ли ИИ для анализа и прогнозирования данных, в сценариях рекомендаций и поиска или для аудита кода, разница невелика по сравнению с интеграцией ИИ в проекты Web2. Эти проекты просто используют ИИ для повышения эффективности и анализа, не демонстрируя нативное слияние ИИ и криптовалют и не представляя инновационные решения.
  • Во-вторых, многие команды Web3 используют ИИ скорее в качестве маркетингового трюка, исключительно извлекая выгоду из концепции ИИ. Они применяют технологию ИИ в очень ограниченных областях, а затем начинают продвигать тенденцию ИИ, создавая фасад тесной интеграции с ИИ. Однако в этих проектах отсутствуют существенные инновации.

Хотя текущие проекты Web3 и AI имеют эти ограничения, мы должны признать, что это только ранняя стадия разработки. В будущем мы можем ожидать более глубоких исследований и инноваций для достижения более тесной интеграции между ИИ и криптовалютами, создания более нативных и значимых решений в таких областях, как финансы, децентрализованные автономные организации (DAO), рынки предсказаний и NFT.

4.3 Токен Экономика служит буфером для нарративов проектов ИИ

Как упоминалось ранее, проекты ИИ сталкиваются с проблемами в своих бизнес-моделях, особенно в связи с тем, что все больше и больше крупных моделей постепенно становятся с открытым исходным кодом. Многие проекты AI + Web3, часто проекты с чистым искусственным интеллектом, изо всех сил пытающиеся процветать и обеспечивать финансирование в пространстве Web2, предпочитают накладывать нарративы и экономику токенов из Web3, чтобы стимулировать участие пользователей.

Тем не менее, ключевой вопрос заключается в том, действительно ли интеграция экономики токенов помогает проектам ИИ удовлетворять реальные потребности, или она просто служит нарративным или шорт-долгосрочным ценностным предложением. В настоящее время большинство проектов AI+Web3 далеки от того, чтобы дойти до практической стадии. Есть надежда, что более приземленные и вдумчивые команды будут использовать токены не только как средство для раскрутки проектов ИИ, но и по-настоящему выполнять практические сценарии использования.

Резюме

В настоящее время в проектах AI + Web3 появилось множество кейсов и приложений. Во-первых, технология искусственного интеллекта может обеспечить более эффективные и интеллектуальные варианты использования Web3. Благодаря возможностям искусственного интеллекта в анализе данных и прогнозировании, пользователи Web3 могут иметь лучшие инструменты для принятия инвестиционных решений и других сценариев. Кроме того, ИИ может проводить аудит кода смарт-контрактов, оптимизировать выполнение контрактов и повышать производительность и эффективность блокчейна. Кроме того, технология искусственного интеллекта может предлагать более точные и интеллектуальные рекомендации и персонализированные услуги для децентрализованных приложений, тем самым улучшая пользовательский опыт.

В то же время децентрализованный и программируемый характер Web3 также открывает новые возможности для технологии искусственного интеллекта. Благодаря стимулам в виде токенов проекты децентрализованных вычислительных мощностей предлагают новые решения дилеммы недостаточной вычислительной мощности ИИ. Смарт-контракты и механизмы распределенного хранения Web3 также предлагают более широкое пространство и ресурсы для обмена алгоритмами ИИ и обучения. Механизмы автономии и доверия пользователей Web3 также открывают новые возможности для развития ИИ, позволяя пользователям автономно участвовать в обмене данными и обучении, тем самым повышая разнообразие и качество данных и еще больше повышая производительность и точность моделей ИИ.

Хотя текущие кроссоверные проекты AI + Web3 все еще находятся на ранних стадиях и сталкиваются со многими проблемами, они также приносят много преимуществ. Например, децентрализованные вычислительные мощности имеют некоторые недостатки, но они снижают зависимость от централизованных учреждений, обеспечивают большую прозрачность и проверяемость, а также обеспечивают более широкое участие и инновации. Для конкретных сценариев использования и потребностей пользователей децентрализованные вычислительные мощности могут быть ценным выбором. То же самое относится и к сбору данных; Децентрализованные проекты по сбору данных предлагают такие преимущества, как снижение зависимости от отдельных источников данных, обеспечение более широкого охвата данных, а также содействие разнообразию и инклюзивности данных. На практике необходимо сбалансировать эти преимущества и недостатки и принять надлежащие управленческие и технические меры для преодоления проблем, гарантируя, что децентрализованные проекты по сбору данных окажут положительное влияние на развитие ИИ.

В целом, интеграция AI + Web3 предлагает бесконечные возможности для будущих технологических инноваций и экономического развития. Считается, что, сочетая возможности интеллектуального анализа и принятия решений ИИ с децентрализованным и автономным характером Web3, мы можем построить более умную, открытую и справедливую экономическую и даже социальную систему.

Отказ от ответственности:

  1. Эта статья перепечатана с [Ryze Labs]. Все авторские права принадлежат оригинальному автору [Фреду]. Если у вас есть возражения против этой перепечатки, пожалуйста, свяжитесь с командой Gate Learn, и они оперативно разберутся с этим.
  2. Отказ от ответственности: Взгляды и мнения, выраженные в этой статье, принадлежат исключительно автору и не являются какими-либо инвестиционными рекомендациями.
  3. Переводом статьи на другие языки занимается команда Gate Learn. Если не указано иное, копирование, распространение или плагиат переведенных статей запрещены.
Начните торговать сейчас
Зарегистрируйтесь сейчас и получите ваучер на
$100
!