Аналіз у Глибина: які іскри можуть створити штучний інтелект та Web3?

РозширенийJun 07, 2024
У цій статті досліджується стрімкий розвиток технологій штучного інтелекту (ШІ) та Web3, а також потенційна цінність та вплив їхньої інтеграції. Штучний інтелект досягає успіху в підвищенні продуктивності, тоді як Web3 трансформує виробничі відносини за допомогою децентралізації. Поєднання цих технологій приносить інноваційні програми в аналізі даних, персоналізованому обслуговуванні користувачів, а також безпеці та захисті конфіденційності.
Аналіз у Глибина: які іскри можуть створити штучний інтелект та Web3?

Introduction: Development of AI+Web3

Останніми роками швидкий розвиток технологій штучного інтелекту (AI) та Web3 привернув широку увагу в усьому світі. Штучний інтелект, технологія, яка імітує та імітує людський інтелект, досягла значних проривів у таких галузях, як розпізнавання облич, обробка природної мови та машинне навчання. Швидкий розвиток технології штучного інтелекту приніс величезні трансформації та інновації в різних галузях.

У 2023 році індустрія штучного інтелекту досягла обсягу ринку в 200 мільярдів доларів, а гіганти галузі та відомі гравці, такі як OpenAI, Character.AI та Midjourney, швидко з'являються та провідний буму штучного інтелекту.

Водночас Web3, нова модель Інтернету, поступово змінює наше сприйняття та використання Інтернету. Заснований на децентралізованій технології блокчейн, Web3 реалізує обмін даними та контроль, автономію користувачів і встановлення механізмів довіри за допомогою таких функцій, як смартконтракти, розподілене сховище та децентралізована перевірка особи. Основна ідея Web3 полягає в тому, щоб звільнити дані від централізованих органів влади, надаючи користувачам контроль над своїми даними та можливість ділитися цінністю.

Наразі ринкова вартість індустрії Web3 досягла $25 трлн. Від Біткойн, Ethereum і Solana до гравців на рівні додатків, таких як Uniswap і Stepn, постійно з'являються нові наративи та сценарії, які приваблюють все більше і більше людей приєднатися до індустрії Web3.

Очевидно, що інтеграція штучного інтелекту та Web3 є центром уваги для будівельників та венчурних капіталістів як зі Сходу, так і з Заходу. Вивчення того, як ефективно поєднувати ці дві технології, є дуже вартісною справою.

У цій статті мова піде про поточний стан розвитку AI+Web3, досліджуючи потенційну цінність та вплив їх інтеграції. Спочатку ми ознайомимо з основними поняттями та характеристиками штучного інтелекту та Web3, а потім обговоримо їхній взаємозв'язок. Після цього ми проаналізуємо поточний стан проєктів AI+Web3 та заглибимося в обмеження та виклики, з якими вони стикаються. За допомогою цього дослідження ми прагнемо надати цінні рекомендації та ідеї для інвесторів і професіоналів галузі.

Як ШІ взаємодіє з Web3

Розвиток штучного інтелекту та Web3 можна розглядати як дві сторони шкали: штучний інтелект підвищує продуктивність, а Web3 революціонізує виробничі відносини. Отже, які іскри можуть створити штучний інтелект та Web3 при зіткненні? Спочатку ми проаналізуємо виклики та потенційні покращення в галузях штучного інтелекту та Web3, а потім дослідимо, як вони можуть допомогти вирішити проблеми один одного.

  1. Виклики та потенційні покращення в індустрії штучного інтелекту
  2. Виклики та потенційні покращення в індустрії Web3

2.1 Виклики в індустрії штучного інтелекту

Щоб дослідити виклики, з якими стикається індустрія штучного інтелекту, ми повинні спочатку зрозуміти її суть. Ядро індустрії штучного інтелекту обертається навколо трьох ключових елементів: обчислювальної потужності, алгоритмів і даних.

  1. По-перше, обчислювальна потужність: обчислювальна потужність означає здатність виконувати великомасштабні обчислення та обробку. Завдання штучного інтелекту зазвичай вимагають обробки великих обсягів даних і виконання складних обчислень, таких як навчання моделей глибоких нейронних мереж. Висока обчислювальна потужність може прискорити процеси навчання моделей і висновків, підвищуючи продуктивність і ефективність систем штучного інтелекту. Останніми роками прогрес в апаратних технологіях, таких як графічні процесори (GPU) і виділені чіпи штучного інтелекту (наприклад, TPU), значно підвищив обчислювальну потужність, стимулюючи розвиток індустрії штучного інтелекту. Ціна акцій Nvidia, великого постачальника графічних процесорів, останніми роками різко зросла, захопивши велику частку ринку та отримавши значний прибуток.
  2. Що таке алгоритм: алгоритми є основними компонентами систем штучного інтелекту. Це математичні та статистичні методи, які використовуються для розв'язування задач та виконання завдань. Алгоритми штучного інтелекту можна розділити на традиційні алгоритми машинного навчання та алгоритми глибокого навчання, причому алгоритми глибокого навчання за останні роки зробили значний прорив. Вибір і розробка алгоритмів мають вирішальне значення для продуктивності та ефективності систем штучного інтелекту. Постійне вдосконалення та інновації в алгоритмах можуть підвищити точність, надійність і можливості узагальнення систем штучного інтелекту. Різні алгоритми дають різні результати, тому прогрес в алгоритмах має важливе значення для виконання завдань.
  3. Чому дані важливі: Основне завдання систем штучного інтелекту полягає в тому, щоб витягувати закономірності та правила з даних за допомогою навчання та навчання. Дані формують основу для навчання та оптимізації моделей. За допомогою великомасштабних вибірок даних системи штучного інтелекту можуть навчатися більш точним та інтелектуальним моделям. Багаті набори даних надають вичерпну та різноманітну інформацію, дозволяючи моделям краще узагальнювати невидимі дані та допомагаючи системам штучного інтелекту краще розуміти та вирішувати реальні проблеми.

Зрозумівши три основні елементи сучасного штучного інтелекту, давайте розглянемо труднощі та виклики, з якими стикається штучний інтелект у цих сферах.

По-перше, з точки зору обчислювальної потужності, завдання ШІ зазвичай вимагають великої кількості обчислювальних ресурсів для навчання моделей і висновків, особливо для моделей глибокого навчання. Однак отримання та управління великомасштабними обчислювальними потужностями є дорогим і складним завданням. Вартість, енергоспоживання та обслуговування високопродуктивного обчислювального обладнання є суттєвими питаннями. Це особливо складно для стартапів та індивідуальних розробників, для яких може бути складно отримати достатню обчислювальну потужність.

З точки зору алгоритмів, незважаючи на значні успіхи алгоритмів глибокого навчання в багатьох областях, все ще існують виклики та труднощі. Наприклад, навчання глибоких нейронних мереж вимагає великої кількості даних і обчислювальних ресурсів. Крім того, для певних завдань інтерпретованість і пояснюваність моделей може бути недостатньою. Надійність і можливості узагальнення алгоритмів також є важливими питаннями, оскільки продуктивність моделі на невидимих даних може бути нестабільною. Пошук найкращого алгоритму для забезпечення оптимальної продуктивності серед багатьох алгоритмів є постійним дослідженням.

З точки зору даних, дані є рушійною силою штучного інтелекту, але отримання високоякісних, різноманітних даних залишається проблемою. Дані в деяких галузях, як-от конфіденційні дані про здоров'я в медичному секторі, може бути важко отримати. Крім того, якість, точність і маркування даних є критичними питаннями, оскільки неповні або упереджені дані можуть призвести до помилкової поведінки моделі або упереджень. Захист конфіденційності та безпеки даних також є важливим фактором.

Крім того, є питання, пов'язані з інтерпретацією та прозорістю. Природа «чорної скриньки» моделей штучного інтелекту викликає занепокоєння громадськості. У деяких сферах, таких як фінанси, охорона здоров'я та правосуддя, процес прийняття рішень щодо моделей має бути інтерпретованим та простежуваним. Однак існуючим моделям глибокого навчання часто бракує прозорості. Пояснення процесу прийняття рішень моделей і надання надійних пояснень залишаються складним завданням.

Крім того, бізнес-моделі багатьох стартап-проєктів зі штучним інтелектом не дуже зрозумілі, що також викликає плутанину у багатьох підприємців, пов'язаних зі штучним інтелектом.

2.2 Виклики в індустрії Web3

В індустрії Web3 існує безліч проблем, які необхідно вирішити, починаючи від аналізу даних і користувацького досвіду до вразливостей смарт-контрактів і хакерських атак. Штучний інтелект як інструмент підвищення продуктивності має значний потенціал у цих сферах.

По-перше, є можливості для вдосконалення аналізу даних і можливостей прогнозування. Застосування штучного інтелекту в аналізі та прогнозуванні даних справило значний вплив на індустрію Web3. Завдяки інтелектуальному аналізу та майнінгу за допомогою алгоритмів штучного інтелекту платформи Web3 можуть витягувати цінну інформацію з величезних обсягів даних і робити більш точні прогнози та рішення. Це особливо важливо для оцінки ризиків, прогнозування ринку та управління активами в децентралізованих фінансах (DeFi).

Крім того, існує потенціал для покращення користувацького досвіду та послуг персоналізації. Додатки штучного інтелекту дозволяють платформам Web3 пропонувати кращий користувацький досвід і персоналізовані послуги. Аналізуючи та моделюючи дані користувачів, Web3-платформи можуть надавати персоналізовані рекомендації, персоналізовані послуги та інтелектуальний досвід взаємодії. Це допомагає підвищити залученість і задоволеність користувачів, сприяючи розвитку екосистеми Web3. Наприклад, багато протоколів Web3 інтегрують інструменти штучного інтелекту, такі як ChatGPT, для кращого обслуговування користувачів.

З точки зору безпеки та захисту конфіденційності, програми штучного інтелекту також мають глибокий вплив на індустрію Web3. Технологію штучного інтелекту можна використовувати для виявлення та захисту від мережевих атак, виявлення аномальної поведінки та забезпечення надійніших заходів безпеки. Крім того, штучний інтелект можна застосовувати для захисту конфіденційності даних, захищаючи особисту інформацію користувачів на платформах Web3 за допомогою таких методів, як шифрування даних і обчислення конфіденційності. Що стосується аудиту смарт-контрактів, оскільки в процесах написання та аудиту смартконтракти можуть існувати вразливості та ризики безпеки, технологію штучного інтелекту можна використовувати для автоматизованого аудиту контрактів та виявлення вразливостей, підвищуючи безпеку та надійність контрактів.

Очевидно, що штучний інтелект може зробити значний внесок у вирішення проблем і потенційні покращення в індустрії Web3 у різних аспектах.

Аналіз поточної ситуації проєкту AI+Web3

Об'єднання проєктів штучного інтелекту та Web3 в першу чергу зосереджується на двох основних аспектах: використанні технології блокчейн для покращення проєктів штучного інтелекту та використанні технології штучного інтелекту для покращення проєктів Web3. На цьому шляху з'явилися численні проекти, серед яких Io.net, Gensyn, Ritual та інші. У наведеному нижче аналізі буде розглянуто різні піддомени, де штучний інтелект допомагає Web3, а де Web3 покращує штучний інтелект.

3.1 Web3 Допомагає штучному інтелекту

3.1.1 Децентралізований Обчислювальна потужність

З моменту запуску ChatGPT компанією OpenAI наприкінці 2022 року це викликало ажіотаж у сфері штучного інтелекту. Протягом п'яти днів після випуску база користувачів досягла одного мільйона, перевищивши показник завантажень Instagram, якому знадобилося приблизно два з половиною місяці, щоб досягти того ж рубежу. Згодом ChatGPT пережив стрімке зростання: щомісячні активні користувачі досягли 100 мільйонів протягом двох місяців, а щотижневі активні користувачі досягли 100 мільйонів до листопада 2023 року. З появою ChatGPT сектор штучного інтелекту швидко перетворився з нішевої сфери на високо оцінену галузь.

Згідно зі звітом Trendforce, для роботи ChatGPT потрібно 30 000 графічних процесорів NVIDIA A100, а майбутні моделі, такі як GPT-5, вимагатимуть ще більшої обчислювальної потужності. Це викликало гонку озброєнь серед різних компаній, що займаються штучним інтелектом, оскільки володіння достатньою обчислювальною потужністю має вирішальне значення для підтримки конкурентної переваги на арені штучного інтелекту, провідний до нестачі графічних процесорів.

До зростання штучного інтелекту основний постачальник графічних процесорів, NVIDIA, в основному обслуговував клієнтів з трьох основних хмарних сервісів: AWS, Azure і GCP. З зростання штучного інтелекту з'явилися численні нові покупці, включаючи великі технологічні компанії, такі як Meta, Oracle, а також інші платформи даних і стартапи зі штучного інтелекту, які приєдналися до гонки за накопичення графічних процесорів для навчання моделей штучного інтелекту. Великі технологічні компанії, такі як Meta та Tesla, значно збільшили закупівлі індивідуальних моделей штучного інтелекту та внутрішніх досліджень. Базові модельні компанії, такі як Anthropic, і платформи даних, такі як Snowflake і Databricks, також придбали більше графічних процесорів, щоб допомогти своїм клієнтам у наданні послуг штучного інтелекту.

Як згадував Semi Analysis минулого року, існує розрив між компаніями, які «багаті на графічні процесори» та «бідні на графічні процесори», і лише деякі з них мають понад 20 000 графічних процесорів A100/H100, що дозволяє членам команди використовувати від 100 до 1000 графічних процесорів для проектів. Ці компанії або є хмарними провайдерами, або створили власні великі мовні моделі (LLM), включаючи OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral та інші.

Однак більшість компаній падіння категорію «поганих графічних процесорів», борючись зі значно меншою кількістю графічних процесорів і витрачаючи значну кількість часу та зусиль на завдання, які складніше просувати екосистему. Причому така ситуація не обмежується стартапами. Деякі з найвідоміших компаній зі штучним інтелектом, такі як Hugging Face, Databricks (MosaicML), Together і навіть Snowflake, мають кількість A100/H100 менше 20 000. Незважаючи на наявність технічних талантів світового класу, ці компанії обмежені обмеженою пропозицією графічних процесорів, що ставить їх у невигідне становище порівняно з більшими компаніями в конкуренції зі штучним інтелектом.

Цей дефіцит не обмежується категорією «Поганий графічний процесор»; навіть до кінця 2023 року провідний ШІ-гравець, OpenAI, був змушений тимчасово закрити платні реєстрації через неможливість отримати достатню кількість графічних процесорів і був змушений закуповувати додаткові запаси графічних процесорів.

Очевидно, що швидкий розвиток штучного інтелекту призвів до серйозної невідповідності між попитом і пропозицією графічних процесорів, створивши неминучий дефіцит пропозиції.

Щоб вирішити цю проблему, деякі проєкти Web3 почали досліджувати рішення для децентралізованих обчислювальних потужностей, використовуючи унікальні характеристики технології Web3. Серед таких проєктів – Akash, Render, Gensyn та інші. Спільною рисою серед цих проєктів є використання токенів для стимулювання користувачів надавати незадіяні обчислювальні потужності GPU, тим самим стаючи стороною постачання обчислювальної потужності для підтримка клієнтів штучного інтелекту.

Профіль пропозиції в основному складається з трьох аспектів: постачальники хмарних послуг, майнери криптовалюти та підприємства. Постачальники хмарних послуг включають основних постачальників хмарних послуг (таких як AWS, Azure, GCP) і постачальників хмарних послуг GPU (такі як Coreweave, Lambda, Crusoe), де користувачі можуть перепродавати незадіяні обчислювальні потужності цих постачальників для отримання доходу. З переходом Ethereum від PoW до PoS, незадіяні обчислювальні потужності GPU стали важливою потенційною стороною пропозиції для майнерів криптовалют. Крім того, великі підприємства, такі як Tesla та Meta, які закупили велику кількість графічних процесорів для стратегічних цілей, також можуть вносити свої незадіяні обчислювальні потужності GPU як частину пропозиції.

Наразі гравців у цій галузі загалом можна розділити на дві категорії: ті, хто використовує децентралізовані обчислювальні потужності для висновків ШІ, і ті, хто використовує їх для навчання ШІ. Перша категорія включає такі проекти, як Render (хоча він і зосереджений на рендерингу, його також можна використовувати для обчислень штучного інтелекту), Akash, Aethir, тоді як друга категорія включає такі проекти, як io.net (підтримує як висновки, так і навчання) і Gensyn. Ключова відмінність між ними полягає в різних вимогах до обчислювальної потужності.

Давайте спочатку обговоримо проекти, присвячені висновкам штучного інтелекту. Ці проєкти залучають користувачів до надання обчислювальної потужності за допомогою стимулів токенів, а потім надають послуги обчислювальної потужної мережі на стороні попиту, тим самим полегшуючи збігається простою обчислювальної потужності попиту та пропозиції. Подробиці про такі проєкти висвітлено у звіті про дослідження DePIN від нашої лабораторії Ryze Labs, не соромтеся їх читати.

Суть полягає в механізмі заохочення токенів, де проєкт спочатку залучає постачальників, а потім користувачів, тим самим досягаючи холодного старту та основного механізму роботи проєкту, що дозволяє подальше розширення та розвиток. У цьому циклі сторона пропозиції отримує більш цінні винагороди у вигляді токенів, тоді як сторона попиту користується більш економічно ефективними послугами. Вартість токенів проєкту та зростання як попиту, так і пропозиції учасників залишаються незмінними. У міру того, як ціна токена зростає, залучається більше учасників і спекулянтів, створюючи цикл захоплення вартості.

Інша категорія передбачає використання децентралізованих обчислювальних потужностей для навчання ШІ, таких як Gensyn і io.net (які підтримка як навчання ШІ, так і висновок). Насправді операційна логіка цих проєктів принципово не відрізняється від проєктів логічного висновку зі штучним інтелектом. Вони, як і раніше, покладаються на стимули токенів для залучення участі з боку пропозиції для забезпечення обчислювальної потужності, яка потім використовується стороною попиту.

io.net, як децентралізована обчислювальна енергетична мережа, в даний час може похвалитися більш ніж 500 000 графічних процесорів, що робить її видатним виконавцем у проектах децентралізованих обчислювальних потужностей. Крім того, він має інтегровані обчислювальні потужності від Render і Filecoin, демонструючи постійний розвиток своєї екосистеми.

Крім того, Gensyn полегшує розподіл завдань машинного навчання та винагороди за допомогою смартконтракти, щоб забезпечити навчання ШІ. Як показано на діаграмі нижче, погодинна вартість навчання машинному навчанню в Gensyn становить приблизно 0,4 долара США, що значно нижче, ніж вартість понад 2 долари США на AWS і GCP.

Екосистема Gensyn включає чотири суб'єкти-учасники:

  • Субмітери: це користувачі на стороні попиту, які споживають завдання та оплачують навчальні завдання зі штучного інтелекту.
  • Виконавці: Виконавці виконують завдання модельного навчання та надають докази виконання завдань для перевірки.
  • Верифікатори: Верифікатори пов'язують недетермінований процес навчання з детермінованими лінійними обчисленнями. Вони порівнюють докази, надані виконавцями, з очікуваними пороговими значеннями.
  • Репортери: Репортери перевіряють роботу верифікаторів і ставлять завдання, щоб отримати винагороду за виявлення проблем.

Як бачимо, Gensyn прагне стати масштабованим і економічно ефективним обчислювальним протокол для глобальних моделей глибокого навчання. Однак, дивлячись на цю сферу, чому більшість проєктів вибирають децентралізовані обчислювальні потужності для висновків ШІ, а не навчання?

Давайте також допоможемо друзям, які не знайомі з навчанням та висновками ШІ, зрозуміти різницю між ними:

  • Навчання штучного інтелекту: Якщо порівнювати штучний інтелект зі студентом, то навчання схоже на надання ШІ великої кількості знань і прикладів, які можна розуміти як дані. Штучний інтелект вчиться на цих прикладах. Оскільки навчання передбачає розуміння та запам'ятовування великої кількості інформації, цей процес вимагає значної обчислювальної потужності та часу.
  • AI Inference: Отже, що таке умовивід? Це можна розуміти як використання отриманих знань для вирішення завдань або складання іспитів. Під час висновків штучний інтелект використовує отримані знання для надання відповідей, а не для отримання нових знань. Тому обчислювальні вимоги до процесу логічного висновку відносно невеликі.

Можна побачити, що вимоги до обчислювальної потужності як для висновків ШІ, так і для навчання ШІ суттєво відрізняються. Доступність децентралізованих обчислювальних потужностей для висновків ШІ та навчання ШІ буде додатково проаналізована в наступному розділі завдань.

Крім того, Ritual прагне об'єднати розподілені мережі з творцями моделей для підтримки децентралізації та безпеки. Її перший продукт, Infernet, дозволяє смартконтракти на блокчейні отримувати доступ до моделей штучного інтелекту поза блокчейном, дозволяючи таким контрактам отримувати доступ до ШІ таким чином, щоб підтримувати верифікацію, децентралізацію та захист конфіденційності.

Координатор Infernet відповідає за управління поведінкою вузлів у мережі та реагування на обчислювальні запити споживачів. Коли користувачі використовують Infernet, такі завдання, як висновок і доведення, виконуються поза блокчейном, при цьому вихідні дані повертаються координатору і в кінцевому підсумку передаються споживачам у блокчейні через смартконтракти.

На додаток до децентралізованих обчислювальних мереж живлення, існують також децентралізовані мережі пропускної здатності, такі як Grass, які спрямовані на підвищення швидкості та ефективності передачі даних. Загалом, поява децентралізованих обчислювальних мереж надає нові можливості для сторони постачання обчислювальних потужностей штучного інтелекту, просуваючи ШІ вперед у нових напрямках.

3.1.2 Децентралізована модель алгоритму

Як згадувалося в другому розділі, трьома основними елементами штучного інтелекту є обчислювальна потужність, алгоритми та дані. Оскільки обчислювальна потужність може сформувати мережу постачання за допомогою децентралізації, чи можуть алгоритми також дотримуватися подібного підходу та формувати мережу постачання для моделей алгоритмів?

Перш ніж аналізувати проекти в цій галузі, давайте спочатку розберемося в значенні децентралізованих моделей алгоритмів. Багато людей можуть задатися питанням, оскільки у нас вже є OpenAI, навіщо нам потрібна децентралізована мережа алгоритмів?

По суті, децентралізована мережа алгоритмів — це децентралізований ринок послуг алгоритмів штучного інтелекту, який з'єднує багато різних моделей штучного інтелекту. Кожна модель штучного інтелекту має свій досвід і навички. Коли користувачі ставлять запитання, маркетплейс вибирає найбільш підходящу модель штучного інтелекту, щоб відповісти на запитання. Chat-GPT, розроблений компанією OpenAI, є однією з таких моделей штучного інтелекту, яка може розуміти та генерувати текст, подібний до людського.

Простими словами, ChatGPT схожий на високоздібного студента, який допомагає вирішувати різні типи проблем, тоді як децентралізована мережа алгоритмів схожа на школу з багатьма учнями, які допомагають вирішувати проблеми. Незважаючи на те, що нинішній учень (ChatGPT) має високі здібності, у лонг перспективі є великий потенціал для школи, яка може набирати студентів з усього світу.

В даний час в області децентралізованих алгоритмічних моделей також є деякі проекти, які експериментують і досліджують. Далі ми будемо використовувати репрезентативний проект Bittensor як кейс, який допоможе зрозуміти розвиток цієї нішевої сфери.

У Bittensor сторона пропозиції алгоритмічних моделей (або майнерів) вносить свої моделі машинного навчання в мережу. Ці моделі можуть аналізувати дані та надавати інсайти. Постачальники моделей отримують криптовалютні токени, відомі як TAO, як винагороду за свій внесок.

Щоб забезпечити якість відповідей, Bittensor використовує унікальний механізм консенсусу для досягнення консенсусу щодо найкращої відповіді. Коли ставиться питання, майнери кількох моделей дають відповіді. Потім валідатори в мережі починають працювати над визначенням найкращої відповіді, яка потім відправляється назад користувачеві.

Токен-TAO в екосистемі Bittensor відіграє дві основні ролі протягом усього процесу. З одного боку, це служить стимулом для майнерів вносити в мережу алгоритмічні моделі. З іншого боку, користувачам потрібно витрачати токени, щоб ставити запитання та змушувати мережу виконувати завдання.

Оскільки Bittensor децентралізований, будь-хто, хто має доступ до Інтернету, може приєднатися до мережі або як користувач, який ставить запитання, або як майнер, який надає відповіді. Це дозволяє більшій кількості людей використовувати можливості штучного інтелекту.

Таким чином, децентралізовані мережі моделей алгоритмів, такі як Bittensor, мають потенціал для створення більш відкритого та прозорого ландшафту. У цій екосистемі моделі штучного інтелекту можна навчати, ділитися та використовувати безпечним і децентралізованим способом. Крім того, інші мережі, такі як BasedAI, намагаються зробити аналогічні зусилля, з інтригуючим аспектом використання доказів з нульовим розголошенням (ZK) для захисту інтерактивної конфіденційності даних за моделлю користувача, що буде обговорюватися далі в четвертому підрозділі.

У міру розвитку децентралізованих платформ моделей алгоритмів вони дозволять невеликим компаніям конкурувати з великими організаціями у використанні передових інструментів штучного інтелекту, що потенційно матиме значний вплив у різних галузях.

3.1.3 Децентралізований збір даних

Для навчання моделей ШІ незамінний великий запас даних. Однак більшість Web2-компаній наразі все ще монополізують дані користувачів. Такі платформи, як X, Reddit, TikTok, Snapchat, Instagram і YouTube, забороняють збір даних для навчання ШІ, що створює значну перешкоду для розвитку індустрії штучного інтелекту.

З іншого боку, деякі Web2-платформи продають дані користувачів компаніям, що займаються штучним інтелектом, не ділячись з ними прибутком. Наприклад, Reddit уклав угоду з Google на суму 60 мільйонів доларів, що дозволяє Google навчати моделі штучного інтелекту за допомогою своїх публікацій. Це призводить до того, що права на збір даних монополізуються великими компаніями з капіталом і великими даними, що підштовхує галузь до капіталомісткого напрямку.

У відповідь на цю ситуацію деякі проєкти використовують стимули Web3 та токенів для досягнення децентралізованого збору даних. Візьмемо для прикладу PublicAI: користувачі можуть брати участь у двох ролях:

  • Однією з категорій є постачальники даних зі штучним інтелектом. Користувачі можуть знайти цінний контент на X, позначити @PublicAI офіційну рахунок зі своїми інсайтами та використовувати хештеги #AI або #Web3 для категоризації контенту, тим самим надсилаючи його до центру обробки даних PublicAI для збору.
  • Інша категорія – валідатори даних. Користувачі можуть увійти в центр обробки даних PublicAI і проголосувати за найцінніші дані для навчання ШІ.

Як винагороду, користувачі можуть заробляти токени за допомогою цих внесків, сприяючи взаємовигідним відносинам між постачальниками даних та індустрією штучного інтелекту.

Окрім таких проєктів, як PublicAI, які спеціально збирають дані для навчання ШІ, є багато інших проєктів, які використовують стимули токенів для децентралізованого збору даних. Наприклад, Ocean збирає дані користувачів за допомогою даних токенізація для обслуговування штучного інтелекту, Hivemapper використовує автомобільні камери користувачів для збору картографічних даних, Dimo збирає дані про автомобілі, а WiHi збирає дані про погоду. Ці проєкти, завдяки децентралізованому збору даних, також слугують потенційними джерелами даних для навчання ШІ. Таким чином, у широкому сенсі вони можуть бути включені до парадигми Web3, що допомагає штучному інтелекту.

3.1.4 ZK захищає конфіденційність користувачів за допомогою штучного інтелекту

Блокчейн технологія пропонує переваги децентралізації, а також впроваджує важливу функцію: докази з нульовим розголошенням. Технологія з нульовим розголошенням дозволяє проводити перевірку інформації, зберігаючи конфіденційність.

У традиційному машинному навчанні дані зазвичай потрібно зберігати та обробляти централізовано, що може призвести до ризиків для конфіденційності. Методи захисту конфіденційності даних, такі як шифрування або анонімізація даних, можуть обмежувати точність і продуктивність моделей машинного навчання.

Технологія доказу з нульовим розголошенням допомагає вирішити цю дилему, вирішуючи конфлікт між захистом конфіденційності та обміном даними. Машинне навчання з нульовим розголошенням (ZKML) використовує технологію доказу з нульовим розголошенням, щоб забезпечити навчання моделей машинного навчання та висновків без розкриття вихідних даних. Докази з нульовим розголошенням гарантують, що характеристики даних і результати моделі можуть бути перевірені як правильні без розкриття фактичного змісту даних.

Основна мета ZKML – збалансувати захист конфіденційності та обмін даними. Його можна застосовувати в різних сценаріях, таких як аналіз даних у сфері охорони здоров'я, аналіз фінансових даних і міжорганізаційна співпраця. Використовуючи ZKML, люди можуть захистити конфіденційність своїх конфіденційних даних, одночасно обмінюючись даними з іншими, щоб отримати ширше розуміння та можливості співпраці без ризику порушення конфіденційності даних. Це родовище все ще знаходиться на ранніх стадіях, і більшість проектів все ще знаходяться на стадії розвідки. Наприклад, BasedAI пропонує децентралізований підхід, безперешкодно інтегруючи Fully Гомоморфне шифрування (FHE) з великими мовними моделями (LLM) для збереження конфіденційності даних. Великі мовні моделі з нульовим розголошенням (ZK-LLM) вбудовують конфіденційність у свою розподілену мережеву інфраструктуру, гарантуючи, що дані користувачів залишаються конфіденційними протягом усієї роботи мережі.

Ось коротке пояснення Fully Гомоморфне шифрування (FHE). FHE — це шифрування техніка, яка дозволяє виконувати обчислення на зашифрованих даних без необхідності їх розшифровки. Це означає, що різні математичні операції (такі як додавання, множення тощо), виконані над даними, зашифрованими FHE, дають ті самі результати, що й на вихідних незашифрованих даних, тим самим захищаючи конфіденційність даних користувача.

На додаток до вищезгаданих методів, Web3 також підтримує штучний інтелект через такі проєкти, як Cortex, що дозволяє у блокчейні виконання програм штучного інтелекту. Запуск програм машинного навчання на традиційних блокчейнах стикається з проблемою, оскільки віртуальні машини вкрай неефективні для запуску будь-яких нетривіальних моделей машинного навчання. Більшість вважає, що запуск штучного інтелекту на блокчейні неможливий. Однак Cortex Віртуальна машина (CVM) використовує графічні процесори для виконання програм штучного інтелекту у блокчейні і сумісний з Віртуальна машина Ethereum (EVM). Іншими словами, ланцюжок Cortex може виконувати всі Ethereum DApps та інтегрувати машинне навчання штучного інтелекту в ці DApps. Це дозволяє моделям машинного навчання працювати децентралізовано, незмінно та прозоро, а консенсус мережі перевіряє кожен крок висновку ШІ.

3.2 ШІ допомагає Web3

У зіткненні між ШІ та Web3, окрім допомоги ШІ з боку Web3, заслуговує на увагу також допомога ШІ індустрії Web3. Основним внеском штучного інтелекту є підвищення продуктивності, тому є багато спроб аудиту ШІ смартконтракти, аналізу та прогнозування даних, персоналізованих послуг, захисту безпеки та конфіденційності тощо.

3.2.1 Аналіз та прогнозування даних

Багато проєктів Web3 інтегрують існуючі сервіси штучного інтелекту (наприклад, ChatGPT) або розробляють власні для надання послуг аналізу даних і прогнозування для користувачів Web3. Ці послуги охоплюють широкий спектр, включаючи алгоритми штучного інтелекту для інвестиційних стратегій, інструменти аналізу у блокчейні, а також прогнози цін і ринку.

Наприклад, Pond використовує алгоритми графів штучного інтелекту для прогнозування цінних майбутніх альфа-токенів, пропонуючи користувачам та установам інвестиційні консультаційні послуги. BullBear AI навчається на історичних даних користувачів, історії цін і ринкових тенденцій, щоб надавати точну інформацію, що підтверджує прогнози цінових тенденцій, допомагаючи користувачам досягти прибутку.

Такі платформи, як Numerai, проводять інвестиційні змагання, де учасники використовують штучний інтелект і великі мовні моделі для прогнозування фондових ринків. Вони навчають моделі на високоякісних даних, наданих платформою, і подають щоденні прогнози. Numerai оцінює ці прогнози протягом наступного місяця, і учасники можуть застейкати NMR токени на своїх моделях, щоб отримувати винагороди на основі продуктивності.

Arkham, блокчейн-платформа для аналізу даних, також інтегрує штучний інтелект у свої послуги. Arkham пов'язує блокчейн-адреси з такими об'єктами, як біржі, фонди та кити, відображаючи ключові дані та аналіз, щоб надати користувачам перевагу у прийнятті рішень. Arkham Ultra зіставляє адреси з реальними сутностями за допомогою алгоритмів, розроблених протягом трьох років із підтримка засновників Palantir та OpenAI.

3.2.2 Персоналізовані послуги

Додатки штучного інтелекту в пошуку та рекомендаціях переважають у проєктах Web2, задовольняючи персоналізовані потреби користувачів. Web3-проєкти аналогічно інтегрують штучний інтелект для покращення користувацького досвіду.

Наприклад, відома платформа аналізу даних Dune нещодавно представила інструмент Wand, який використовує великі мовні моделі для написання SQL-запитів. За допомогою Wand Create користувачі можуть генерувати SQL-запити із запитань природною мовою, що полегшує пошук даних для тих, хто не знайомий із SQL

.

Контент-платформи, такі як Followin, інтегрують ChatGPT для узагальнення точок зору та оновлень у певних секторах. Енциклопедія Web3 IQ.wiki має на меті стати основним джерелом об'єктивних, високоякісних знань про технологію блокчейн та криптовалюту. Він інтегрує GPT-4 для узагальнення вікі-статей, роблячи інформацію про блокчейн більш доступною в усьому світі. Пошукова система Kaito на основі LLM має на меті революціонізувати пошук інформації Web3.

У креативній сфері такі проекти, як NFPrompt, знижують витрати на створення контенту. NFPrompt дозволяє користувачам легше генерувати NFT за допомогою штучного інтелекту, надаючи різноманітні персоналізовані творчі послуги.

3.2.3 Аудит смарт-контрактів за допомогою штучного інтелекту

Аудит смартконтракти є ключовим завданням у Web3, і штучний інтелект може підвищити ефективність і точність у виявленні вразливостей коду.

Віталік Бутерін зазначив, що однією з найбільших проблем у криптовалютному просторі є помилки в нашому коді. Штучний інтелект обіцяє значно спростити використання формальних інструментів верифікації для підтвердження правильності коду. Досягнення цього може призвести до майже безпомилкової EVM SEK (Віртуальна машина Ethereum), що підвищить безпеку космосу, оскільки менша кількість помилок підвищує загальну безпеку.

Наприклад, проєкт 0x0.ai пропонує аудитора смарт-контрактів на основі штучного інтелекту. Цей інструмент використовує передові алгоритми для аналізу смартконтракти та виявлення потенційних вразливостей або проблем, які можуть призвести до шахрайства чи інших ризиків безпеки. Аудитори використовують машинне навчання для виявлення закономірностей та аномалій у коді, позначаючи потенційні проблеми для подальшої перевірки.

Є й інші нативні випадки, коли штучний інтелект допомагає Web3. PAAL допомагає користувачам створювати персоналізованих ботів зі штучним інтелектом, які можна розгорнути в Telegram і Discord для обслуговування користувачів Web3. Мультичейн-агрегатор DEX Hera, керований штучним інтелектом, використовує штучний інтелект для забезпечення найкращих торгових шляхів між будь-якими парами токенів у різних токенах. Загалом внесок штучного інтелекту у Web3 насамперед на рівні інструментів, покращуючи різні процеси та функції.

Обмеження та поточні виклики проекту AI + Web3

4.1 Реалістичні перешкоди в децентралізованій Обчислювальна потужність

Наразі багато проєктів Web3, які допомагають штучному інтелекту, зосереджені на децентралізованих обчислювальних потужностях. Використання стимулів токенів для просування глобальних користувачів стати частиною обчислювальної потужності є дуже цікавим нововведенням. Однак, з іншого боку, є деякі реалістичні питання, які потребують вирішення:

У порівнянні з централізованими постачальниками обчислювальних потужностей, децентралізовані продукти обчислювальної потужності зазвичай покладаються на вузли та учасників, розподілених по всьому світу, для надання обчислювальних ресурсів. Через можливу затримка і нестабільність мережевих з'єднань між цими вузлами продуктивність і стабільність можуть бути гіршими, ніж у централізованих обчислювальних потужностей.

Крім того, на доступність децентралізованих обчислювальних потужностей впливає збігається ступінь між попитом і пропозицією. Якщо постачальників недостатньо або якщо попит занадто високий, це може призвести до дефіциту ресурсів або неможливості задовольнити потреби користувачів.

Нарешті, в порівнянні з продуктами централізованої обчислювальної потужності, децентралізовані обчислювальні потужності зазвичай передбачають більше технічних деталей і складності. Користувачам може знадобитися розуміти та обробляти аспекти розподілених мереж, смартконтракти та криптовалютних платежів, що збільшує вартість розуміння та використання користувачами.

Після глибоких дискусій з численними командами проектів децентралізованих обчислювальних потужностей було виявлено, що поточні децентралізовані обчислювальні потужності, як і раніше, в основному обмежені висновками ШІ, а не навчанням ШІ.

Далі я скористаюся чотирма питаннями, щоб допомогти кожному зрозуміти причини цього:

  1. Чому більшість проєктів децентралізованих обчислювальних потужностей вважають за краще робити висновки зі штучного інтелекту, а не навчати їх?

  2. Що робить NVIDIA такою потужною? Які причини того, що навчання децентралізованим обчислювальним потужностям ускладнюється?

  3. Яким буде ендшпіль для децентралізованих обчислювальних потужностей (Render, Akash, io.net тощо)?

  4. Яким буде ендшпіль для децентралізованих алгоритмів (Bittensor)?

Давайте крок за кроком заглибимося в деталі:

1) Спостерігаючи за цією сферою, більшість проектів децентралізованих обчислювальних потужностей вважають за краще зосередитися на висновках ШІ, а не на навчанні, в першу чергу через різні вимоги до обчислювальної потужності та пропускної здатності.

Щоб допомогти всім краще зрозуміти, давайте порівняємо ШІ зі студентом:

  • Навчання штучного інтелекту: Якщо ми порівнюємо штучний інтелект зі студентом, навчання схоже на надання ШІ великої кількості знань і прикладів, схожих на те, що ми часто називаємо даними. Штучний інтелект вчиться на цих прикладах. Оскільки навчання передбачає розуміння та запам'ятовування величезних обсягів інформації, цей процес вимагає значних обчислювальних потужностей і часу.

  • AI Inference: Висновок можна розуміти як використання отриманих знань для вирішення проблем або складання іспитів. Під час висновків штучний інтелект використовує отримані знання для відповідей на запитання, а не для отримання нової інформації, отже, вимоги до обчислень відносно нижчі.

Легко помітити, що фундаментальна різниця в складності полягає в тому, що навчання штучного інтелекту великих моделей вимагає величезних обсягів даних і надзвичайно високої пропускної здатності для передачі даних, що робить його дуже складним для досягнення за допомогою децентралізованих обчислювальних потужностей. На противагу цьому, висновок вимагає набагато менше даних і пропускної здатності, що робить його більш здійсненним.

Для великих моделей стійкість має вирішальне значення. Якщо тренування переривається, воно має перезавантажуватися, що призводить до великих витрат. З іншого боку, можуть бути досягнуті вимоги з відносно нижчими вимогами до обчислювальної потужності, такі як висновок ШІ або певні конкретні сценарії, що включають навчання середніх і малих моделей. У децентралізованих обчислювальних мережах деякі відносно великі постачальники послуг вузлів можуть задовольнити ці відносно вищі вимоги до обчислювальної потужності.

2) Отже, де вузькі місця в даних і пропускній здатності? Чому важко досягти децентралізованого навчання?

Це включає в себе два ключових елементи навчання великих моделей: обчислювальну потужність однієї карти і паралелізм з декількома картами.

Обчислювальна потужність однієї карти: В даний час всі центри, що вимагають навчання великих моделей, звані суперкомп'ютерними центрами, можна порівняти з людським тілом, де базовий блок, графічний процесор, схожий на клітину. Якщо обчислювальна потужність однієї комірки (GPU) потужна, то загальна обчислювальна потужність (одна комірка × кількість) також може бути дуже високою.

Багатокартковий паралелізм: навчання великої моделі часто включає сотні мільярдів гігабайт. Для суперкомп'ютерних центрів, які навчають великі моделі, потрібно не менше десятків тисяч графічних процесорів A100. Це зумовлює необхідність мобілізації тисяч карток для навчання. Однак навчання великої моделі не є простим серійним процесом; він не просто тренується на першій карті А100, а потім переходить на другу. Замість цього різні частини моделі тренуються на різних графічних процесорах одночасно, і навчальна частина A може вимагати результатів з частини B, що включає паралельну обробку.

Домінування NVIDIA та зростання ринкової вартості, тоді як AMD та вітчизняним компаніям, таким як Huawei та Horizon, важко наздогнати, пов'язані з двома аспектами: програмним середовищем CUDA та багатокартковим зв'язком NVLink.

Програмне середовище CUDA: Вирішальне значення має те, чи існує програмна екосистема, яка відповідає апаратному забезпеченню, як-от система CUDA від NVIDIA. Створення нової системи є складним завданням, схожим на створення нової мови з високими витратами на заміну.

Багатокартковий зв'язок NVLink: По суті, багатокартковий зв'язок включає введення та виведення інформації. Вирішальне значення має те, як розпаралелювати та передавати. Наявність NVLink означає, що карти NVIDIA та AMD не можуть обмінюватися даними; Крім того, NVLink обмежує фізичну відстань між графічними процесорами, вимагаючи, щоб вони знаходилися в одному суперкомп'ютерному центрі. Це ускладнює для децентралізованих обчислювальних потужностей, розподілених по всьому світу, формування цілісного обчислювального кластера для навчання великих моделей.

Перший пункт пояснює, чому AMD і вітчизняні компанії, такі як Huawei і Horizon, намагаються надолужити згаяне; другий пункт пояснює, чому децентралізованого навчання важко досягти.

3) Яким буде кінцевий результат для децентралізованих обчислювальних потужностей? Децентралізовані обчислювальні потужності в даний час борються з навчанням великих моделей, тому що стабільність має першорядне значення. Перерви зумовлюють необхідність перепідготовки, що призводить до високих витрат. Високі вимоги до багатокарткового паралелізму обмежені фізичними обмеженнями пропускної здатності. NVLink від NVIDIA забезпечує багатокартковий зв'язок, але в суперкомп'ютерному центрі NVLink обмежує фізичну відстань між графічними процесорами. Таким чином, розосереджені обчислювальні потужності не можуть утворити обчислювальний кластер для навчання великих моделей.

Однак для вимог з відносно нижчими вимогами до обчислювальної потужності, таких як висновок ШІ або певні конкретні сценарії, що включають навчання середніх і малих моделей, децентралізовані обчислювальні мережі потужності з деякими відносно великими постачальниками послуг вузлів мають потенціал. Крім того, такі сценарії, як периферійні обчислення для рендерингу, відносно простіші в реалізації.

4) Яким буде фінал для децентралізованих моделей алгоритмів? Майбутнє децентралізованих моделей алгоритмів залежить від кінцевого напрямку ШІ. Я вважаю, що в майбутньому штучного інтелекту може бути 1-2 гіганти моделей із закритим вихідним кодом (наприклад, ChatGPT) поряд із безліччю моделей. У цьому контексті продуктам прикладного рівня не потрібно прив'язуватися до однієї великої моделі, а скоріше співпрацювати з кількома великими моделями. У цьому сценарії модель Bittensor демонструє значний потенціал.

У поточних проєктах, що поєднують Web3 та AI, особливо в тих, де штучний інтелект допомагає ініціативам Web3, більшість проєктів просто поверхнево використовують ШІ, не демонструючи глибокої інтеграції між ШІ та криптовалютами. Це поверхневе застосування проявляється в наступних двох аспектах:

  • По-перше, незалежно від того, чи використовується штучний інтелект для аналізу та прогнозування даних, у рекомендаціях та сценаріях пошуку чи для аудиту коду, різниця невелика порівняно з інтеграцією штучного інтелекту в проєкти Web2. Ці проєкти просто використовують штучний інтелект для підвищення ефективності та аналізу, не демонструючи нативного злиття штучного інтелекту та криптовалют і не представляючи інноваційних рішень.
  • По-друге, багато команд Web3 використовують штучний інтелект більше як маркетинговий трюк, виключно використовуючи концепцію штучного інтелекту. Вони застосовують технологію штучного інтелекту в дуже обмежених сферах, а потім починають просувати тренд ШІ, створюючи фасад тісної інтеграції зі штучним інтелектом. Однак цим проектам бракує суттєвих інновацій.

Хоча поточні проєкти Web3 та штучного інтелекту мають ці обмеження, ми повинні визнати, що це лише рання стадія розробки. У майбутньому ми можемо очікувати більш глибоких досліджень та інновацій для досягнення тіснішої інтеграції між штучним інтелектом та криптовалютами, створюючи більш нативні та значущі рішення в таких сферах, як фінанси, децентралізовані автономні організації (DAO), ринки передбачень та NFT.

4.3 Токен Економіка слугує буфером для наративів проєктів штучного інтелекту

Як згадувалося спочатку, проєкти штучного інтелекту стикаються з проблемами у своїх бізнес-моделях, особливо з огляду на те, що все більше і більше великих моделей поступово стають відкритим вихідним кодом. Багато проєктів AI + Web3, часто чистих проєктів штучного інтелекту, які намагаються процвітати та забезпечувати фінансування у просторі Web2, вирішують накладати наративи та економіку токенів з Web3, щоб заохочувати участь користувачів.

Однак ключове питання полягає в тому, чи справді інтеграція економіки токенів допомагає проєктам штучного інтелекту задовольняти реальні потреби, чи вона просто слугує наративом або шорт-строковою ціннісною пропозицією. Наразі більшість проєктів AI+Web3 далекі від практичної стадії. Є надія, що більш ґрунтовні та вдумливі команди не тільки використовуватимуть токени як засіб для реклами проєктів штучного інтелекту, але й справді виконуватимуть практичні кейси використання.

Підсумок

Наразі в проєктах AI + Web3 з'явилося безліч кейсів та застосувань. По-перше, технологія штучного інтелекту може забезпечити більш ефективні та розумні варіанти використання Web3. Завдяки можливостям штучного інтелекту в аналізі та прогнозуванні даних користувачі Web3 можуть мати кращі інструменти для прийняття інвестиційних рішень та інших сценаріїв. Крім того, штучний інтелект може проводити аудит коду смарт-контрактів, оптимізувати виконання контрактів і підвищувати продуктивність і ефективність блокчейну. Крім того, технологія штучного інтелекту може запропонувати більш точні та інтелектуальні рекомендації та персоналізовані послуги для децентралізованих додатків, таким чином покращуючи взаємодію з користувачем.

Водночас децентралізований і програмований характер Web3 також відкриває нові можливості для технології штучного інтелекту. Завдяки стимулам токенів проєкти децентралізованих обчислювальних потужностей пропонують нові рішення дилеми недостатньої обчислювальної потужності штучного інтелекту. Механізми смартконтракти та розподіленого зберігання Web3 також пропонують ширший простір і ресурси для спільного використання та навчання алгоритмів штучного інтелекту. Механізми автономії та довіри користувачів Web3 також відкривають нові можливості для розвитку штучного інтелекту, дозволяючи користувачам автономно обирати участь у обміні даними та навчанні, тим самим підвищуючи різноманітність і якість даних і ще більше покращуючи продуктивність і точність моделей ШІ.

Хоча поточні кросоверні проєкти AI + Web3 все ще перебувають на ранніх стадіях і стикаються з багатьма проблемами, вони також приносять багато переваг. Наприклад, децентралізовані обчислювальні потужності мають деякі недоліки, але вони зменшують залежність від централізованих установ, забезпечують більшу прозорість і можливість контролю, а також забезпечують більш широку участь та інновації. Для конкретних випадків використання та потреб користувачів децентралізовані обчислювальні потужності можуть бути цінним вибором. Те ж саме стосується і збору даних; Проєкти децентралізованого збору даних пропонують такі переваги, як зменшення залежності від окремих джерел даних, забезпечення ширшого охоплення даних та сприяння різноманітності та інклюзивності даних. На практиці необхідно збалансувати ці переваги та недоліки та вжити відповідних управлінських та технічних заходів для подолання викликів, гарантуючи, що проєкти децентралізованого збору даних матимуть позитивний вплив на розвиток ШІ.

Загалом, інтеграція AI + Web3 пропонує безмежні можливості для майбутніх технологічних інновацій та економічного розвитку. Вважається, що поєднуючи можливості інтелектуального аналізу та прийняття рішень штучного інтелекту з децентралізованою та автономною природою Web3, ми можемо побудувати розумнішу, відкритішу та справедливішу економічну та навіть соціальну систему.

Відмова від відповідальності:

  1. Цю статтю передруковано з [Ryze Labs]. Усі авторські права належать оригінальному автору [Фреду]. Якщо є заперечення проти цього передруку, будь ласка, зв'яжіться з командою Gate Learn, і вони оперативно впораються з цим.
  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, належать виключно автору і не є жодною інвестиційною порадою.
  3. Переклад статті на інші мови здійснює команда Gate Learn. Якщо не зазначено, копіювання, розповсюдження або плагіат перекладених статей заборонено.

Аналіз у Глибина: які іскри можуть створити штучний інтелект та Web3?

РозширенийJun 07, 2024
У цій статті досліджується стрімкий розвиток технологій штучного інтелекту (ШІ) та Web3, а також потенційна цінність та вплив їхньої інтеграції. Штучний інтелект досягає успіху в підвищенні продуктивності, тоді як Web3 трансформує виробничі відносини за допомогою децентралізації. Поєднання цих технологій приносить інноваційні програми в аналізі даних, персоналізованому обслуговуванні користувачів, а також безпеці та захисті конфіденційності.
Аналіз у Глибина: які іскри можуть створити штучний інтелект та Web3?

Introduction: Development of AI+Web3

Останніми роками швидкий розвиток технологій штучного інтелекту (AI) та Web3 привернув широку увагу в усьому світі. Штучний інтелект, технологія, яка імітує та імітує людський інтелект, досягла значних проривів у таких галузях, як розпізнавання облич, обробка природної мови та машинне навчання. Швидкий розвиток технології штучного інтелекту приніс величезні трансформації та інновації в різних галузях.

У 2023 році індустрія штучного інтелекту досягла обсягу ринку в 200 мільярдів доларів, а гіганти галузі та відомі гравці, такі як OpenAI, Character.AI та Midjourney, швидко з'являються та провідний буму штучного інтелекту.

Водночас Web3, нова модель Інтернету, поступово змінює наше сприйняття та використання Інтернету. Заснований на децентралізованій технології блокчейн, Web3 реалізує обмін даними та контроль, автономію користувачів і встановлення механізмів довіри за допомогою таких функцій, як смартконтракти, розподілене сховище та децентралізована перевірка особи. Основна ідея Web3 полягає в тому, щоб звільнити дані від централізованих органів влади, надаючи користувачам контроль над своїми даними та можливість ділитися цінністю.

Наразі ринкова вартість індустрії Web3 досягла $25 трлн. Від Біткойн, Ethereum і Solana до гравців на рівні додатків, таких як Uniswap і Stepn, постійно з'являються нові наративи та сценарії, які приваблюють все більше і більше людей приєднатися до індустрії Web3.

Очевидно, що інтеграція штучного інтелекту та Web3 є центром уваги для будівельників та венчурних капіталістів як зі Сходу, так і з Заходу. Вивчення того, як ефективно поєднувати ці дві технології, є дуже вартісною справою.

У цій статті мова піде про поточний стан розвитку AI+Web3, досліджуючи потенційну цінність та вплив їх інтеграції. Спочатку ми ознайомимо з основними поняттями та характеристиками штучного інтелекту та Web3, а потім обговоримо їхній взаємозв'язок. Після цього ми проаналізуємо поточний стан проєктів AI+Web3 та заглибимося в обмеження та виклики, з якими вони стикаються. За допомогою цього дослідження ми прагнемо надати цінні рекомендації та ідеї для інвесторів і професіоналів галузі.

Як ШІ взаємодіє з Web3

Розвиток штучного інтелекту та Web3 можна розглядати як дві сторони шкали: штучний інтелект підвищує продуктивність, а Web3 революціонізує виробничі відносини. Отже, які іскри можуть створити штучний інтелект та Web3 при зіткненні? Спочатку ми проаналізуємо виклики та потенційні покращення в галузях штучного інтелекту та Web3, а потім дослідимо, як вони можуть допомогти вирішити проблеми один одного.

  1. Виклики та потенційні покращення в індустрії штучного інтелекту
  2. Виклики та потенційні покращення в індустрії Web3

2.1 Виклики в індустрії штучного інтелекту

Щоб дослідити виклики, з якими стикається індустрія штучного інтелекту, ми повинні спочатку зрозуміти її суть. Ядро індустрії штучного інтелекту обертається навколо трьох ключових елементів: обчислювальної потужності, алгоритмів і даних.

  1. По-перше, обчислювальна потужність: обчислювальна потужність означає здатність виконувати великомасштабні обчислення та обробку. Завдання штучного інтелекту зазвичай вимагають обробки великих обсягів даних і виконання складних обчислень, таких як навчання моделей глибоких нейронних мереж. Висока обчислювальна потужність може прискорити процеси навчання моделей і висновків, підвищуючи продуктивність і ефективність систем штучного інтелекту. Останніми роками прогрес в апаратних технологіях, таких як графічні процесори (GPU) і виділені чіпи штучного інтелекту (наприклад, TPU), значно підвищив обчислювальну потужність, стимулюючи розвиток індустрії штучного інтелекту. Ціна акцій Nvidia, великого постачальника графічних процесорів, останніми роками різко зросла, захопивши велику частку ринку та отримавши значний прибуток.
  2. Що таке алгоритм: алгоритми є основними компонентами систем штучного інтелекту. Це математичні та статистичні методи, які використовуються для розв'язування задач та виконання завдань. Алгоритми штучного інтелекту можна розділити на традиційні алгоритми машинного навчання та алгоритми глибокого навчання, причому алгоритми глибокого навчання за останні роки зробили значний прорив. Вибір і розробка алгоритмів мають вирішальне значення для продуктивності та ефективності систем штучного інтелекту. Постійне вдосконалення та інновації в алгоритмах можуть підвищити точність, надійність і можливості узагальнення систем штучного інтелекту. Різні алгоритми дають різні результати, тому прогрес в алгоритмах має важливе значення для виконання завдань.
  3. Чому дані важливі: Основне завдання систем штучного інтелекту полягає в тому, щоб витягувати закономірності та правила з даних за допомогою навчання та навчання. Дані формують основу для навчання та оптимізації моделей. За допомогою великомасштабних вибірок даних системи штучного інтелекту можуть навчатися більш точним та інтелектуальним моделям. Багаті набори даних надають вичерпну та різноманітну інформацію, дозволяючи моделям краще узагальнювати невидимі дані та допомагаючи системам штучного інтелекту краще розуміти та вирішувати реальні проблеми.

Зрозумівши три основні елементи сучасного штучного інтелекту, давайте розглянемо труднощі та виклики, з якими стикається штучний інтелект у цих сферах.

По-перше, з точки зору обчислювальної потужності, завдання ШІ зазвичай вимагають великої кількості обчислювальних ресурсів для навчання моделей і висновків, особливо для моделей глибокого навчання. Однак отримання та управління великомасштабними обчислювальними потужностями є дорогим і складним завданням. Вартість, енергоспоживання та обслуговування високопродуктивного обчислювального обладнання є суттєвими питаннями. Це особливо складно для стартапів та індивідуальних розробників, для яких може бути складно отримати достатню обчислювальну потужність.

З точки зору алгоритмів, незважаючи на значні успіхи алгоритмів глибокого навчання в багатьох областях, все ще існують виклики та труднощі. Наприклад, навчання глибоких нейронних мереж вимагає великої кількості даних і обчислювальних ресурсів. Крім того, для певних завдань інтерпретованість і пояснюваність моделей може бути недостатньою. Надійність і можливості узагальнення алгоритмів також є важливими питаннями, оскільки продуктивність моделі на невидимих даних може бути нестабільною. Пошук найкращого алгоритму для забезпечення оптимальної продуктивності серед багатьох алгоритмів є постійним дослідженням.

З точки зору даних, дані є рушійною силою штучного інтелекту, але отримання високоякісних, різноманітних даних залишається проблемою. Дані в деяких галузях, як-от конфіденційні дані про здоров'я в медичному секторі, може бути важко отримати. Крім того, якість, точність і маркування даних є критичними питаннями, оскільки неповні або упереджені дані можуть призвести до помилкової поведінки моделі або упереджень. Захист конфіденційності та безпеки даних також є важливим фактором.

Крім того, є питання, пов'язані з інтерпретацією та прозорістю. Природа «чорної скриньки» моделей штучного інтелекту викликає занепокоєння громадськості. У деяких сферах, таких як фінанси, охорона здоров'я та правосуддя, процес прийняття рішень щодо моделей має бути інтерпретованим та простежуваним. Однак існуючим моделям глибокого навчання часто бракує прозорості. Пояснення процесу прийняття рішень моделей і надання надійних пояснень залишаються складним завданням.

Крім того, бізнес-моделі багатьох стартап-проєктів зі штучним інтелектом не дуже зрозумілі, що також викликає плутанину у багатьох підприємців, пов'язаних зі штучним інтелектом.

2.2 Виклики в індустрії Web3

В індустрії Web3 існує безліч проблем, які необхідно вирішити, починаючи від аналізу даних і користувацького досвіду до вразливостей смарт-контрактів і хакерських атак. Штучний інтелект як інструмент підвищення продуктивності має значний потенціал у цих сферах.

По-перше, є можливості для вдосконалення аналізу даних і можливостей прогнозування. Застосування штучного інтелекту в аналізі та прогнозуванні даних справило значний вплив на індустрію Web3. Завдяки інтелектуальному аналізу та майнінгу за допомогою алгоритмів штучного інтелекту платформи Web3 можуть витягувати цінну інформацію з величезних обсягів даних і робити більш точні прогнози та рішення. Це особливо важливо для оцінки ризиків, прогнозування ринку та управління активами в децентралізованих фінансах (DeFi).

Крім того, існує потенціал для покращення користувацького досвіду та послуг персоналізації. Додатки штучного інтелекту дозволяють платформам Web3 пропонувати кращий користувацький досвід і персоналізовані послуги. Аналізуючи та моделюючи дані користувачів, Web3-платформи можуть надавати персоналізовані рекомендації, персоналізовані послуги та інтелектуальний досвід взаємодії. Це допомагає підвищити залученість і задоволеність користувачів, сприяючи розвитку екосистеми Web3. Наприклад, багато протоколів Web3 інтегрують інструменти штучного інтелекту, такі як ChatGPT, для кращого обслуговування користувачів.

З точки зору безпеки та захисту конфіденційності, програми штучного інтелекту також мають глибокий вплив на індустрію Web3. Технологію штучного інтелекту можна використовувати для виявлення та захисту від мережевих атак, виявлення аномальної поведінки та забезпечення надійніших заходів безпеки. Крім того, штучний інтелект можна застосовувати для захисту конфіденційності даних, захищаючи особисту інформацію користувачів на платформах Web3 за допомогою таких методів, як шифрування даних і обчислення конфіденційності. Що стосується аудиту смарт-контрактів, оскільки в процесах написання та аудиту смартконтракти можуть існувати вразливості та ризики безпеки, технологію штучного інтелекту можна використовувати для автоматизованого аудиту контрактів та виявлення вразливостей, підвищуючи безпеку та надійність контрактів.

Очевидно, що штучний інтелект може зробити значний внесок у вирішення проблем і потенційні покращення в індустрії Web3 у різних аспектах.

Аналіз поточної ситуації проєкту AI+Web3

Об'єднання проєктів штучного інтелекту та Web3 в першу чергу зосереджується на двох основних аспектах: використанні технології блокчейн для покращення проєктів штучного інтелекту та використанні технології штучного інтелекту для покращення проєктів Web3. На цьому шляху з'явилися численні проекти, серед яких Io.net, Gensyn, Ritual та інші. У наведеному нижче аналізі буде розглянуто різні піддомени, де штучний інтелект допомагає Web3, а де Web3 покращує штучний інтелект.

3.1 Web3 Допомагає штучному інтелекту

3.1.1 Децентралізований Обчислювальна потужність

З моменту запуску ChatGPT компанією OpenAI наприкінці 2022 року це викликало ажіотаж у сфері штучного інтелекту. Протягом п'яти днів після випуску база користувачів досягла одного мільйона, перевищивши показник завантажень Instagram, якому знадобилося приблизно два з половиною місяці, щоб досягти того ж рубежу. Згодом ChatGPT пережив стрімке зростання: щомісячні активні користувачі досягли 100 мільйонів протягом двох місяців, а щотижневі активні користувачі досягли 100 мільйонів до листопада 2023 року. З появою ChatGPT сектор штучного інтелекту швидко перетворився з нішевої сфери на високо оцінену галузь.

Згідно зі звітом Trendforce, для роботи ChatGPT потрібно 30 000 графічних процесорів NVIDIA A100, а майбутні моделі, такі як GPT-5, вимагатимуть ще більшої обчислювальної потужності. Це викликало гонку озброєнь серед різних компаній, що займаються штучним інтелектом, оскільки володіння достатньою обчислювальною потужністю має вирішальне значення для підтримки конкурентної переваги на арені штучного інтелекту, провідний до нестачі графічних процесорів.

До зростання штучного інтелекту основний постачальник графічних процесорів, NVIDIA, в основному обслуговував клієнтів з трьох основних хмарних сервісів: AWS, Azure і GCP. З зростання штучного інтелекту з'явилися численні нові покупці, включаючи великі технологічні компанії, такі як Meta, Oracle, а також інші платформи даних і стартапи зі штучного інтелекту, які приєдналися до гонки за накопичення графічних процесорів для навчання моделей штучного інтелекту. Великі технологічні компанії, такі як Meta та Tesla, значно збільшили закупівлі індивідуальних моделей штучного інтелекту та внутрішніх досліджень. Базові модельні компанії, такі як Anthropic, і платформи даних, такі як Snowflake і Databricks, також придбали більше графічних процесорів, щоб допомогти своїм клієнтам у наданні послуг штучного інтелекту.

Як згадував Semi Analysis минулого року, існує розрив між компаніями, які «багаті на графічні процесори» та «бідні на графічні процесори», і лише деякі з них мають понад 20 000 графічних процесорів A100/H100, що дозволяє членам команди використовувати від 100 до 1000 графічних процесорів для проектів. Ці компанії або є хмарними провайдерами, або створили власні великі мовні моделі (LLM), включаючи OpenAI, Google, Meta, Anthropic, Inflection, Tesla, Oracle, Mistral та інші.

Однак більшість компаній падіння категорію «поганих графічних процесорів», борючись зі значно меншою кількістю графічних процесорів і витрачаючи значну кількість часу та зусиль на завдання, які складніше просувати екосистему. Причому така ситуація не обмежується стартапами. Деякі з найвідоміших компаній зі штучним інтелектом, такі як Hugging Face, Databricks (MosaicML), Together і навіть Snowflake, мають кількість A100/H100 менше 20 000. Незважаючи на наявність технічних талантів світового класу, ці компанії обмежені обмеженою пропозицією графічних процесорів, що ставить їх у невигідне становище порівняно з більшими компаніями в конкуренції зі штучним інтелектом.

Цей дефіцит не обмежується категорією «Поганий графічний процесор»; навіть до кінця 2023 року провідний ШІ-гравець, OpenAI, був змушений тимчасово закрити платні реєстрації через неможливість отримати достатню кількість графічних процесорів і був змушений закуповувати додаткові запаси графічних процесорів.

Очевидно, що швидкий розвиток штучного інтелекту призвів до серйозної невідповідності між попитом і пропозицією графічних процесорів, створивши неминучий дефіцит пропозиції.

Щоб вирішити цю проблему, деякі проєкти Web3 почали досліджувати рішення для децентралізованих обчислювальних потужностей, використовуючи унікальні характеристики технології Web3. Серед таких проєктів – Akash, Render, Gensyn та інші. Спільною рисою серед цих проєктів є використання токенів для стимулювання користувачів надавати незадіяні обчислювальні потужності GPU, тим самим стаючи стороною постачання обчислювальної потужності для підтримка клієнтів штучного інтелекту.

Профіль пропозиції в основному складається з трьох аспектів: постачальники хмарних послуг, майнери криптовалюти та підприємства. Постачальники хмарних послуг включають основних постачальників хмарних послуг (таких як AWS, Azure, GCP) і постачальників хмарних послуг GPU (такі як Coreweave, Lambda, Crusoe), де користувачі можуть перепродавати незадіяні обчислювальні потужності цих постачальників для отримання доходу. З переходом Ethereum від PoW до PoS, незадіяні обчислювальні потужності GPU стали важливою потенційною стороною пропозиції для майнерів криптовалют. Крім того, великі підприємства, такі як Tesla та Meta, які закупили велику кількість графічних процесорів для стратегічних цілей, також можуть вносити свої незадіяні обчислювальні потужності GPU як частину пропозиції.

Наразі гравців у цій галузі загалом можна розділити на дві категорії: ті, хто використовує децентралізовані обчислювальні потужності для висновків ШІ, і ті, хто використовує їх для навчання ШІ. Перша категорія включає такі проекти, як Render (хоча він і зосереджений на рендерингу, його також можна використовувати для обчислень штучного інтелекту), Akash, Aethir, тоді як друга категорія включає такі проекти, як io.net (підтримує як висновки, так і навчання) і Gensyn. Ключова відмінність між ними полягає в різних вимогах до обчислювальної потужності.

Давайте спочатку обговоримо проекти, присвячені висновкам штучного інтелекту. Ці проєкти залучають користувачів до надання обчислювальної потужності за допомогою стимулів токенів, а потім надають послуги обчислювальної потужної мережі на стороні попиту, тим самим полегшуючи збігається простою обчислювальної потужності попиту та пропозиції. Подробиці про такі проєкти висвітлено у звіті про дослідження DePIN від нашої лабораторії Ryze Labs, не соромтеся їх читати.

Суть полягає в механізмі заохочення токенів, де проєкт спочатку залучає постачальників, а потім користувачів, тим самим досягаючи холодного старту та основного механізму роботи проєкту, що дозволяє подальше розширення та розвиток. У цьому циклі сторона пропозиції отримує більш цінні винагороди у вигляді токенів, тоді як сторона попиту користується більш економічно ефективними послугами. Вартість токенів проєкту та зростання як попиту, так і пропозиції учасників залишаються незмінними. У міру того, як ціна токена зростає, залучається більше учасників і спекулянтів, створюючи цикл захоплення вартості.

Інша категорія передбачає використання децентралізованих обчислювальних потужностей для навчання ШІ, таких як Gensyn і io.net (які підтримка як навчання ШІ, так і висновок). Насправді операційна логіка цих проєктів принципово не відрізняється від проєктів логічного висновку зі штучним інтелектом. Вони, як і раніше, покладаються на стимули токенів для залучення участі з боку пропозиції для забезпечення обчислювальної потужності, яка потім використовується стороною попиту.

io.net, як децентралізована обчислювальна енергетична мережа, в даний час може похвалитися більш ніж 500 000 графічних процесорів, що робить її видатним виконавцем у проектах децентралізованих обчислювальних потужностей. Крім того, він має інтегровані обчислювальні потужності від Render і Filecoin, демонструючи постійний розвиток своєї екосистеми.

Крім того, Gensyn полегшує розподіл завдань машинного навчання та винагороди за допомогою смартконтракти, щоб забезпечити навчання ШІ. Як показано на діаграмі нижче, погодинна вартість навчання машинному навчанню в Gensyn становить приблизно 0,4 долара США, що значно нижче, ніж вартість понад 2 долари США на AWS і GCP.

Екосистема Gensyn включає чотири суб'єкти-учасники:

  • Субмітери: це користувачі на стороні попиту, які споживають завдання та оплачують навчальні завдання зі штучного інтелекту.
  • Виконавці: Виконавці виконують завдання модельного навчання та надають докази виконання завдань для перевірки.
  • Верифікатори: Верифікатори пов'язують недетермінований процес навчання з детермінованими лінійними обчисленнями. Вони порівнюють докази, надані виконавцями, з очікуваними пороговими значеннями.
  • Репортери: Репортери перевіряють роботу верифікаторів і ставлять завдання, щоб отримати винагороду за виявлення проблем.

Як бачимо, Gensyn прагне стати масштабованим і економічно ефективним обчислювальним протокол для глобальних моделей глибокого навчання. Однак, дивлячись на цю сферу, чому більшість проєктів вибирають децентралізовані обчислювальні потужності для висновків ШІ, а не навчання?

Давайте також допоможемо друзям, які не знайомі з навчанням та висновками ШІ, зрозуміти різницю між ними:

  • Навчання штучного інтелекту: Якщо порівнювати штучний інтелект зі студентом, то навчання схоже на надання ШІ великої кількості знань і прикладів, які можна розуміти як дані. Штучний інтелект вчиться на цих прикладах. Оскільки навчання передбачає розуміння та запам'ятовування великої кількості інформації, цей процес вимагає значної обчислювальної потужності та часу.
  • AI Inference: Отже, що таке умовивід? Це можна розуміти як використання отриманих знань для вирішення завдань або складання іспитів. Під час висновків штучний інтелект використовує отримані знання для надання відповідей, а не для отримання нових знань. Тому обчислювальні вимоги до процесу логічного висновку відносно невеликі.

Можна побачити, що вимоги до обчислювальної потужності як для висновків ШІ, так і для навчання ШІ суттєво відрізняються. Доступність децентралізованих обчислювальних потужностей для висновків ШІ та навчання ШІ буде додатково проаналізована в наступному розділі завдань.

Крім того, Ritual прагне об'єднати розподілені мережі з творцями моделей для підтримки децентралізації та безпеки. Її перший продукт, Infernet, дозволяє смартконтракти на блокчейні отримувати доступ до моделей штучного інтелекту поза блокчейном, дозволяючи таким контрактам отримувати доступ до ШІ таким чином, щоб підтримувати верифікацію, децентралізацію та захист конфіденційності.

Координатор Infernet відповідає за управління поведінкою вузлів у мережі та реагування на обчислювальні запити споживачів. Коли користувачі використовують Infernet, такі завдання, як висновок і доведення, виконуються поза блокчейном, при цьому вихідні дані повертаються координатору і в кінцевому підсумку передаються споживачам у блокчейні через смартконтракти.

На додаток до децентралізованих обчислювальних мереж живлення, існують також децентралізовані мережі пропускної здатності, такі як Grass, які спрямовані на підвищення швидкості та ефективності передачі даних. Загалом, поява децентралізованих обчислювальних мереж надає нові можливості для сторони постачання обчислювальних потужностей штучного інтелекту, просуваючи ШІ вперед у нових напрямках.

3.1.2 Децентралізована модель алгоритму

Як згадувалося в другому розділі, трьома основними елементами штучного інтелекту є обчислювальна потужність, алгоритми та дані. Оскільки обчислювальна потужність може сформувати мережу постачання за допомогою децентралізації, чи можуть алгоритми також дотримуватися подібного підходу та формувати мережу постачання для моделей алгоритмів?

Перш ніж аналізувати проекти в цій галузі, давайте спочатку розберемося в значенні децентралізованих моделей алгоритмів. Багато людей можуть задатися питанням, оскільки у нас вже є OpenAI, навіщо нам потрібна децентралізована мережа алгоритмів?

По суті, децентралізована мережа алгоритмів — це децентралізований ринок послуг алгоритмів штучного інтелекту, який з'єднує багато різних моделей штучного інтелекту. Кожна модель штучного інтелекту має свій досвід і навички. Коли користувачі ставлять запитання, маркетплейс вибирає найбільш підходящу модель штучного інтелекту, щоб відповісти на запитання. Chat-GPT, розроблений компанією OpenAI, є однією з таких моделей штучного інтелекту, яка може розуміти та генерувати текст, подібний до людського.

Простими словами, ChatGPT схожий на високоздібного студента, який допомагає вирішувати різні типи проблем, тоді як децентралізована мережа алгоритмів схожа на школу з багатьма учнями, які допомагають вирішувати проблеми. Незважаючи на те, що нинішній учень (ChatGPT) має високі здібності, у лонг перспективі є великий потенціал для школи, яка може набирати студентів з усього світу.

В даний час в області децентралізованих алгоритмічних моделей також є деякі проекти, які експериментують і досліджують. Далі ми будемо використовувати репрезентативний проект Bittensor як кейс, який допоможе зрозуміти розвиток цієї нішевої сфери.

У Bittensor сторона пропозиції алгоритмічних моделей (або майнерів) вносить свої моделі машинного навчання в мережу. Ці моделі можуть аналізувати дані та надавати інсайти. Постачальники моделей отримують криптовалютні токени, відомі як TAO, як винагороду за свій внесок.

Щоб забезпечити якість відповідей, Bittensor використовує унікальний механізм консенсусу для досягнення консенсусу щодо найкращої відповіді. Коли ставиться питання, майнери кількох моделей дають відповіді. Потім валідатори в мережі починають працювати над визначенням найкращої відповіді, яка потім відправляється назад користувачеві.

Токен-TAO в екосистемі Bittensor відіграє дві основні ролі протягом усього процесу. З одного боку, це служить стимулом для майнерів вносити в мережу алгоритмічні моделі. З іншого боку, користувачам потрібно витрачати токени, щоб ставити запитання та змушувати мережу виконувати завдання.

Оскільки Bittensor децентралізований, будь-хто, хто має доступ до Інтернету, може приєднатися до мережі або як користувач, який ставить запитання, або як майнер, який надає відповіді. Це дозволяє більшій кількості людей використовувати можливості штучного інтелекту.

Таким чином, децентралізовані мережі моделей алгоритмів, такі як Bittensor, мають потенціал для створення більш відкритого та прозорого ландшафту. У цій екосистемі моделі штучного інтелекту можна навчати, ділитися та використовувати безпечним і децентралізованим способом. Крім того, інші мережі, такі як BasedAI, намагаються зробити аналогічні зусилля, з інтригуючим аспектом використання доказів з нульовим розголошенням (ZK) для захисту інтерактивної конфіденційності даних за моделлю користувача, що буде обговорюватися далі в четвертому підрозділі.

У міру розвитку децентралізованих платформ моделей алгоритмів вони дозволять невеликим компаніям конкурувати з великими організаціями у використанні передових інструментів штучного інтелекту, що потенційно матиме значний вплив у різних галузях.

3.1.3 Децентралізований збір даних

Для навчання моделей ШІ незамінний великий запас даних. Однак більшість Web2-компаній наразі все ще монополізують дані користувачів. Такі платформи, як X, Reddit, TikTok, Snapchat, Instagram і YouTube, забороняють збір даних для навчання ШІ, що створює значну перешкоду для розвитку індустрії штучного інтелекту.

З іншого боку, деякі Web2-платформи продають дані користувачів компаніям, що займаються штучним інтелектом, не ділячись з ними прибутком. Наприклад, Reddit уклав угоду з Google на суму 60 мільйонів доларів, що дозволяє Google навчати моделі штучного інтелекту за допомогою своїх публікацій. Це призводить до того, що права на збір даних монополізуються великими компаніями з капіталом і великими даними, що підштовхує галузь до капіталомісткого напрямку.

У відповідь на цю ситуацію деякі проєкти використовують стимули Web3 та токенів для досягнення децентралізованого збору даних. Візьмемо для прикладу PublicAI: користувачі можуть брати участь у двох ролях:

  • Однією з категорій є постачальники даних зі штучним інтелектом. Користувачі можуть знайти цінний контент на X, позначити @PublicAI офіційну рахунок зі своїми інсайтами та використовувати хештеги #AI або #Web3 для категоризації контенту, тим самим надсилаючи його до центру обробки даних PublicAI для збору.
  • Інша категорія – валідатори даних. Користувачі можуть увійти в центр обробки даних PublicAI і проголосувати за найцінніші дані для навчання ШІ.

Як винагороду, користувачі можуть заробляти токени за допомогою цих внесків, сприяючи взаємовигідним відносинам між постачальниками даних та індустрією штучного інтелекту.

Окрім таких проєктів, як PublicAI, які спеціально збирають дані для навчання ШІ, є багато інших проєктів, які використовують стимули токенів для децентралізованого збору даних. Наприклад, Ocean збирає дані користувачів за допомогою даних токенізація для обслуговування штучного інтелекту, Hivemapper використовує автомобільні камери користувачів для збору картографічних даних, Dimo збирає дані про автомобілі, а WiHi збирає дані про погоду. Ці проєкти, завдяки децентралізованому збору даних, також слугують потенційними джерелами даних для навчання ШІ. Таким чином, у широкому сенсі вони можуть бути включені до парадигми Web3, що допомагає штучному інтелекту.

3.1.4 ZK захищає конфіденційність користувачів за допомогою штучного інтелекту

Блокчейн технологія пропонує переваги децентралізації, а також впроваджує важливу функцію: докази з нульовим розголошенням. Технологія з нульовим розголошенням дозволяє проводити перевірку інформації, зберігаючи конфіденційність.

У традиційному машинному навчанні дані зазвичай потрібно зберігати та обробляти централізовано, що може призвести до ризиків для конфіденційності. Методи захисту конфіденційності даних, такі як шифрування або анонімізація даних, можуть обмежувати точність і продуктивність моделей машинного навчання.

Технологія доказу з нульовим розголошенням допомагає вирішити цю дилему, вирішуючи конфлікт між захистом конфіденційності та обміном даними. Машинне навчання з нульовим розголошенням (ZKML) використовує технологію доказу з нульовим розголошенням, щоб забезпечити навчання моделей машинного навчання та висновків без розкриття вихідних даних. Докази з нульовим розголошенням гарантують, що характеристики даних і результати моделі можуть бути перевірені як правильні без розкриття фактичного змісту даних.

Основна мета ZKML – збалансувати захист конфіденційності та обмін даними. Його можна застосовувати в різних сценаріях, таких як аналіз даних у сфері охорони здоров'я, аналіз фінансових даних і міжорганізаційна співпраця. Використовуючи ZKML, люди можуть захистити конфіденційність своїх конфіденційних даних, одночасно обмінюючись даними з іншими, щоб отримати ширше розуміння та можливості співпраці без ризику порушення конфіденційності даних. Це родовище все ще знаходиться на ранніх стадіях, і більшість проектів все ще знаходяться на стадії розвідки. Наприклад, BasedAI пропонує децентралізований підхід, безперешкодно інтегруючи Fully Гомоморфне шифрування (FHE) з великими мовними моделями (LLM) для збереження конфіденційності даних. Великі мовні моделі з нульовим розголошенням (ZK-LLM) вбудовують конфіденційність у свою розподілену мережеву інфраструктуру, гарантуючи, що дані користувачів залишаються конфіденційними протягом усієї роботи мережі.

Ось коротке пояснення Fully Гомоморфне шифрування (FHE). FHE — це шифрування техніка, яка дозволяє виконувати обчислення на зашифрованих даних без необхідності їх розшифровки. Це означає, що різні математичні операції (такі як додавання, множення тощо), виконані над даними, зашифрованими FHE, дають ті самі результати, що й на вихідних незашифрованих даних, тим самим захищаючи конфіденційність даних користувача.

На додаток до вищезгаданих методів, Web3 також підтримує штучний інтелект через такі проєкти, як Cortex, що дозволяє у блокчейні виконання програм штучного інтелекту. Запуск програм машинного навчання на традиційних блокчейнах стикається з проблемою, оскільки віртуальні машини вкрай неефективні для запуску будь-яких нетривіальних моделей машинного навчання. Більшість вважає, що запуск штучного інтелекту на блокчейні неможливий. Однак Cortex Віртуальна машина (CVM) використовує графічні процесори для виконання програм штучного інтелекту у блокчейні і сумісний з Віртуальна машина Ethereum (EVM). Іншими словами, ланцюжок Cortex може виконувати всі Ethereum DApps та інтегрувати машинне навчання штучного інтелекту в ці DApps. Це дозволяє моделям машинного навчання працювати децентралізовано, незмінно та прозоро, а консенсус мережі перевіряє кожен крок висновку ШІ.

3.2 ШІ допомагає Web3

У зіткненні між ШІ та Web3, окрім допомоги ШІ з боку Web3, заслуговує на увагу також допомога ШІ індустрії Web3. Основним внеском штучного інтелекту є підвищення продуктивності, тому є багато спроб аудиту ШІ смартконтракти, аналізу та прогнозування даних, персоналізованих послуг, захисту безпеки та конфіденційності тощо.

3.2.1 Аналіз та прогнозування даних

Багато проєктів Web3 інтегрують існуючі сервіси штучного інтелекту (наприклад, ChatGPT) або розробляють власні для надання послуг аналізу даних і прогнозування для користувачів Web3. Ці послуги охоплюють широкий спектр, включаючи алгоритми штучного інтелекту для інвестиційних стратегій, інструменти аналізу у блокчейні, а також прогнози цін і ринку.

Наприклад, Pond використовує алгоритми графів штучного інтелекту для прогнозування цінних майбутніх альфа-токенів, пропонуючи користувачам та установам інвестиційні консультаційні послуги. BullBear AI навчається на історичних даних користувачів, історії цін і ринкових тенденцій, щоб надавати точну інформацію, що підтверджує прогнози цінових тенденцій, допомагаючи користувачам досягти прибутку.

Такі платформи, як Numerai, проводять інвестиційні змагання, де учасники використовують штучний інтелект і великі мовні моделі для прогнозування фондових ринків. Вони навчають моделі на високоякісних даних, наданих платформою, і подають щоденні прогнози. Numerai оцінює ці прогнози протягом наступного місяця, і учасники можуть застейкати NMR токени на своїх моделях, щоб отримувати винагороди на основі продуктивності.

Arkham, блокчейн-платформа для аналізу даних, також інтегрує штучний інтелект у свої послуги. Arkham пов'язує блокчейн-адреси з такими об'єктами, як біржі, фонди та кити, відображаючи ключові дані та аналіз, щоб надати користувачам перевагу у прийнятті рішень. Arkham Ultra зіставляє адреси з реальними сутностями за допомогою алгоритмів, розроблених протягом трьох років із підтримка засновників Palantir та OpenAI.

3.2.2 Персоналізовані послуги

Додатки штучного інтелекту в пошуку та рекомендаціях переважають у проєктах Web2, задовольняючи персоналізовані потреби користувачів. Web3-проєкти аналогічно інтегрують штучний інтелект для покращення користувацького досвіду.

Наприклад, відома платформа аналізу даних Dune нещодавно представила інструмент Wand, який використовує великі мовні моделі для написання SQL-запитів. За допомогою Wand Create користувачі можуть генерувати SQL-запити із запитань природною мовою, що полегшує пошук даних для тих, хто не знайомий із SQL

.

Контент-платформи, такі як Followin, інтегрують ChatGPT для узагальнення точок зору та оновлень у певних секторах. Енциклопедія Web3 IQ.wiki має на меті стати основним джерелом об'єктивних, високоякісних знань про технологію блокчейн та криптовалюту. Він інтегрує GPT-4 для узагальнення вікі-статей, роблячи інформацію про блокчейн більш доступною в усьому світі. Пошукова система Kaito на основі LLM має на меті революціонізувати пошук інформації Web3.

У креативній сфері такі проекти, як NFPrompt, знижують витрати на створення контенту. NFPrompt дозволяє користувачам легше генерувати NFT за допомогою штучного інтелекту, надаючи різноманітні персоналізовані творчі послуги.

3.2.3 Аудит смарт-контрактів за допомогою штучного інтелекту

Аудит смартконтракти є ключовим завданням у Web3, і штучний інтелект може підвищити ефективність і точність у виявленні вразливостей коду.

Віталік Бутерін зазначив, що однією з найбільших проблем у криптовалютному просторі є помилки в нашому коді. Штучний інтелект обіцяє значно спростити використання формальних інструментів верифікації для підтвердження правильності коду. Досягнення цього може призвести до майже безпомилкової EVM SEK (Віртуальна машина Ethereum), що підвищить безпеку космосу, оскільки менша кількість помилок підвищує загальну безпеку.

Наприклад, проєкт 0x0.ai пропонує аудитора смарт-контрактів на основі штучного інтелекту. Цей інструмент використовує передові алгоритми для аналізу смартконтракти та виявлення потенційних вразливостей або проблем, які можуть призвести до шахрайства чи інших ризиків безпеки. Аудитори використовують машинне навчання для виявлення закономірностей та аномалій у коді, позначаючи потенційні проблеми для подальшої перевірки.

Є й інші нативні випадки, коли штучний інтелект допомагає Web3. PAAL допомагає користувачам створювати персоналізованих ботів зі штучним інтелектом, які можна розгорнути в Telegram і Discord для обслуговування користувачів Web3. Мультичейн-агрегатор DEX Hera, керований штучним інтелектом, використовує штучний інтелект для забезпечення найкращих торгових шляхів між будь-якими парами токенів у різних токенах. Загалом внесок штучного інтелекту у Web3 насамперед на рівні інструментів, покращуючи різні процеси та функції.

Обмеження та поточні виклики проекту AI + Web3

4.1 Реалістичні перешкоди в децентралізованій Обчислювальна потужність

Наразі багато проєктів Web3, які допомагають штучному інтелекту, зосереджені на децентралізованих обчислювальних потужностях. Використання стимулів токенів для просування глобальних користувачів стати частиною обчислювальної потужності є дуже цікавим нововведенням. Однак, з іншого боку, є деякі реалістичні питання, які потребують вирішення:

У порівнянні з централізованими постачальниками обчислювальних потужностей, децентралізовані продукти обчислювальної потужності зазвичай покладаються на вузли та учасників, розподілених по всьому світу, для надання обчислювальних ресурсів. Через можливу затримка і нестабільність мережевих з'єднань між цими вузлами продуктивність і стабільність можуть бути гіршими, ніж у централізованих обчислювальних потужностей.

Крім того, на доступність децентралізованих обчислювальних потужностей впливає збігається ступінь між попитом і пропозицією. Якщо постачальників недостатньо або якщо попит занадто високий, це може призвести до дефіциту ресурсів або неможливості задовольнити потреби користувачів.

Нарешті, в порівнянні з продуктами централізованої обчислювальної потужності, децентралізовані обчислювальні потужності зазвичай передбачають більше технічних деталей і складності. Користувачам може знадобитися розуміти та обробляти аспекти розподілених мереж, смартконтракти та криптовалютних платежів, що збільшує вартість розуміння та використання користувачами.

Після глибоких дискусій з численними командами проектів децентралізованих обчислювальних потужностей було виявлено, що поточні децентралізовані обчислювальні потужності, як і раніше, в основному обмежені висновками ШІ, а не навчанням ШІ.

Далі я скористаюся чотирма питаннями, щоб допомогти кожному зрозуміти причини цього:

  1. Чому більшість проєктів децентралізованих обчислювальних потужностей вважають за краще робити висновки зі штучного інтелекту, а не навчати їх?

  2. Що робить NVIDIA такою потужною? Які причини того, що навчання децентралізованим обчислювальним потужностям ускладнюється?

  3. Яким буде ендшпіль для децентралізованих обчислювальних потужностей (Render, Akash, io.net тощо)?

  4. Яким буде ендшпіль для децентралізованих алгоритмів (Bittensor)?

Давайте крок за кроком заглибимося в деталі:

1) Спостерігаючи за цією сферою, більшість проектів децентралізованих обчислювальних потужностей вважають за краще зосередитися на висновках ШІ, а не на навчанні, в першу чергу через різні вимоги до обчислювальної потужності та пропускної здатності.

Щоб допомогти всім краще зрозуміти, давайте порівняємо ШІ зі студентом:

  • Навчання штучного інтелекту: Якщо ми порівнюємо штучний інтелект зі студентом, навчання схоже на надання ШІ великої кількості знань і прикладів, схожих на те, що ми часто називаємо даними. Штучний інтелект вчиться на цих прикладах. Оскільки навчання передбачає розуміння та запам'ятовування величезних обсягів інформації, цей процес вимагає значних обчислювальних потужностей і часу.

  • AI Inference: Висновок можна розуміти як використання отриманих знань для вирішення проблем або складання іспитів. Під час висновків штучний інтелект використовує отримані знання для відповідей на запитання, а не для отримання нової інформації, отже, вимоги до обчислень відносно нижчі.

Легко помітити, що фундаментальна різниця в складності полягає в тому, що навчання штучного інтелекту великих моделей вимагає величезних обсягів даних і надзвичайно високої пропускної здатності для передачі даних, що робить його дуже складним для досягнення за допомогою децентралізованих обчислювальних потужностей. На противагу цьому, висновок вимагає набагато менше даних і пропускної здатності, що робить його більш здійсненним.

Для великих моделей стійкість має вирішальне значення. Якщо тренування переривається, воно має перезавантажуватися, що призводить до великих витрат. З іншого боку, можуть бути досягнуті вимоги з відносно нижчими вимогами до обчислювальної потужності, такі як висновок ШІ або певні конкретні сценарії, що включають навчання середніх і малих моделей. У децентралізованих обчислювальних мережах деякі відносно великі постачальники послуг вузлів можуть задовольнити ці відносно вищі вимоги до обчислювальної потужності.

2) Отже, де вузькі місця в даних і пропускній здатності? Чому важко досягти децентралізованого навчання?

Це включає в себе два ключових елементи навчання великих моделей: обчислювальну потужність однієї карти і паралелізм з декількома картами.

Обчислювальна потужність однієї карти: В даний час всі центри, що вимагають навчання великих моделей, звані суперкомп'ютерними центрами, можна порівняти з людським тілом, де базовий блок, графічний процесор, схожий на клітину. Якщо обчислювальна потужність однієї комірки (GPU) потужна, то загальна обчислювальна потужність (одна комірка × кількість) також може бути дуже високою.

Багатокартковий паралелізм: навчання великої моделі часто включає сотні мільярдів гігабайт. Для суперкомп'ютерних центрів, які навчають великі моделі, потрібно не менше десятків тисяч графічних процесорів A100. Це зумовлює необхідність мобілізації тисяч карток для навчання. Однак навчання великої моделі не є простим серійним процесом; він не просто тренується на першій карті А100, а потім переходить на другу. Замість цього різні частини моделі тренуються на різних графічних процесорах одночасно, і навчальна частина A може вимагати результатів з частини B, що включає паралельну обробку.

Домінування NVIDIA та зростання ринкової вартості, тоді як AMD та вітчизняним компаніям, таким як Huawei та Horizon, важко наздогнати, пов'язані з двома аспектами: програмним середовищем CUDA та багатокартковим зв'язком NVLink.

Програмне середовище CUDA: Вирішальне значення має те, чи існує програмна екосистема, яка відповідає апаратному забезпеченню, як-от система CUDA від NVIDIA. Створення нової системи є складним завданням, схожим на створення нової мови з високими витратами на заміну.

Багатокартковий зв'язок NVLink: По суті, багатокартковий зв'язок включає введення та виведення інформації. Вирішальне значення має те, як розпаралелювати та передавати. Наявність NVLink означає, що карти NVIDIA та AMD не можуть обмінюватися даними; Крім того, NVLink обмежує фізичну відстань між графічними процесорами, вимагаючи, щоб вони знаходилися в одному суперкомп'ютерному центрі. Це ускладнює для децентралізованих обчислювальних потужностей, розподілених по всьому світу, формування цілісного обчислювального кластера для навчання великих моделей.

Перший пункт пояснює, чому AMD і вітчизняні компанії, такі як Huawei і Horizon, намагаються надолужити згаяне; другий пункт пояснює, чому децентралізованого навчання важко досягти.

3) Яким буде кінцевий результат для децентралізованих обчислювальних потужностей? Децентралізовані обчислювальні потужності в даний час борються з навчанням великих моделей, тому що стабільність має першорядне значення. Перерви зумовлюють необхідність перепідготовки, що призводить до високих витрат. Високі вимоги до багатокарткового паралелізму обмежені фізичними обмеженнями пропускної здатності. NVLink від NVIDIA забезпечує багатокартковий зв'язок, але в суперкомп'ютерному центрі NVLink обмежує фізичну відстань між графічними процесорами. Таким чином, розосереджені обчислювальні потужності не можуть утворити обчислювальний кластер для навчання великих моделей.

Однак для вимог з відносно нижчими вимогами до обчислювальної потужності, таких як висновок ШІ або певні конкретні сценарії, що включають навчання середніх і малих моделей, децентралізовані обчислювальні мережі потужності з деякими відносно великими постачальниками послуг вузлів мають потенціал. Крім того, такі сценарії, як периферійні обчислення для рендерингу, відносно простіші в реалізації.

4) Яким буде фінал для децентралізованих моделей алгоритмів? Майбутнє децентралізованих моделей алгоритмів залежить від кінцевого напрямку ШІ. Я вважаю, що в майбутньому штучного інтелекту може бути 1-2 гіганти моделей із закритим вихідним кодом (наприклад, ChatGPT) поряд із безліччю моделей. У цьому контексті продуктам прикладного рівня не потрібно прив'язуватися до однієї великої моделі, а скоріше співпрацювати з кількома великими моделями. У цьому сценарії модель Bittensor демонструє значний потенціал.

У поточних проєктах, що поєднують Web3 та AI, особливо в тих, де штучний інтелект допомагає ініціативам Web3, більшість проєктів просто поверхнево використовують ШІ, не демонструючи глибокої інтеграції між ШІ та криптовалютами. Це поверхневе застосування проявляється в наступних двох аспектах:

  • По-перше, незалежно від того, чи використовується штучний інтелект для аналізу та прогнозування даних, у рекомендаціях та сценаріях пошуку чи для аудиту коду, різниця невелика порівняно з інтеграцією штучного інтелекту в проєкти Web2. Ці проєкти просто використовують штучний інтелект для підвищення ефективності та аналізу, не демонструючи нативного злиття штучного інтелекту та криптовалют і не представляючи інноваційних рішень.
  • По-друге, багато команд Web3 використовують штучний інтелект більше як маркетинговий трюк, виключно використовуючи концепцію штучного інтелекту. Вони застосовують технологію штучного інтелекту в дуже обмежених сферах, а потім починають просувати тренд ШІ, створюючи фасад тісної інтеграції зі штучним інтелектом. Однак цим проектам бракує суттєвих інновацій.

Хоча поточні проєкти Web3 та штучного інтелекту мають ці обмеження, ми повинні визнати, що це лише рання стадія розробки. У майбутньому ми можемо очікувати більш глибоких досліджень та інновацій для досягнення тіснішої інтеграції між штучним інтелектом та криптовалютами, створюючи більш нативні та значущі рішення в таких сферах, як фінанси, децентралізовані автономні організації (DAO), ринки передбачень та NFT.

4.3 Токен Економіка слугує буфером для наративів проєктів штучного інтелекту

Як згадувалося спочатку, проєкти штучного інтелекту стикаються з проблемами у своїх бізнес-моделях, особливо з огляду на те, що все більше і більше великих моделей поступово стають відкритим вихідним кодом. Багато проєктів AI + Web3, часто чистих проєктів штучного інтелекту, які намагаються процвітати та забезпечувати фінансування у просторі Web2, вирішують накладати наративи та економіку токенів з Web3, щоб заохочувати участь користувачів.

Однак ключове питання полягає в тому, чи справді інтеграція економіки токенів допомагає проєктам штучного інтелекту задовольняти реальні потреби, чи вона просто слугує наративом або шорт-строковою ціннісною пропозицією. Наразі більшість проєктів AI+Web3 далекі від практичної стадії. Є надія, що більш ґрунтовні та вдумливі команди не тільки використовуватимуть токени як засіб для реклами проєктів штучного інтелекту, але й справді виконуватимуть практичні кейси використання.

Підсумок

Наразі в проєктах AI + Web3 з'явилося безліч кейсів та застосувань. По-перше, технологія штучного інтелекту може забезпечити більш ефективні та розумні варіанти використання Web3. Завдяки можливостям штучного інтелекту в аналізі та прогнозуванні даних користувачі Web3 можуть мати кращі інструменти для прийняття інвестиційних рішень та інших сценаріїв. Крім того, штучний інтелект може проводити аудит коду смарт-контрактів, оптимізувати виконання контрактів і підвищувати продуктивність і ефективність блокчейну. Крім того, технологія штучного інтелекту може запропонувати більш точні та інтелектуальні рекомендації та персоналізовані послуги для децентралізованих додатків, таким чином покращуючи взаємодію з користувачем.

Водночас децентралізований і програмований характер Web3 також відкриває нові можливості для технології штучного інтелекту. Завдяки стимулам токенів проєкти децентралізованих обчислювальних потужностей пропонують нові рішення дилеми недостатньої обчислювальної потужності штучного інтелекту. Механізми смартконтракти та розподіленого зберігання Web3 також пропонують ширший простір і ресурси для спільного використання та навчання алгоритмів штучного інтелекту. Механізми автономії та довіри користувачів Web3 також відкривають нові можливості для розвитку штучного інтелекту, дозволяючи користувачам автономно обирати участь у обміні даними та навчанні, тим самим підвищуючи різноманітність і якість даних і ще більше покращуючи продуктивність і точність моделей ШІ.

Хоча поточні кросоверні проєкти AI + Web3 все ще перебувають на ранніх стадіях і стикаються з багатьма проблемами, вони також приносять багато переваг. Наприклад, децентралізовані обчислювальні потужності мають деякі недоліки, але вони зменшують залежність від централізованих установ, забезпечують більшу прозорість і можливість контролю, а також забезпечують більш широку участь та інновації. Для конкретних випадків використання та потреб користувачів децентралізовані обчислювальні потужності можуть бути цінним вибором. Те ж саме стосується і збору даних; Проєкти децентралізованого збору даних пропонують такі переваги, як зменшення залежності від окремих джерел даних, забезпечення ширшого охоплення даних та сприяння різноманітності та інклюзивності даних. На практиці необхідно збалансувати ці переваги та недоліки та вжити відповідних управлінських та технічних заходів для подолання викликів, гарантуючи, що проєкти децентралізованого збору даних матимуть позитивний вплив на розвиток ШІ.

Загалом, інтеграція AI + Web3 пропонує безмежні можливості для майбутніх технологічних інновацій та економічного розвитку. Вважається, що поєднуючи можливості інтелектуального аналізу та прийняття рішень штучного інтелекту з децентралізованою та автономною природою Web3, ми можемо побудувати розумнішу, відкритішу та справедливішу економічну та навіть соціальну систему.

Відмова від відповідальності:

  1. Цю статтю передруковано з [Ryze Labs]. Усі авторські права належать оригінальному автору [Фреду]. Якщо є заперечення проти цього передруку, будь ласка, зв'яжіться з командою Gate Learn, і вони оперативно впораються з цим.
  2. Відмова від відповідальності: Погляди та думки, висловлені в цій статті, належать виключно автору і не є жодною інвестиційною порадою.
  3. Переклад статті на інші мови здійснює команда Gate Learn. Якщо не зазначено, копіювання, розповсюдження або плагіат перекладених статей заборонено.
Розпочати зараз
Зареєструйтеся та отримайте ваучер на
$100
!