深度分析:AI和Web3能創造什麼樣的火花?

進階Jun 07, 2024
本文探討了人工智慧 (AI) 和 Web3 技術的快速發展及其整合的潛在價值和影響。AI 擅長提高生產力,而 Web3 通過去中心化改變生產關係。這些技術的結合帶來了數據分析、個人化使用者服務以及安全和隱私保護方面的創新應用。
深度分析:AI和Web3能創造什麼樣的火花?

簡介:AI+Web3的發展

近年來,人工智慧(AI)和Web3技術的快速發展引起了全球的廣泛關注。人工智慧是一種類比和模仿人類智慧的技術,在面部識別、自然語言處理、機器學習等領域取得了重大突破。人工智慧技術的快速發展為各行各業帶來了巨大的變革和創新。

人工智慧行業在 2023 年達到 2000 億美元的市場規模,行業巨頭和知名企業如 OpenAI、Character.AI 和 Midjourney 迅速崛起,並龍頭人工智慧熱潮。

同時,Web3作為一種新興的互聯網模式,正在逐漸改變我們對互聯網的看法和使用。Web3 基於去中心化區塊鏈技術,通過智能合約、分散式存儲、去中心化身份驗證等功能,實現數據共用和控制、使用者自治、信任機制的建立。Web3 的核心思想是將數據從集中式機構中解放出來,授予使用者控制和共用其數據價值的能力。

目前,Web3行業的市值已達到25萬億美元。從比特幣、以太坊、Solana到 Uniswap 和 Stepn 等應用級玩家,新的敘事和場景不斷湧現,吸引越來越多的人加入 Web3 行業。

很明顯,人工智慧和 Web3 的整合是東西方建設者和風險資本家的焦點。探索如何有效地結合這兩種技術是一項非常值得的努力。

本文將重點介紹AI+Web3發展的現狀,探討其集成的潛在價值和影響。我們將首先介紹 AI 和 Web3 的基本概念和特徵,然後討論它們的相互關係。在此之後,我們將分析AI+Web3專案的現狀,並深入研究它們面臨的局限性和挑戰。通過這項研究,我們旨在為投資者和行業專業人士提供有價值的參考和見解。

AI 如何與 Web3 交互

AI 和 Web3 的發展可以看作是一個天平的兩個方面:AI 帶來了生產力的提高,而 Web3 徹底改變了生產關係。那麼,AI和Web3碰撞時,能產生怎樣的火花呢?我們將首先分析AI和Web3行業面臨的挑戰和潛在的改進,然後探索它們如何幫助解決彼此的問題。

  1. 人工智慧行業的挑戰和潛在改進
  2. Web3 行業的挑戰和潛在改進

2.1 AI行業面臨的挑戰

要探索AI行業面臨的挑戰,首先要瞭解其本質。人工智慧行業的核心圍繞三個關鍵要素:計算能力、演演演算法和數據。

“”

  1. 一、計算能力:計算能力是指進行大規模計算和處理的能力。AI 任務通常需要處理大量數據並執行複雜的計算,例如訓練深度神經網路模型。高計算能力可以加速模型訓練和推理過程,提高人工智慧系統的性能和效率。近年來,圖形處理單元(GPU)和專用AI晶元(如TPU)等硬體技術的進步顯著提高了計算能力,推動了AI行業的發展。英偉達(Nvidia)是一家主要的GPU供應商,近年來股價飆升,佔據了巨大的市場份額並獲得了可觀的利潤。
  2. 什麼是演演演算法:演演演算法是AI系統的核心元件。它們是用於解決問題和執行任務的數學和統計方法。AI演演演算法可以分為傳統的機器學習演演演算法和深度學習演演演算法,深度學習演演演算法近年來取得了重大突破。演演演算法的選擇和設計對於人工智慧系統的性能和有效性至關重要。演演演算法的不斷改進和創新可以增強AI系統的準確性、魯棒性和泛化能力。不同的演演演算法產生不同的結果,因此演演演算法的進步對於任務性能至關重要。
  3. 為什麼數據很重要:人工智慧系統的核心任務是通過學習和訓練從數據中提取模式和規則。數據是訓練和優化模型的基礎。通過大規模數據樣本,人工智慧系統可以學習更準確、更智慧的模型。豐富的數據集提供全面多樣的資訊,使模型能夠更好地泛化為看不見的數據,並説明人工智慧系統更好地理解和解決現實世界的問題。

在瞭解了當前AI的三個核心要素之後,讓我們來看看AI在這些領域面臨的困難和挑戰。

首先,在計算能力方面,AI任務通常需要大量的計算資源進行模型訓練和推理,尤其是深度學習模型。然而,獲取和管理大規模計算能力是一項昂貴而複雜的挑戰。高性能計算設備的成本、能耗和維護是重大問題。這對於初創公司和個人開發人員來說尤其具有挑戰性,因為他們很難獲得足夠的計算能力。

在演演演算法方面,儘管深度學習演演演算法在許多領域取得了重大成功,但仍然存在挑戰和困難。例如,訓練深度神經網路需要大量的數據和計算資源。此外,對於某些任務,模型的可解釋性和可解釋性可能不足。演演演算法的魯棒性和泛化能力也是關鍵問題,因為模型在看不見的數據上的性能可能不穩定。找到在眾多演演演算法中提供最佳性能的最佳演演演算法是一項持續的探索。

在數據方面,數據是人工智慧背後的驅動力,但獲得高品質、多樣化的數據仍然是一個挑戰。某些領域的數據,例如醫療部門的敏感健康數據,可能難以獲得。此外,數據的品質、準確性和標籤是關鍵問題,因為不完整或有偏見的數據可能導致錯誤的模型行為或偏差。保護數據隱私和安全也是一個重要的考慮因素。

此外,還存在與可解釋性和透明度有關的問題。人工智慧模型的「黑匣子」性質是一個公眾關注的問題。在某些應用中,例如金融、醫療保健和司法,模型的決策過程需要可解釋和可追溯。然而,現有的深度學習模型往往缺乏透明度。解釋模型的決策過程並提供可靠的解釋仍然具有挑戰性。

此外,許多AI創業專案的商業模式不是很清楚,這也給許多AI創業者帶來了困惑。

2.2 Web3行業的挑戰

在Web3行業中,有許多挑戰需要解決,從數據分析和用戶體驗到智慧合約漏洞和駭客攻擊。人工智慧作為提高生產力的工具,在這些領域具有巨大的潛力。

首先,數據分析和預測能力還有改進的空間。人工智慧在數據分析和預測中的應用對Web3行業產生了重大影響。通過AI演演演算法的智慧分析和挖掘,Web3平臺可以從大量數據中提取有價值的資訊,並做出更準確的預測和決策。這對於去中心化金融(去中心化金融)中的風險評估、市場預測和資產管理尤為重要。

此外,還有增強用戶體驗和個人化服務的潛力。人工智慧應用程式使 Web3 平臺能夠提供更好的用戶體驗和個人化服務。通過對用戶數據的分析和建模,Web3 平臺可以提供個人化推薦、定製服務和智慧交互體驗。這有助於提高用戶參與度和滿意度,促進 Web3 生態系統的發展。例如,許多 Web3 協定集成了 ChatGPT 等 AI 工具,以更好地為使用者服務。

在安全和隱私保護方面,AI應用也對Web3行業產生了深遠的影響。AI技術可用於檢測和防禦網路攻擊,識別異常行為,並提供更強大的安全措施。此外,人工智慧可以應用於數據隱私保護,通過數據加密和隱私計算等技術保護使用者在 Web3 平臺上的個人資訊。在智慧合約審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全風險,人工智慧技術可用於自動化合約審計和漏洞檢測,增強合約的安全性和可靠性。

很明顯,人工智慧可以為應對 Web3 行業各個方面的挑戰和潛在改進做出重大貢獻。

AI+Web3專案現狀分析

AI和Web3專案的結合主要集中在兩個方面:利用區塊鏈技術增強AI專案,以及利用AI技術為Web3專案的改進服務。沿著這條道路出現了許多專案,包括 Io.net,Gensyn,Ritual等。以下分析將深入探討 AI 説明 Web3 和 Web3 增強 AI 的不同子領域。

“”

3.1 Web3 説明 AI

3.1.1 去中心化算力

自 2022 年底 OpenAI 推出 ChatGPT 以來,它點燃了 AI 領域的狂熱。在發佈后的五天內,使用者群達到了一百萬,超過了Instagram的下載速度,後者花了大約兩個半月的時間才達到相同的里程碑。隨後,ChatGPT 經歷了快速增長,兩個月內月活躍用戶達到 1 億,到 2023 年 11 月每周活躍用戶達到 1 億。隨著ChatGPT的出現,人工智慧領域迅速從一個利基領域轉變為一個備受推崇的行業。

根據Trendforce的報告,ChatGPT需要30,000個NVIDIA A100 GPU才能運行,而像GPT-5這樣的未來型號將需要更多的計算能力。這引發了各種人工智慧公司之間的軍備競賽,因為擁有足夠的計算能力對於在人工智慧領域保持競爭優勢至關重要,龍頭GPU短缺。

在人工智慧漲之前,主要的GPU供應商NVIDIA主要為來自三大雲服務的客戶提供服務:AWS,Azure和GCP。隨著人工智慧的漲,出現了許多新的買家,包括Meta,Oracle等主要科技公司,以及其他數據平臺和AI初創公司,都加入了儲備GPU以訓練AI模型的競賽。像Meta和特斯拉這樣的大型科技公司大幅增加了對定製AI模型和內部研究的購買。Anthropic等基本模型公司以及Snowflake和Databricks等數據平臺也購買了更多的GPU,以幫助客戶提供AI服務。

正如Semi Analysis去年所提到的,“GPU富”和“GPU差”公司之間存在分歧,只有少數公司擁有超過20,000個A100 / H100 GPU,允許團隊成員使用100到1000個GPU進行專案。這些公司要麼是雲供應商,要麼已經建立了自己的大型語言模型(LLM),包括OpenAI,Google,Meta,Anthropic,Inflection,Tesla,Oracle,Mistral等。

然而,大多數公司跌“GPU差”類別,在GPU明顯減少的情況下苦苦掙扎,並在更難推進生態系統的任務上花費大量時間和精力。此外,這種情況不僅限於初創公司。一些最知名的人工智慧公司,如Hugging Face,Databricks(MosaicML),Together,甚至Snowflake,A100 / H100的數量都不到20,000。儘管擁有世界一流的技術人才,但這些公司受到GPU供應有限的限制,與AI競爭中的大公司相比,它們處於劣勢。

這種短缺不僅限於“GPU 差”類別;即使到 2023 年底,龍頭 AI 播放機 OpenAI 也不得不暫時關閉付費註冊,因為無法獲得足夠的 GPU,不得不採購更多的 GPU 供應。
“”

很明顯,人工智慧的快速發展導致了GPU供需嚴重不匹配,造成了迫在眉睫的供應短缺。

為了解決這個問題,一些 Web3 專案已經開始探索去中心化計算能力解決方案,利用 Web3 技術的獨特特性。這些專案包括Akash,Render,Gensyn等。這些專案的共同特點是使用代幣來激勵使用者提供閑置的GPU算力,從而成為支撐AI用戶端的算力的供給側。

供給側概況主要包括三個方面:雲服務提供者、加密貨幣礦工和企業。雲服務提供者包括主要的雲服務提供者(如AWS,Azure,GCP)和GPU雲服務提供者(如Coreweave,Lambda,Crusoe),使用者可以從這些供應商轉售閑置的計算能力以產生收入。隨著以太坊從工作量證明向權益證明過渡,閑置的GPU算力已成為加密貨幣礦工的重要潛在供應方。此外,像特斯拉和 Meta 這樣出於戰略目的購買了大量 GPU 的大型企業,也可以貢獻其閑置的 GPU 計算能力作為供應方的一部分。

目前,該領域的參與者通常可以分為兩類:使用分散計算能力進行AI推理的玩家和將其用於AI訓練的玩家。前一類包括Render(雖然專注於渲染,但它也可用於AI計算),Akash,Aethir等專案,而後一類包括 io.net(支援推理和訓練)和Gensyn等專案。兩者之間的關鍵區別在於對計算能力的不同要求。

讓我們首先討論專注於 AI 推理的專案。這些專案通過代幣激勵吸引使用者提供算力,然後向需求側提供算力網路服務,從而促進閑置算力供需的撮合交易。有關此類專案的詳細資訊,請參閱我們Ryze Labs的DePIN研究報告請隨時閱讀它們

核心點在於代幣激勵機制,專案先吸引供應商,再吸引使用者,從而實現專案的冷啟動和核心運行機制,實現進一步拓展和發展。在這個迴圈中,供應方獲得更有價值的代幣獎勵,而需求方享受更具成本效益的服務。專案代幣的價值以及供需參與者的增長保持一致。隨著代幣價格的上漲,吸引了更多的參與者和投機者,從而形成了一個價值捕獲迴圈。

“”

另一類涉及使用分散的計算能力進行AI訓練,例如Gensyn和 io.net(支撐AI訓練和推理)。事實上,這些專案的運營邏輯與AI推理項目並沒有根本區別。他們仍然依靠代幣激勵來吸引供應方的參與來提供計算能力,然後由需求方利用。

io.net 作為一個去中心化的算力網路,目前擁有超過50萬個GPU,使其成為去中心化算力專案中的佼佼者。此外,它還集成了Render和Filecoin的計算能力,展示了其生態系統的不斷發展。

“”

此外,Gensyn 通過智能合約促進機器學習任務分配和獎勵,以實現 AI 訓練。如下圖所示,Gensyn 中機器學習訓練工作的每小時成本約為 0.4 USD,明顯低於 AWS 和 GCP 上超過 2 USD 的成本。

Gensyn生態系統涉及四個參與實體:

  • 提交者:這些是消費任務併為 AI 訓練任務付費的需求方使用者。
  • 執行者:執行者執行模型訓練的任務,並提供任務完成證明進行驗證。
  • 驗證器:驗證器將非確定性訓練過程與確定性線性計算連接起來。他們將執行人提供的證明與預期的閾值進行比較。
  • 記者:記者檢查核查人員的工作,提出挑戰,發現問題后獲得獎勵。

正如我們所看到的,Gensyn的目標是成為全球深度學習模型的大規模可擴展且具有成本效益的計算協議。然而,縱觀這個領域,為什麼大多數專案選擇去中心化算力進行AI推理,而不是訓練呢?

讓我們也説明不熟悉 AI 訓練和推理的朋友瞭解兩者之間的區別:

  • AI訓練:如果我們把人工智慧比作一個學生,那麼訓練就相當於為AI提供了大量的知識和例子,可以理解為數據。人工智慧從這些例子中學習。由於學習涉及理解和記憶大量資訊,因此此過程需要大量的計算能力和時間。
  • AI 推理:那麼什麼是推理?它可以理解為利用所學知識解決問題或參加考試。在推理過程中,人工智慧使用學到的知識來提供答案,而不是獲取新知識。因此,推理過程的計算要求相對較小。

可以看出,AI推理和AI訓練的計算能力要求差異很大。用於AI推理和AI訓練的分散式計算能力的可用性將在即將到來的挑戰部分中進一步分析。

此外,Ritual旨在將分散式網路與模型建立者相結合,以保持去中心化和安全性。它的第一個產品Infernet使區塊鏈上的智能合約能夠鏈下訪問AI模型,允許此類合約以保持驗證,去中心化和隱私保護的方式訪問AI。

Infernet的協調員負責管理網路中節點的行為並回應消費者的計算請求。當使用者使用 Infernet 時,推理和證明等任務鏈下執行,輸出返回給協調器,最終通過智能合約鏈上傳輸給消費者。

除了去中心化的算力網路,還有像Grass這樣的去中心化頻寬網路,旨在提高數據傳輸的速度和效率。總體而言,去中心化算力網路的出現為AI算力的供給側提供了新的可能性,推動AI向新的方向前進。

3.1.2 去中心化演演演算法模型

就像第二章提到的,人工智慧的三個核心要素是計算能力、演演演算法和數據。既然算力可以通過去中心化形成供應網路,那麼演演演算法是否也可以遵循類似的方法,形成演演演算法模型的供應網路?

在分析這個領域的專案之前,我們先來瞭解去中心化演演演算法模型的意義。很多人可能想知道,既然我們已經有了OpenAI,為什麼還需要去中心化的演演演算法網路呢?

從本質上講,去中心化演演演算法網路是一個去中心化的AI演演演算法服務市場,它連接了許多不同的AI模型。每個 AI 模型都有自己的專業知識和技能。當使用者提出問題時,市場會選擇最合適的AI模型來回答問題。由OpenAI開發的Chat-GPT就是這樣一種AI模型,可以理解和生成類似於人類的文本。

簡單來說,ChatGPT就像一個能力很強的學生,幫助解決不同類型的問題,而去中心化的演演演算法網路就像一所學校,有很多學生説明解決問題。儘管目前的學生(ChatGPT)能力很強,但從多來看,一所可以從全球招收學生的學校有很大的潛力。
“”

目前,在去中心化演演演算法模型領域,也有一些專案正在試驗和探索中。接下來,我們將以代表性專案Bittensor作為案例研究,以幫助瞭解這一利基領域的發展。

在Bittensor中,演演演算法模型(或礦工)的供應方將其機器學習模型貢獻給網路。這些模型可以分析數據並提供見解。模型提供者接收加密貨幣代幣(稱為TAO)作為對其貢獻的獎勵。

為了保證答案的品質,Bittensor使用獨特的共識機制就最佳答案達成共識。當一個問題被提出時,多個模型礦工會提供答案。然後,網路中的驗證者開始工作以確定最佳答案,然後將其發送回使用者。

“”

Bittensor生態系統中的令牌TAO在整個過程中扮演著兩個主要角色。一方面,它激勵礦工為網路貢獻演演演算法模型。另一方面,使用者需要花費代幣來提問並讓網路完成任務。

由於Bittensor是去中心化的,任何可以訪問互聯網的人都可以加入網路,無論是作為提問的使用者還是作為提供答案的礦工。這讓更多的人能夠利用人工智慧的力量。

總之,像Bittensor這樣的去中心化演演演算法模型網路有可能創造一個更加開放和透明的景觀。在這個生態系統中,人工智慧模型可以以安全和分散的方式進行訓練、共用和利用。此外,像BasedAI這樣的其他網路也在嘗試類似的努力,有趣的是使用零知識證明(ZK)來保護使用者模型互動式數據隱私,這將在第四小節中進一步討論。

隨著去中心化演演演算法模型平臺的發展,它們將使小公司能夠在使用尖端人工智慧工具方面與大型組織競爭,這可能會對各個行業產生重大影響。

3.1.3 去中心化數據收集

對於AI模型的訓練,大量的數據供應是必不可少的。然而,大多數 Web2 公司目前仍然壟斷用戶數據。X、Reddit、TikTok、Snapchat、Instagram和YouTube等平臺禁止為AI訓練收集數據,這對AI行業的發展構成了重大障礙。

另一方面,一些 Web2 平臺將用戶數據出售給人工智慧公司,而不與使用者分享任何利潤。例如,Reddit與谷歌達成了一項價值6000萬美元的協議,允許谷歌使用其帖子訓練人工智慧模型。這導致數據收集權被各大資本和大數據公司壟斷,推動行業走向資本密集型方向。

針對這種情況,一些專案正在利用 Web3 和代幣激勵來實現去中心化的數據收集。以 PublicAI 為例:使用者可以參與兩個角色:

  • 一類是 AI 數據提供者。用戶可以在X上找到有價值的內容,標記@PublicAI官方帳戶他們的見解,並使用 #AI 或 #Web3 的標籤對內容進行分類,從而將其發送到PublicAI數據中心進行收集。
  • 另一類是數據驗證者。用戶可以登錄PublicAI數據中心,對AI訓練最有價值的數據進行投票。

作為獎勵,用戶可以通過這些貢獻獲得代幣,從而促進數據貢獻者與AI行業之間的雙贏關係。

除了像PublicAI這樣專門為AI訓練收集數據的專案之外,還有許多其他專案使用代幣激勵來分散數據收集。例如,Ocean通過數據代幣化收集用戶數據以服務AI,Hivemapper使用使用者的車載攝像頭收集地圖數據,Dimo收集汽車數據,WiHi收集天氣數據。這些專案通過分散的數據收集,也可以作為人工智慧訓練的潛在數據源。因此,從廣義上講,它們可以包含在 Web3 輔助 AI 的範式中。

3.1.4 ZK在AI中保護用戶隱私

區塊鏈技術提供了去中心化的好處,還引入了一個關鍵功能:零知識證明。零知識技術允許在保持隱私的同時進行信息驗證。

在傳統的機器學習中,數據通常需要集中存儲和處理,這可能會導致隱私風險。保護數據隱私的方法(例如加密或數據匿名化)可能會限制機器學習模型的準確性和性能。

零知識證明技術通過解決隱私保護和數據共用之間的衝突來幫助解決這一困境。零知識機器學習 (ZKML) 使用零知識證明技術來實現機器學習模型訓練和推理,而無需公開原始數據。零知識證明確保數據的特徵和模型的結果可以在不洩露實際數據內容的情況下被驗證為正確。

ZKML的核心目標是平衡隱私保護和數據共用。可應用於醫療數據分析、財務數據分析、跨組織協同等多種場景。通過使用ZKML,個人可以保護其敏感數據的隱私,同時與他人共享數據,以獲得更廣泛的見解和協作機會,而不會有數據隱私洩露的風險。該領域仍處於早期階段,大多數專案仍在探索中。例如,BasedAI提出了一種分散的方法,通過將全同態加密(FHE)與大型語言模型(LLM)無縫集成來維護數據機密性。零知識大語言模型 (ZK-LLM) 將隱私嵌入到其分散式網路基礎設施中,確保用戶數據在整個網路運行過程中保持機密。

以下是完全同態加密 (FHE) 的簡要說明。FHE 是一種加密技術,允許對加密數據執行計算,而無需對其進行解密。這意味著對 FHE 加密數據執行的各種數學運算(例如加法、乘法等)會產生與對原始未加密數據執行相同的結果,從而保護使用者數據隱私。

除了上述方法外,Web3 還通過 Cortex 等專案支援 AI,從而鏈上執行 AI 程式。在傳統區塊鏈上運行機器學習程式面臨著挑戰,因為虛擬機在運行任何重要的機器學習模型時效率非常低。大多數人認為在區塊鏈上運行人工智慧是不可能的。但是,Cortex 虛擬機(CVM)利用GPU鏈上執行AI程式,並且與以太坊虛擬機(EVM)相容。換句話說,Cortex鏈可以執行所有以太坊DApp,並將AI機器學習集成到這些DApp中。這允許機器學習模型以分散、不可變和透明的方式運行,網路共識驗證 AI 推理的每一步。

3.2 AI 助力 Web3

在 AI 與 Web3 的碰撞中,除了 Web3 對 AI 的助力外,AI 對 Web3 行業的助力也值得關注。人工智慧的核心貢獻是生產力的提高,因此在AI審計智能合約、數據分析與預測、個人化服務、安全和隱私保護等方面有很多嘗試。

3.2.1 數據分析與預測

許多 Web3 專案正在整合現有的 AI 服務(如 ChatGPT)或開發自己的服務,為 Web3 使用者提供數據分析和預測服務。這些服務涵蓋範圍廣泛,包括用於投資策略的人工智慧演演演算法、鏈上分析工具以及價格和市場預測。

例如,Pond使用AI圖形演演演算法來預測有價值的未來阿爾法代幣,為用戶和機構提供投資諮詢服務。BullBear AI訓練用戶歷史數據、價格歷史和市場趨勢,提供準確的資訊支援價格趨勢預測,幫助用戶實現盈利。

像Numerai這樣的平臺舉辦投資競賽,參與者使用人工智慧和大型語言模型來預測股票市場。他們根據平臺提供的高質量數據訓練模型,並提交每日預測。Numerai在接下來的一個月內評估這些預測,參與者可以在他們的模型上質押 NMR代幣,以根據表現獲得獎勵。

區塊鏈數據分析平臺Arkham也將AI集成到其服務中。Arkham將區塊鏈位址連結到交易所,基金和鯨魚等實體,顯示關鍵數據和分析,為使用者提供決策優勢。Arkham Ultra使用Palantir和OpenAI創始人的支撐開發的演演演算法將位址與現實世界的實體相匹配。

3.2.2 個性化服務

搜索和推薦中的AI應用在Web2專案中很普遍,滿足了用戶的個人化需求。Web3 項目同樣集成了 AI 以增強用戶體驗。

例如,著名的數據分析平臺Dune最近推出了Wand工具,該工具使用大型語言模型來編寫SQL查詢。使用Wand Create,使用者可以從自然語言問題生成SQL查詢,使不熟悉SQL的人可以輕鬆搜索數據。

像Followin這樣的內容平臺集成了ChatGPT,以總結特定領域的觀點和更新。Web3 百科全書 IQ.wiki 旨在成為有關區塊鏈技術和加密貨幣的客觀、高品質知識的主要來源。它集成了 GPT-4 來總結維琪文章,使區塊鏈資訊在全球範圍內更容易訪問。基於LLM的搜尋引擎Kaito旨在徹底改變Web3資訊檢索。

在創意領域,像NFPrompt這樣的專案降低了內容創建的成本。NFPrompt 允許使用者使用 AI 更輕鬆地生成 NFT,提供各種個人化創意服務。

3.2.3 AI審計智能合約

審計智能合約是 Web3 中的一項關鍵任務,人工智慧可以提高識別代碼漏洞的效率和準確性。

V神指出,加密貨幣領域最大的挑戰之一是我們的代碼中的錯誤。人工智慧有望大大簡化形式驗證工具的使用,以證明代碼的正確性。實現這一目標可以帶來幾乎無錯誤的SEK以太坊虛擬機(EVM)(以太坊虛擬機),增強空間安全性,因為更少的錯誤可以提高整體安全性。

例如,0x0.ai 專案提供了一個人工智慧驅動的智慧合約審計師。該工具使用高級演演演算法來分析智能合約並識別可能導致欺詐或其他安全風險的潛在漏洞或問題。審計員使用機器學習來檢測代碼中的模式和異常,標記潛在問題以供進一步審查。

還有其他原生案例,AI 説明 Web3。PAAL 説明使用者創建個人化的 AI 機器人,這些機器人可以部署在 Telegram 和 Discord 上,為 Web3 使用者提供服務。人工智慧驅動的多鏈去中心化交易所聚合器Hera使用人工智慧在各種代幣的任何代幣對之間提供最佳交易路徑。總體而言,AI 對 Web3 的貢獻主要在工具級別,增強了各種流程和功能。

AI + Web3專案的局限性和當前挑戰

4.1 去中心化算力中的現實障礙

目前,許多協助人工智慧的 Web3 專案都專注於去中心化計算能力。使用代幣激勵來促進全球用戶成為計算電源供應方的一部分是一項非常有趣的創新。但是,另一方面,有一些現實問題需要解決:

與集中式算力服務提供者相比,分散式算力產品通常依賴於分佈在全球的節點和參與者來提供計算資源。由於這些節點之間的網路連接可能存在延遲和不穩定,因此性能和穩定性可能比集中式計算能力產品差。

此外,去中心化算力產品的可用性受供需撮合交易程度的影響。如果沒有足夠的供應商或需求過高,可能會導致資源短缺或無法滿足使用者需求。

最後,與中心化算力產品相比,去中心化算力產品通常涉及更多的技術細節和複雜性。使用者可能需要瞭解和處理分散式網路、智能合約和加密貨幣支付的各個方面,這增加了使用者理解和使用的成本。

在與眾多去中心化算力專案團隊深入討論后發現,目前去中心化算力仍然主要局限於AI推理而非AI訓練。

接下來,我將用四個問題來説明大家瞭解這背後的原因:

  1. 為什麼大多數去中心化算力項目選擇做AI推理而不是AI訓練?

  2. 是什麼讓 NVIDIA 如此強大?去中心化算力訓練困難的原因是什麼?

  3. 去中心化計算能力(渲染、阿卡什、io.net 等)的最終結果是什麼?

  4. 去中心化演演演算法(Bittensor)的最終結果是什麼?

讓我們逐步深入研究細節:

1)觀察這一領域,大多數去中心化算力專案選擇專注於AI推理而不是訓練,主要是由於對算力和頻寬的不同要求。

為了説明大家更好地理解,讓我們將AI與學生進行比較:

  • AI培訓:如果我們將人工智慧與學生進行比較,培訓類似於為AI提供大量的知識和示例,類似於我們通常所說的數據。人工智慧從這些例子中學習。由於學習涉及理解和記憶大量資訊,因此此過程需要大量的計算能力和時間。

  • AI推理:推理可以理解為使用所獲得的知識來解決問題或參加考試。在推理過程中,人工智慧利用學到的知識來回答問題,而不是獲取新資訊,因此計算要求相對較低。

不難看出,難度的根本區別在於,大模型AI訓練需要巨大的數據量和極高的頻寬進行數據傳輸,這使得去中心化計算能力的實現非常具有挑戰性。相比之下,推理需要的數據和頻寬要少得多,因此更可行。

對於大型模型,穩定性至關重要。如果訓練中斷,則必須重新啟動,從而導致沉沒成本高昂。另一方面,可以實現計算能力要求相對較低的需求,例如AI推理或涉及中小型模型訓練的某些特定場景。在去中心化的算力網路中,一些相對較大的節點服務提供者可以滿足這些相對較高的算力需求。

2)那麼,數據和頻寬的瓶頸在哪裡?為什麼去中心化培訓很難實現?

這涉及大型模型訓練的兩個關鍵要素:單卡計算能力和多卡並行性。

單卡計算能力:目前,所有需要大型模型訓練的中心,稱為超級計算中心,都可以與人體進行比較,其中底層單元GPU就像一個細胞。如果單單元(GPU)的計算能力很強,那麼整體計算能力(單單元×量)也可以非常強。

多卡並行性:訓練大型模型通常涉及數千億 GB。對於訓練大型模型的超級計算中心,至少需要數萬個 A100 GPU。這需要動員數千張卡片進行培訓。但是,訓練大型模型不是一個簡單的串行過程;它不只是在第一張 A100 卡上訓練,然後移動到第二張卡。相反,模型的不同部分同時在不同的 GPU 上進行訓練,訓練部分 A 可能需要來自 B 部分的結果,涉及並行處理。

英偉達的主導地位和不斷上升的市值,而AMD和華為、地平線等國內公司卻難以迎頭趕上,源於兩個方面:CUDA軟體環境和NVLink多卡通信。

CUDA 軟體環境:是否有一個軟體生態系統來匹配硬體至關重要,就像 NVIDIA 的 CUDA 系統一樣。構建新系統具有挑戰性,類似於創建具有高替換成本的新語言。

NVLink多卡通信:本質上,多卡通信涉及資訊的輸入和輸出。如何並行化和傳輸至關重要。NVLink的存在意味著NVIDIA和AMD卡無法通信;此外,NVLink 限制了 GPU 之間的物理距離,要求它們位於同一個超級計算中心。這使得遍佈全球的去中心化算力難以形成一個有凝聚力的計算集群,用於大型模型訓練。

第一點解釋了為什麼AMD和華為和Horizon等國內公司難以趕上;第二點解釋了為什麼去中心化培訓很難實現。

3)去中心化計算能力的結局是什麼?分散的計算能力目前在大型模型訓練中掙扎,因為穩定性至關重要。中斷需要重新培訓,導致沉沒成本高昂。對多卡並行性的高要求受到物理頻寬限制的限制。NVIDIA的NVLink實現了多卡通信,但在超級計算中心內,NVLink限制了GPU之間的物理距離。因此,分散的算力無法形成用於大型模型訓練的計算集群。

然而,對於算力要求相對較低的需求,如AI推理或涉及中小型模型訓練的某些特定場景,具有一些相對較大的節點服務提供者的去中心化算力網路具有潛力。此外,用於渲染的邊緣計算等方案相對更容易實現。

4)去中心化演演演算法模型的最終結果是什麼?去中心化演演演算法模型的未來取決於AI的最終方向。我相信人工智慧的未來可能會有1-2個閉源模型巨頭(如ChatGPT)以及大量的模型。在這種情況下,應用層產品不需要綁定到單個大型模型,而是需要與多個大型模型進行協作。在這種情況下,Bittensor模型顯示出巨大的潛力。

在當前結合Web3和AI的專案中,特別是那些AI説明Web3計劃的專案中,大多數專案只是表面上使用AI,而沒有展示AI和加密貨幣之間的深度集成。這種表面的應用表現在以下兩個方面:

  • 首先,無論是使用 AI 進行數據分析和預測、在推薦和搜索場景中,還是用於代碼審計,與 Web2 專案中的 AI 集成相比,幾乎沒有區別。這些專案只是利用人工智慧來提高效率和分析,而無需展示人工智慧和加密貨幣的原生融合或展示創新的解決方案。
  • 其次,許多 Web3 團隊更多地將 AI 作為行銷噱頭,純粹利用 AI 概念。他們將AI技術應用於非常有限的領域,然後開始推動AI的趨勢,創造了與AI緊密結合的門面。然而,這些專案缺乏實質性的創新。

儘管當前的 Web3 和 AI 專案存在這些局限性,但我們應該認識到這隻是開發的早期階段。未來,我們可以期待更深入的研究和創新,以實現人工智慧和加密貨幣之間更緊密的整合,在金融、去中心化自治組織 (DAO)、預測市場和 NFT 等領域創建更多原生和有意義的解決方案。

4.3 代幣經濟學作為AI專案敘事的緩衝區

正如最初提到的,AI專案在其商業模式中面臨挑戰,特別是隨著越來越多的大型模型逐漸開源。許多 AI + Web3 專案,通常是純粹的 AI 專案,在 Web2 空間中努力茁壯成長並確保資金費用,選擇覆蓋 Web3 的敘述和代幣經濟學以鼓勵用戶參與。

然而,關鍵問題是代幣經濟學的整合是否真的有助於人工智慧專案滿足現實世界的需求,或者它是否只是作為一種敘事或空價值主張。目前,大多數AI + Web3專案遠未達到實用階段。希望更多紮實和深思熟慮的團隊不僅將代幣作為炒作AI專案的手段,而且還將真正實現實際用例。

summary目前

,AI+Web3專案中出現了大量的案例和應用。首先,AI技術可以為Web3提供更高效、更智慧的用例。通過 AI 在數據分析和預測方面的能力,Web3 中的使用者可以擁有更好的投資決策和其他場景工具。此外,人工智慧可以審計智慧合約代碼,優化合同執行,提高區塊鏈的性能和效率。此外,AI技術可以為去中心化應用提供更精準、更智慧的推薦和個人化服務,從而提升用戶體驗。

同時,Web3的去中心化和可程式設計性也為AI技術提供了新的機遇。通過代幣激勵,去中心化算力專案為AI算力不足的困境提供了新的解決方案。Web3 的智能合約和分散式存儲機制也為 AI 演演演算法共用和訓練提供了更廣闊的空間和資源。Web3的使用者自治和信任機制也為AI發展帶來了新的可能性,允許使用者自主選擇參與數據共享和訓練,從而增強數據的多樣性和品質,進一步提高AI模型的性能和準確性。

雖然目前的AI+Web3跨界專案還處於早期階段,面臨諸多挑戰,但也帶來了諸多優勢。例如,去中心化計算能力產品有一些缺點,但它們減少了對中心化機構的依賴,提供了更大的透明度和可審計性,並實現了更廣泛的參與和創新。對於特定的用例和使用者需求,去中心化算力產品可能是一個有價值的選擇。這同樣適用於數據收集;分散的數據收集專案具有以下優勢:減少對單一數據源的依賴,提供更廣泛的數據覆蓋面,以及促進數據的多樣性和包容性。在實踐中,有必要平衡這些優點和缺點,並採取適當的管理和技術措施來克服挑戰,確保去中心化的數據收集專案對人工智慧的發展產生積極影響。

總體而言,AI + Web3的融合為未來的技術創新和經濟發展提供了無限可能。通過將AI的智慧分析和決策能力與Web3的去中心化和使用者自主性相結合,相信我們可以建立一個更智慧,更開放,更公平的經濟和社會體系。

免責聲明:

  1. 本文轉載自 [Ryze Labs]。所有版權歸原作者[弗雷德]所有。如果對此轉載有異議,請聯繫Gate Learn團隊,他們會及時處理。
  2. 免責聲明:本文中表達的觀點和意見僅代表作者的觀點和意見,不構成任何投資建議。
  3. 文章到其他語言的翻譯由Gate Learn團隊完成。除非另有說明,否則禁止複製、分發或抄襲翻譯后的文章。

簡介:AI+Web3的發展

AI 如何與 Web3 互動

AI+Web3專案現狀分析

AI + Web3專案的局限性和當前挑戰

總結

深度分析:AI和Web3能創造什麼樣的火花?

進階Jun 07, 2024
本文探討了人工智慧 (AI) 和 Web3 技術的快速發展及其整合的潛在價值和影響。AI 擅長提高生產力,而 Web3 通過去中心化改變生產關係。這些技術的結合帶來了數據分析、個人化使用者服務以及安全和隱私保護方面的創新應用。
深度分析:AI和Web3能創造什麼樣的火花?

簡介:AI+Web3的發展

AI 如何與 Web3 互動

AI+Web3專案現狀分析

AI + Web3專案的局限性和當前挑戰

總結

簡介:AI+Web3的發展

近年來,人工智慧(AI)和Web3技術的快速發展引起了全球的廣泛關注。人工智慧是一種類比和模仿人類智慧的技術,在面部識別、自然語言處理、機器學習等領域取得了重大突破。人工智慧技術的快速發展為各行各業帶來了巨大的變革和創新。

人工智慧行業在 2023 年達到 2000 億美元的市場規模,行業巨頭和知名企業如 OpenAI、Character.AI 和 Midjourney 迅速崛起,並龍頭人工智慧熱潮。

同時,Web3作為一種新興的互聯網模式,正在逐漸改變我們對互聯網的看法和使用。Web3 基於去中心化區塊鏈技術,通過智能合約、分散式存儲、去中心化身份驗證等功能,實現數據共用和控制、使用者自治、信任機制的建立。Web3 的核心思想是將數據從集中式機構中解放出來,授予使用者控制和共用其數據價值的能力。

目前,Web3行業的市值已達到25萬億美元。從比特幣、以太坊、Solana到 Uniswap 和 Stepn 等應用級玩家,新的敘事和場景不斷湧現,吸引越來越多的人加入 Web3 行業。

很明顯,人工智慧和 Web3 的整合是東西方建設者和風險資本家的焦點。探索如何有效地結合這兩種技術是一項非常值得的努力。

本文將重點介紹AI+Web3發展的現狀,探討其集成的潛在價值和影響。我們將首先介紹 AI 和 Web3 的基本概念和特徵,然後討論它們的相互關係。在此之後,我們將分析AI+Web3專案的現狀,並深入研究它們面臨的局限性和挑戰。通過這項研究,我們旨在為投資者和行業專業人士提供有價值的參考和見解。

AI 如何與 Web3 交互

AI 和 Web3 的發展可以看作是一個天平的兩個方面:AI 帶來了生產力的提高,而 Web3 徹底改變了生產關係。那麼,AI和Web3碰撞時,能產生怎樣的火花呢?我們將首先分析AI和Web3行業面臨的挑戰和潛在的改進,然後探索它們如何幫助解決彼此的問題。

  1. 人工智慧行業的挑戰和潛在改進
  2. Web3 行業的挑戰和潛在改進

2.1 AI行業面臨的挑戰

要探索AI行業面臨的挑戰,首先要瞭解其本質。人工智慧行業的核心圍繞三個關鍵要素:計算能力、演演演算法和數據。

“”

  1. 一、計算能力:計算能力是指進行大規模計算和處理的能力。AI 任務通常需要處理大量數據並執行複雜的計算,例如訓練深度神經網路模型。高計算能力可以加速模型訓練和推理過程,提高人工智慧系統的性能和效率。近年來,圖形處理單元(GPU)和專用AI晶元(如TPU)等硬體技術的進步顯著提高了計算能力,推動了AI行業的發展。英偉達(Nvidia)是一家主要的GPU供應商,近年來股價飆升,佔據了巨大的市場份額並獲得了可觀的利潤。
  2. 什麼是演演演算法:演演演算法是AI系統的核心元件。它們是用於解決問題和執行任務的數學和統計方法。AI演演演算法可以分為傳統的機器學習演演演算法和深度學習演演演算法,深度學習演演演算法近年來取得了重大突破。演演演算法的選擇和設計對於人工智慧系統的性能和有效性至關重要。演演演算法的不斷改進和創新可以增強AI系統的準確性、魯棒性和泛化能力。不同的演演演算法產生不同的結果,因此演演演算法的進步對於任務性能至關重要。
  3. 為什麼數據很重要:人工智慧系統的核心任務是通過學習和訓練從數據中提取模式和規則。數據是訓練和優化模型的基礎。通過大規模數據樣本,人工智慧系統可以學習更準確、更智慧的模型。豐富的數據集提供全面多樣的資訊,使模型能夠更好地泛化為看不見的數據,並説明人工智慧系統更好地理解和解決現實世界的問題。

在瞭解了當前AI的三個核心要素之後,讓我們來看看AI在這些領域面臨的困難和挑戰。

首先,在計算能力方面,AI任務通常需要大量的計算資源進行模型訓練和推理,尤其是深度學習模型。然而,獲取和管理大規模計算能力是一項昂貴而複雜的挑戰。高性能計算設備的成本、能耗和維護是重大問題。這對於初創公司和個人開發人員來說尤其具有挑戰性,因為他們很難獲得足夠的計算能力。

在演演演算法方面,儘管深度學習演演演算法在許多領域取得了重大成功,但仍然存在挑戰和困難。例如,訓練深度神經網路需要大量的數據和計算資源。此外,對於某些任務,模型的可解釋性和可解釋性可能不足。演演演算法的魯棒性和泛化能力也是關鍵問題,因為模型在看不見的數據上的性能可能不穩定。找到在眾多演演演算法中提供最佳性能的最佳演演演算法是一項持續的探索。

在數據方面,數據是人工智慧背後的驅動力,但獲得高品質、多樣化的數據仍然是一個挑戰。某些領域的數據,例如醫療部門的敏感健康數據,可能難以獲得。此外,數據的品質、準確性和標籤是關鍵問題,因為不完整或有偏見的數據可能導致錯誤的模型行為或偏差。保護數據隱私和安全也是一個重要的考慮因素。

此外,還存在與可解釋性和透明度有關的問題。人工智慧模型的「黑匣子」性質是一個公眾關注的問題。在某些應用中,例如金融、醫療保健和司法,模型的決策過程需要可解釋和可追溯。然而,現有的深度學習模型往往缺乏透明度。解釋模型的決策過程並提供可靠的解釋仍然具有挑戰性。

此外,許多AI創業專案的商業模式不是很清楚,這也給許多AI創業者帶來了困惑。

2.2 Web3行業的挑戰

在Web3行業中,有許多挑戰需要解決,從數據分析和用戶體驗到智慧合約漏洞和駭客攻擊。人工智慧作為提高生產力的工具,在這些領域具有巨大的潛力。

首先,數據分析和預測能力還有改進的空間。人工智慧在數據分析和預測中的應用對Web3行業產生了重大影響。通過AI演演演算法的智慧分析和挖掘,Web3平臺可以從大量數據中提取有價值的資訊,並做出更準確的預測和決策。這對於去中心化金融(去中心化金融)中的風險評估、市場預測和資產管理尤為重要。

此外,還有增強用戶體驗和個人化服務的潛力。人工智慧應用程式使 Web3 平臺能夠提供更好的用戶體驗和個人化服務。通過對用戶數據的分析和建模,Web3 平臺可以提供個人化推薦、定製服務和智慧交互體驗。這有助於提高用戶參與度和滿意度,促進 Web3 生態系統的發展。例如,許多 Web3 協定集成了 ChatGPT 等 AI 工具,以更好地為使用者服務。

在安全和隱私保護方面,AI應用也對Web3行業產生了深遠的影響。AI技術可用於檢測和防禦網路攻擊,識別異常行為,並提供更強大的安全措施。此外,人工智慧可以應用於數據隱私保護,通過數據加密和隱私計算等技術保護使用者在 Web3 平臺上的個人資訊。在智慧合約審計方面,由於智能合約的編寫和審計過程中可能存在漏洞和安全風險,人工智慧技術可用於自動化合約審計和漏洞檢測,增強合約的安全性和可靠性。

很明顯,人工智慧可以為應對 Web3 行業各個方面的挑戰和潛在改進做出重大貢獻。

AI+Web3專案現狀分析

AI和Web3專案的結合主要集中在兩個方面:利用區塊鏈技術增強AI專案,以及利用AI技術為Web3專案的改進服務。沿著這條道路出現了許多專案,包括 Io.net,Gensyn,Ritual等。以下分析將深入探討 AI 説明 Web3 和 Web3 增強 AI 的不同子領域。

“”

3.1 Web3 説明 AI

3.1.1 去中心化算力

自 2022 年底 OpenAI 推出 ChatGPT 以來,它點燃了 AI 領域的狂熱。在發佈后的五天內,使用者群達到了一百萬,超過了Instagram的下載速度,後者花了大約兩個半月的時間才達到相同的里程碑。隨後,ChatGPT 經歷了快速增長,兩個月內月活躍用戶達到 1 億,到 2023 年 11 月每周活躍用戶達到 1 億。隨著ChatGPT的出現,人工智慧領域迅速從一個利基領域轉變為一個備受推崇的行業。

根據Trendforce的報告,ChatGPT需要30,000個NVIDIA A100 GPU才能運行,而像GPT-5這樣的未來型號將需要更多的計算能力。這引發了各種人工智慧公司之間的軍備競賽,因為擁有足夠的計算能力對於在人工智慧領域保持競爭優勢至關重要,龍頭GPU短缺。

在人工智慧漲之前,主要的GPU供應商NVIDIA主要為來自三大雲服務的客戶提供服務:AWS,Azure和GCP。隨著人工智慧的漲,出現了許多新的買家,包括Meta,Oracle等主要科技公司,以及其他數據平臺和AI初創公司,都加入了儲備GPU以訓練AI模型的競賽。像Meta和特斯拉這樣的大型科技公司大幅增加了對定製AI模型和內部研究的購買。Anthropic等基本模型公司以及Snowflake和Databricks等數據平臺也購買了更多的GPU,以幫助客戶提供AI服務。

正如Semi Analysis去年所提到的,“GPU富”和“GPU差”公司之間存在分歧,只有少數公司擁有超過20,000個A100 / H100 GPU,允許團隊成員使用100到1000個GPU進行專案。這些公司要麼是雲供應商,要麼已經建立了自己的大型語言模型(LLM),包括OpenAI,Google,Meta,Anthropic,Inflection,Tesla,Oracle,Mistral等。

然而,大多數公司跌“GPU差”類別,在GPU明顯減少的情況下苦苦掙扎,並在更難推進生態系統的任務上花費大量時間和精力。此外,這種情況不僅限於初創公司。一些最知名的人工智慧公司,如Hugging Face,Databricks(MosaicML),Together,甚至Snowflake,A100 / H100的數量都不到20,000。儘管擁有世界一流的技術人才,但這些公司受到GPU供應有限的限制,與AI競爭中的大公司相比,它們處於劣勢。

這種短缺不僅限於“GPU 差”類別;即使到 2023 年底,龍頭 AI 播放機 OpenAI 也不得不暫時關閉付費註冊,因為無法獲得足夠的 GPU,不得不採購更多的 GPU 供應。
“”

很明顯,人工智慧的快速發展導致了GPU供需嚴重不匹配,造成了迫在眉睫的供應短缺。

為了解決這個問題,一些 Web3 專案已經開始探索去中心化計算能力解決方案,利用 Web3 技術的獨特特性。這些專案包括Akash,Render,Gensyn等。這些專案的共同特點是使用代幣來激勵使用者提供閑置的GPU算力,從而成為支撐AI用戶端的算力的供給側。

供給側概況主要包括三個方面:雲服務提供者、加密貨幣礦工和企業。雲服務提供者包括主要的雲服務提供者(如AWS,Azure,GCP)和GPU雲服務提供者(如Coreweave,Lambda,Crusoe),使用者可以從這些供應商轉售閑置的計算能力以產生收入。隨著以太坊從工作量證明向權益證明過渡,閑置的GPU算力已成為加密貨幣礦工的重要潛在供應方。此外,像特斯拉和 Meta 這樣出於戰略目的購買了大量 GPU 的大型企業,也可以貢獻其閑置的 GPU 計算能力作為供應方的一部分。

目前,該領域的參與者通常可以分為兩類:使用分散計算能力進行AI推理的玩家和將其用於AI訓練的玩家。前一類包括Render(雖然專注於渲染,但它也可用於AI計算),Akash,Aethir等專案,而後一類包括 io.net(支援推理和訓練)和Gensyn等專案。兩者之間的關鍵區別在於對計算能力的不同要求。

讓我們首先討論專注於 AI 推理的專案。這些專案通過代幣激勵吸引使用者提供算力,然後向需求側提供算力網路服務,從而促進閑置算力供需的撮合交易。有關此類專案的詳細資訊,請參閱我們Ryze Labs的DePIN研究報告請隨時閱讀它們

核心點在於代幣激勵機制,專案先吸引供應商,再吸引使用者,從而實現專案的冷啟動和核心運行機制,實現進一步拓展和發展。在這個迴圈中,供應方獲得更有價值的代幣獎勵,而需求方享受更具成本效益的服務。專案代幣的價值以及供需參與者的增長保持一致。隨著代幣價格的上漲,吸引了更多的參與者和投機者,從而形成了一個價值捕獲迴圈。

“”

另一類涉及使用分散的計算能力進行AI訓練,例如Gensyn和 io.net(支撐AI訓練和推理)。事實上,這些專案的運營邏輯與AI推理項目並沒有根本區別。他們仍然依靠代幣激勵來吸引供應方的參與來提供計算能力,然後由需求方利用。

io.net 作為一個去中心化的算力網路,目前擁有超過50萬個GPU,使其成為去中心化算力專案中的佼佼者。此外,它還集成了Render和Filecoin的計算能力,展示了其生態系統的不斷發展。

“”

此外,Gensyn 通過智能合約促進機器學習任務分配和獎勵,以實現 AI 訓練。如下圖所示,Gensyn 中機器學習訓練工作的每小時成本約為 0.4 USD,明顯低於 AWS 和 GCP 上超過 2 USD 的成本。

Gensyn生態系統涉及四個參與實體:

  • 提交者:這些是消費任務併為 AI 訓練任務付費的需求方使用者。
  • 執行者:執行者執行模型訓練的任務,並提供任務完成證明進行驗證。
  • 驗證器:驗證器將非確定性訓練過程與確定性線性計算連接起來。他們將執行人提供的證明與預期的閾值進行比較。
  • 記者:記者檢查核查人員的工作,提出挑戰,發現問題后獲得獎勵。

正如我們所看到的,Gensyn的目標是成為全球深度學習模型的大規模可擴展且具有成本效益的計算協議。然而,縱觀這個領域,為什麼大多數專案選擇去中心化算力進行AI推理,而不是訓練呢?

讓我們也説明不熟悉 AI 訓練和推理的朋友瞭解兩者之間的區別:

  • AI訓練:如果我們把人工智慧比作一個學生,那麼訓練就相當於為AI提供了大量的知識和例子,可以理解為數據。人工智慧從這些例子中學習。由於學習涉及理解和記憶大量資訊,因此此過程需要大量的計算能力和時間。
  • AI 推理:那麼什麼是推理?它可以理解為利用所學知識解決問題或參加考試。在推理過程中,人工智慧使用學到的知識來提供答案,而不是獲取新知識。因此,推理過程的計算要求相對較小。

可以看出,AI推理和AI訓練的計算能力要求差異很大。用於AI推理和AI訓練的分散式計算能力的可用性將在即將到來的挑戰部分中進一步分析。

此外,Ritual旨在將分散式網路與模型建立者相結合,以保持去中心化和安全性。它的第一個產品Infernet使區塊鏈上的智能合約能夠鏈下訪問AI模型,允許此類合約以保持驗證,去中心化和隱私保護的方式訪問AI。

Infernet的協調員負責管理網路中節點的行為並回應消費者的計算請求。當使用者使用 Infernet 時,推理和證明等任務鏈下執行,輸出返回給協調器,最終通過智能合約鏈上傳輸給消費者。

除了去中心化的算力網路,還有像Grass這樣的去中心化頻寬網路,旨在提高數據傳輸的速度和效率。總體而言,去中心化算力網路的出現為AI算力的供給側提供了新的可能性,推動AI向新的方向前進。

3.1.2 去中心化演演演算法模型

就像第二章提到的,人工智慧的三個核心要素是計算能力、演演演算法和數據。既然算力可以通過去中心化形成供應網路,那麼演演演算法是否也可以遵循類似的方法,形成演演演算法模型的供應網路?

在分析這個領域的專案之前,我們先來瞭解去中心化演演演算法模型的意義。很多人可能想知道,既然我們已經有了OpenAI,為什麼還需要去中心化的演演演算法網路呢?

從本質上講,去中心化演演演算法網路是一個去中心化的AI演演演算法服務市場,它連接了許多不同的AI模型。每個 AI 模型都有自己的專業知識和技能。當使用者提出問題時,市場會選擇最合適的AI模型來回答問題。由OpenAI開發的Chat-GPT就是這樣一種AI模型,可以理解和生成類似於人類的文本。

簡單來說,ChatGPT就像一個能力很強的學生,幫助解決不同類型的問題,而去中心化的演演演算法網路就像一所學校,有很多學生説明解決問題。儘管目前的學生(ChatGPT)能力很強,但從多來看,一所可以從全球招收學生的學校有很大的潛力。
“”

目前,在去中心化演演演算法模型領域,也有一些專案正在試驗和探索中。接下來,我們將以代表性專案Bittensor作為案例研究,以幫助瞭解這一利基領域的發展。

在Bittensor中,演演演算法模型(或礦工)的供應方將其機器學習模型貢獻給網路。這些模型可以分析數據並提供見解。模型提供者接收加密貨幣代幣(稱為TAO)作為對其貢獻的獎勵。

為了保證答案的品質,Bittensor使用獨特的共識機制就最佳答案達成共識。當一個問題被提出時,多個模型礦工會提供答案。然後,網路中的驗證者開始工作以確定最佳答案,然後將其發送回使用者。

“”

Bittensor生態系統中的令牌TAO在整個過程中扮演著兩個主要角色。一方面,它激勵礦工為網路貢獻演演演算法模型。另一方面,使用者需要花費代幣來提問並讓網路完成任務。

由於Bittensor是去中心化的,任何可以訪問互聯網的人都可以加入網路,無論是作為提問的使用者還是作為提供答案的礦工。這讓更多的人能夠利用人工智慧的力量。

總之,像Bittensor這樣的去中心化演演演算法模型網路有可能創造一個更加開放和透明的景觀。在這個生態系統中,人工智慧模型可以以安全和分散的方式進行訓練、共用和利用。此外,像BasedAI這樣的其他網路也在嘗試類似的努力,有趣的是使用零知識證明(ZK)來保護使用者模型互動式數據隱私,這將在第四小節中進一步討論。

隨著去中心化演演演算法模型平臺的發展,它們將使小公司能夠在使用尖端人工智慧工具方面與大型組織競爭,這可能會對各個行業產生重大影響。

3.1.3 去中心化數據收集

對於AI模型的訓練,大量的數據供應是必不可少的。然而,大多數 Web2 公司目前仍然壟斷用戶數據。X、Reddit、TikTok、Snapchat、Instagram和YouTube等平臺禁止為AI訓練收集數據,這對AI行業的發展構成了重大障礙。

另一方面,一些 Web2 平臺將用戶數據出售給人工智慧公司,而不與使用者分享任何利潤。例如,Reddit與谷歌達成了一項價值6000萬美元的協議,允許谷歌使用其帖子訓練人工智慧模型。這導致數據收集權被各大資本和大數據公司壟斷,推動行業走向資本密集型方向。

針對這種情況,一些專案正在利用 Web3 和代幣激勵來實現去中心化的數據收集。以 PublicAI 為例:使用者可以參與兩個角色:

  • 一類是 AI 數據提供者。用戶可以在X上找到有價值的內容,標記@PublicAI官方帳戶他們的見解,並使用 #AI 或 #Web3 的標籤對內容進行分類,從而將其發送到PublicAI數據中心進行收集。
  • 另一類是數據驗證者。用戶可以登錄PublicAI數據中心,對AI訓練最有價值的數據進行投票。

作為獎勵,用戶可以通過這些貢獻獲得代幣,從而促進數據貢獻者與AI行業之間的雙贏關係。

除了像PublicAI這樣專門為AI訓練收集數據的專案之外,還有許多其他專案使用代幣激勵來分散數據收集。例如,Ocean通過數據代幣化收集用戶數據以服務AI,Hivemapper使用使用者的車載攝像頭收集地圖數據,Dimo收集汽車數據,WiHi收集天氣數據。這些專案通過分散的數據收集,也可以作為人工智慧訓練的潛在數據源。因此,從廣義上講,它們可以包含在 Web3 輔助 AI 的範式中。

3.1.4 ZK在AI中保護用戶隱私

區塊鏈技術提供了去中心化的好處,還引入了一個關鍵功能:零知識證明。零知識技術允許在保持隱私的同時進行信息驗證。

在傳統的機器學習中,數據通常需要集中存儲和處理,這可能會導致隱私風險。保護數據隱私的方法(例如加密或數據匿名化)可能會限制機器學習模型的準確性和性能。

零知識證明技術通過解決隱私保護和數據共用之間的衝突來幫助解決這一困境。零知識機器學習 (ZKML) 使用零知識證明技術來實現機器學習模型訓練和推理,而無需公開原始數據。零知識證明確保數據的特徵和模型的結果可以在不洩露實際數據內容的情況下被驗證為正確。

ZKML的核心目標是平衡隱私保護和數據共用。可應用於醫療數據分析、財務數據分析、跨組織協同等多種場景。通過使用ZKML,個人可以保護其敏感數據的隱私,同時與他人共享數據,以獲得更廣泛的見解和協作機會,而不會有數據隱私洩露的風險。該領域仍處於早期階段,大多數專案仍在探索中。例如,BasedAI提出了一種分散的方法,通過將全同態加密(FHE)與大型語言模型(LLM)無縫集成來維護數據機密性。零知識大語言模型 (ZK-LLM) 將隱私嵌入到其分散式網路基礎設施中,確保用戶數據在整個網路運行過程中保持機密。

以下是完全同態加密 (FHE) 的簡要說明。FHE 是一種加密技術,允許對加密數據執行計算,而無需對其進行解密。這意味著對 FHE 加密數據執行的各種數學運算(例如加法、乘法等)會產生與對原始未加密數據執行相同的結果,從而保護使用者數據隱私。

除了上述方法外,Web3 還通過 Cortex 等專案支援 AI,從而鏈上執行 AI 程式。在傳統區塊鏈上運行機器學習程式面臨著挑戰,因為虛擬機在運行任何重要的機器學習模型時效率非常低。大多數人認為在區塊鏈上運行人工智慧是不可能的。但是,Cortex 虛擬機(CVM)利用GPU鏈上執行AI程式,並且與以太坊虛擬機(EVM)相容。換句話說,Cortex鏈可以執行所有以太坊DApp,並將AI機器學習集成到這些DApp中。這允許機器學習模型以分散、不可變和透明的方式運行,網路共識驗證 AI 推理的每一步。

3.2 AI 助力 Web3

在 AI 與 Web3 的碰撞中,除了 Web3 對 AI 的助力外,AI 對 Web3 行業的助力也值得關注。人工智慧的核心貢獻是生產力的提高,因此在AI審計智能合約、數據分析與預測、個人化服務、安全和隱私保護等方面有很多嘗試。

3.2.1 數據分析與預測

許多 Web3 專案正在整合現有的 AI 服務(如 ChatGPT)或開發自己的服務,為 Web3 使用者提供數據分析和預測服務。這些服務涵蓋範圍廣泛,包括用於投資策略的人工智慧演演演算法、鏈上分析工具以及價格和市場預測。

例如,Pond使用AI圖形演演演算法來預測有價值的未來阿爾法代幣,為用戶和機構提供投資諮詢服務。BullBear AI訓練用戶歷史數據、價格歷史和市場趨勢,提供準確的資訊支援價格趨勢預測,幫助用戶實現盈利。

像Numerai這樣的平臺舉辦投資競賽,參與者使用人工智慧和大型語言模型來預測股票市場。他們根據平臺提供的高質量數據訓練模型,並提交每日預測。Numerai在接下來的一個月內評估這些預測,參與者可以在他們的模型上質押 NMR代幣,以根據表現獲得獎勵。

區塊鏈數據分析平臺Arkham也將AI集成到其服務中。Arkham將區塊鏈位址連結到交易所,基金和鯨魚等實體,顯示關鍵數據和分析,為使用者提供決策優勢。Arkham Ultra使用Palantir和OpenAI創始人的支撐開發的演演演算法將位址與現實世界的實體相匹配。

3.2.2 個性化服務

搜索和推薦中的AI應用在Web2專案中很普遍,滿足了用戶的個人化需求。Web3 項目同樣集成了 AI 以增強用戶體驗。

例如,著名的數據分析平臺Dune最近推出了Wand工具,該工具使用大型語言模型來編寫SQL查詢。使用Wand Create,使用者可以從自然語言問題生成SQL查詢,使不熟悉SQL的人可以輕鬆搜索數據。

像Followin這樣的內容平臺集成了ChatGPT,以總結特定領域的觀點和更新。Web3 百科全書 IQ.wiki 旨在成為有關區塊鏈技術和加密貨幣的客觀、高品質知識的主要來源。它集成了 GPT-4 來總結維琪文章,使區塊鏈資訊在全球範圍內更容易訪問。基於LLM的搜尋引擎Kaito旨在徹底改變Web3資訊檢索。

在創意領域,像NFPrompt這樣的專案降低了內容創建的成本。NFPrompt 允許使用者使用 AI 更輕鬆地生成 NFT,提供各種個人化創意服務。

3.2.3 AI審計智能合約

審計智能合約是 Web3 中的一項關鍵任務,人工智慧可以提高識別代碼漏洞的效率和準確性。

V神指出,加密貨幣領域最大的挑戰之一是我們的代碼中的錯誤。人工智慧有望大大簡化形式驗證工具的使用,以證明代碼的正確性。實現這一目標可以帶來幾乎無錯誤的SEK以太坊虛擬機(EVM)(以太坊虛擬機),增強空間安全性,因為更少的錯誤可以提高整體安全性。

例如,0x0.ai 專案提供了一個人工智慧驅動的智慧合約審計師。該工具使用高級演演演算法來分析智能合約並識別可能導致欺詐或其他安全風險的潛在漏洞或問題。審計員使用機器學習來檢測代碼中的模式和異常,標記潛在問題以供進一步審查。

還有其他原生案例,AI 説明 Web3。PAAL 説明使用者創建個人化的 AI 機器人,這些機器人可以部署在 Telegram 和 Discord 上,為 Web3 使用者提供服務。人工智慧驅動的多鏈去中心化交易所聚合器Hera使用人工智慧在各種代幣的任何代幣對之間提供最佳交易路徑。總體而言,AI 對 Web3 的貢獻主要在工具級別,增強了各種流程和功能。

AI + Web3專案的局限性和當前挑戰

4.1 去中心化算力中的現實障礙

目前,許多協助人工智慧的 Web3 專案都專注於去中心化計算能力。使用代幣激勵來促進全球用戶成為計算電源供應方的一部分是一項非常有趣的創新。但是,另一方面,有一些現實問題需要解決:

與集中式算力服務提供者相比,分散式算力產品通常依賴於分佈在全球的節點和參與者來提供計算資源。由於這些節點之間的網路連接可能存在延遲和不穩定,因此性能和穩定性可能比集中式計算能力產品差。

此外,去中心化算力產品的可用性受供需撮合交易程度的影響。如果沒有足夠的供應商或需求過高,可能會導致資源短缺或無法滿足使用者需求。

最後,與中心化算力產品相比,去中心化算力產品通常涉及更多的技術細節和複雜性。使用者可能需要瞭解和處理分散式網路、智能合約和加密貨幣支付的各個方面,這增加了使用者理解和使用的成本。

在與眾多去中心化算力專案團隊深入討論后發現,目前去中心化算力仍然主要局限於AI推理而非AI訓練。

接下來,我將用四個問題來説明大家瞭解這背後的原因:

  1. 為什麼大多數去中心化算力項目選擇做AI推理而不是AI訓練?

  2. 是什麼讓 NVIDIA 如此強大?去中心化算力訓練困難的原因是什麼?

  3. 去中心化計算能力(渲染、阿卡什、io.net 等)的最終結果是什麼?

  4. 去中心化演演演算法(Bittensor)的最終結果是什麼?

讓我們逐步深入研究細節:

1)觀察這一領域,大多數去中心化算力專案選擇專注於AI推理而不是訓練,主要是由於對算力和頻寬的不同要求。

為了説明大家更好地理解,讓我們將AI與學生進行比較:

  • AI培訓:如果我們將人工智慧與學生進行比較,培訓類似於為AI提供大量的知識和示例,類似於我們通常所說的數據。人工智慧從這些例子中學習。由於學習涉及理解和記憶大量資訊,因此此過程需要大量的計算能力和時間。

  • AI推理:推理可以理解為使用所獲得的知識來解決問題或參加考試。在推理過程中,人工智慧利用學到的知識來回答問題,而不是獲取新資訊,因此計算要求相對較低。

不難看出,難度的根本區別在於,大模型AI訓練需要巨大的數據量和極高的頻寬進行數據傳輸,這使得去中心化計算能力的實現非常具有挑戰性。相比之下,推理需要的數據和頻寬要少得多,因此更可行。

對於大型模型,穩定性至關重要。如果訓練中斷,則必須重新啟動,從而導致沉沒成本高昂。另一方面,可以實現計算能力要求相對較低的需求,例如AI推理或涉及中小型模型訓練的某些特定場景。在去中心化的算力網路中,一些相對較大的節點服務提供者可以滿足這些相對較高的算力需求。

2)那麼,數據和頻寬的瓶頸在哪裡?為什麼去中心化培訓很難實現?

這涉及大型模型訓練的兩個關鍵要素:單卡計算能力和多卡並行性。

單卡計算能力:目前,所有需要大型模型訓練的中心,稱為超級計算中心,都可以與人體進行比較,其中底層單元GPU就像一個細胞。如果單單元(GPU)的計算能力很強,那麼整體計算能力(單單元×量)也可以非常強。

多卡並行性:訓練大型模型通常涉及數千億 GB。對於訓練大型模型的超級計算中心,至少需要數萬個 A100 GPU。這需要動員數千張卡片進行培訓。但是,訓練大型模型不是一個簡單的串行過程;它不只是在第一張 A100 卡上訓練,然後移動到第二張卡。相反,模型的不同部分同時在不同的 GPU 上進行訓練,訓練部分 A 可能需要來自 B 部分的結果,涉及並行處理。

英偉達的主導地位和不斷上升的市值,而AMD和華為、地平線等國內公司卻難以迎頭趕上,源於兩個方面:CUDA軟體環境和NVLink多卡通信。

CUDA 軟體環境:是否有一個軟體生態系統來匹配硬體至關重要,就像 NVIDIA 的 CUDA 系統一樣。構建新系統具有挑戰性,類似於創建具有高替換成本的新語言。

NVLink多卡通信:本質上,多卡通信涉及資訊的輸入和輸出。如何並行化和傳輸至關重要。NVLink的存在意味著NVIDIA和AMD卡無法通信;此外,NVLink 限制了 GPU 之間的物理距離,要求它們位於同一個超級計算中心。這使得遍佈全球的去中心化算力難以形成一個有凝聚力的計算集群,用於大型模型訓練。

第一點解釋了為什麼AMD和華為和Horizon等國內公司難以趕上;第二點解釋了為什麼去中心化培訓很難實現。

3)去中心化計算能力的結局是什麼?分散的計算能力目前在大型模型訓練中掙扎,因為穩定性至關重要。中斷需要重新培訓,導致沉沒成本高昂。對多卡並行性的高要求受到物理頻寬限制的限制。NVIDIA的NVLink實現了多卡通信,但在超級計算中心內,NVLink限制了GPU之間的物理距離。因此,分散的算力無法形成用於大型模型訓練的計算集群。

然而,對於算力要求相對較低的需求,如AI推理或涉及中小型模型訓練的某些特定場景,具有一些相對較大的節點服務提供者的去中心化算力網路具有潛力。此外,用於渲染的邊緣計算等方案相對更容易實現。

4)去中心化演演演算法模型的最終結果是什麼?去中心化演演演算法模型的未來取決於AI的最終方向。我相信人工智慧的未來可能會有1-2個閉源模型巨頭(如ChatGPT)以及大量的模型。在這種情況下,應用層產品不需要綁定到單個大型模型,而是需要與多個大型模型進行協作。在這種情況下,Bittensor模型顯示出巨大的潛力。

在當前結合Web3和AI的專案中,特別是那些AI説明Web3計劃的專案中,大多數專案只是表面上使用AI,而沒有展示AI和加密貨幣之間的深度集成。這種表面的應用表現在以下兩個方面:

  • 首先,無論是使用 AI 進行數據分析和預測、在推薦和搜索場景中,還是用於代碼審計,與 Web2 專案中的 AI 集成相比,幾乎沒有區別。這些專案只是利用人工智慧來提高效率和分析,而無需展示人工智慧和加密貨幣的原生融合或展示創新的解決方案。
  • 其次,許多 Web3 團隊更多地將 AI 作為行銷噱頭,純粹利用 AI 概念。他們將AI技術應用於非常有限的領域,然後開始推動AI的趨勢,創造了與AI緊密結合的門面。然而,這些專案缺乏實質性的創新。

儘管當前的 Web3 和 AI 專案存在這些局限性,但我們應該認識到這隻是開發的早期階段。未來,我們可以期待更深入的研究和創新,以實現人工智慧和加密貨幣之間更緊密的整合,在金融、去中心化自治組織 (DAO)、預測市場和 NFT 等領域創建更多原生和有意義的解決方案。

4.3 代幣經濟學作為AI專案敘事的緩衝區

正如最初提到的,AI專案在其商業模式中面臨挑戰,特別是隨著越來越多的大型模型逐漸開源。許多 AI + Web3 專案,通常是純粹的 AI 專案,在 Web2 空間中努力茁壯成長並確保資金費用,選擇覆蓋 Web3 的敘述和代幣經濟學以鼓勵用戶參與。

然而,關鍵問題是代幣經濟學的整合是否真的有助於人工智慧專案滿足現實世界的需求,或者它是否只是作為一種敘事或空價值主張。目前,大多數AI + Web3專案遠未達到實用階段。希望更多紮實和深思熟慮的團隊不僅將代幣作為炒作AI專案的手段,而且還將真正實現實際用例。

summary目前

,AI+Web3專案中出現了大量的案例和應用。首先,AI技術可以為Web3提供更高效、更智慧的用例。通過 AI 在數據分析和預測方面的能力,Web3 中的使用者可以擁有更好的投資決策和其他場景工具。此外,人工智慧可以審計智慧合約代碼,優化合同執行,提高區塊鏈的性能和效率。此外,AI技術可以為去中心化應用提供更精準、更智慧的推薦和個人化服務,從而提升用戶體驗。

同時,Web3的去中心化和可程式設計性也為AI技術提供了新的機遇。通過代幣激勵,去中心化算力專案為AI算力不足的困境提供了新的解決方案。Web3 的智能合約和分散式存儲機制也為 AI 演演演算法共用和訓練提供了更廣闊的空間和資源。Web3的使用者自治和信任機制也為AI發展帶來了新的可能性,允許使用者自主選擇參與數據共享和訓練,從而增強數據的多樣性和品質,進一步提高AI模型的性能和準確性。

雖然目前的AI+Web3跨界專案還處於早期階段,面臨諸多挑戰,但也帶來了諸多優勢。例如,去中心化計算能力產品有一些缺點,但它們減少了對中心化機構的依賴,提供了更大的透明度和可審計性,並實現了更廣泛的參與和創新。對於特定的用例和使用者需求,去中心化算力產品可能是一個有價值的選擇。這同樣適用於數據收集;分散的數據收集專案具有以下優勢:減少對單一數據源的依賴,提供更廣泛的數據覆蓋面,以及促進數據的多樣性和包容性。在實踐中,有必要平衡這些優點和缺點,並採取適當的管理和技術措施來克服挑戰,確保去中心化的數據收集專案對人工智慧的發展產生積極影響。

總體而言,AI + Web3的融合為未來的技術創新和經濟發展提供了無限可能。通過將AI的智慧分析和決策能力與Web3的去中心化和使用者自主性相結合,相信我們可以建立一個更智慧,更開放,更公平的經濟和社會體系。

免責聲明:

  1. 本文轉載自 [Ryze Labs]。所有版權歸原作者[弗雷德]所有。如果對此轉載有異議,請聯繫Gate Learn團隊,他們會及時處理。
  2. 免責聲明:本文中表達的觀點和意見僅代表作者的觀點和意見,不構成任何投資建議。
  3. 文章到其他語言的翻譯由Gate Learn團隊完成。除非另有說明,否則禁止複製、分發或抄襲翻譯后的文章。
即刻開始交易
註冊並交易即可獲得
$100
和價值
$5500
理財體驗金獎勵!