FMG研報:AI 的三個問題和 DePIN 的解法



問題的關鍵並不在於算力的多少,而在於如何去賦能 AI 產品。

撰文:FMGResearch

TL; DR

AI 時代產品競爭,離不開資源端(算力、數據等),尤其是穩定資源端做支持。

模型訓練 / 迭代同時還需要龐大的用戶標的(IP)來幫忙餵養資料,來對模型效率產生質變。

與 Web3 的結合,能夠幫助中小型 AI 初創團隊實現對傳統 AI 巨頭的彎道超車。

對於 DePIN 生態,算力、帶寬等資源端決定下限(單純算力集成沒有護城河);AI 模型的應用、深度優化(類似 BitTensor)、專業化(Render、Hivemaper)以及對數據的有效利用等維度決定專案上限。

AI+DePIN 語境下,模型推理 & 微調,以及移動端 AI 模型市場將得到重視。

AI 市場分析 & 三個問題

有數據統計,從 2022 年 9 月,ChatGPT 誕生前夕到 2023 年 8 月,全球 Top 50 的 AI 產品就產生了超過 240 億次的訪問量,平均每月增長量為 2.363 億次。

AI 產品的繁榮,背後是對於算力依賴程度的加劇。

FMG研報:AI 的三個問題和 DePIN 的解法插图1

Source: Language Models are Few-Shot Learners

馬薩諸塞大學阿莫斯特分校的一篇論文指出,「訓練一個人工智慧模型,其一生所排放的碳相當於五輛汽車的碳排放量。」然而,這一分析僅涉及一次訓練。當模型通過反覆訓練得到改進時,能量的使用將會大大增加。

最新的語言模型包含數十億甚至數萬億的權重。一種流行的模型 GPT-3 擁有 1750 億個機器學習參數。如果使用 A100 需要 1024 個 GPU、34 天和 460 萬美元來訓練該模型。

後 AI 時代的產品競爭,已經逐漸延展成為以算力為主的資源端戰爭。

FMG研報:AI 的三個問題和 DePIN 的解法插图3

Source:AI is harming our planet: addressing AI’s staggering energy cost

這就延展出三個問題:第一,一個 AI 產品是否有足夠的資源端(算力、帶寬等)尤其是穩定資源端做支持。這種可靠需要算力足夠的去中心化。在傳統領域,由於晶片需求端的缺口,再加上基於政策、意識形態構建的世界牆,讓晶片製造商天然處於優勢地位,並能夠大幅度哄抬價格。比如 NVIDIA H100 型號晶片從 2023 年 4 月份的 3.6 萬美元漲至 5 萬美元,這進一步加重了 AI 模型訓練團隊的成本。

第二個問題,資源端條件的滿足幫助 AI 專案解決了硬體剛需,但模型訓練 / 迭代同時還需要龐大的用戶標的(IP)來幫忙餵養資料。模型規模超過一定閾值之後,在不同任務上的性能都表現出突破式增長。

第三個問題在:中小型 AI 初創團隊難以實現彎道超車。傳統金融市場算力的壟斷性也導致 AI 模型方案也存在壟斷性,以 OPenAI、Google Deepmind 等為代表的大型 AI 模型廠商正在進一步構建自己的護城河。中小型 AI 團隊需要謀求更多的差異化競爭。

以上三個問題,都可以從 Web3 中找到答案。事實上,AI 與 Web3 的結合由來已久,並且生態較為繁榮。

下圖為 Future Money Group 製作的 AI+Web3 生態的部分賽道&專案展示。

FMG研報:AI 的三個問題和 DePIN 的解法插图5

AI+DePIN

1. DePIN 的解決方案

DePIN 是去中心化物理基礎設施網路的縮寫,同時也是人和設備的生產關係集合,通過代幣經濟學與硬體設備(比如電腦、車載攝像頭等)的結合,來將用戶與設備進行有機結合,同時實現經濟模型的有序運轉。

相較於定義更廣泛的 Web3,由於 DePIN 天然與硬體設備和傳統企業有更深的關聯,因此 DePIN 在吸引場外 AI 團隊和相關資金方面有著天然的優勢。

DePIN 生態對於分佈式算力的追求和貢獻者的激勵,恰好解決了 AI 產品對於算力和 IP 的需求。

  • DePIN 以代幣經濟學來推動世界算力(算力中心 & 閒置個人算力)的入駐,降低了算力的中心化風險,同時降低了 AI 團隊調用算力的成本。

  • DePIN 生態數量龐大、多元化的 IP 構成幫助 AI 模型能夠實現數據獲取渠道的多樣性和客觀性,足夠多的數據提供者也能確保 AI 模型性能的提升。

  • DePIN 生態用戶與 Web3 用戶在人物畫像上的重疊,能夠幫助入駐的 AI 專案開發出更多帶有 Web3 特色的 AI 模型,形成差異化競爭,這是傳統 AI 市場所不具備的。

在 Web2 領域,AI 模型數據採集通常來自公開數據集或模型製作方自行收集,這就會受到文化背景和地域的限制,讓 AI 模型產出的內容存在主觀性「失真」。傳統數據採集方式又受限於採集效率和成本,難以獲得更大的模型規模(參數數量、訓練時長和數據質量)。對於 AI 模型而言,模型規模越大,模型的性能越容易引起質變。

FMG研報:AI 的三個問題和 DePIN 的解法插图7

Source:Large Language Models’ emergent abilities: how they solve problems they were not trained to address?

DePIN 恰好在這一領域有著天然優勢。以 Hivemapper 為例,分佈於全球 1920 個地區,接近 4 萬名貢獻者在為 MAP AI(地圖 AI 模型)提供著數據。

FMG研報:AI 的三個問題和 DePIN 的解法插图9

AI 與 DePIN 的結合還意味著 AI 與 Web3 的融合上升了新的高度。當前 Web3 中的 AI 專案,廣泛爆發於應用端,並且幾乎沒有擺脫對 Web2 基礎設施的直接依賴,即將依託於傳統算力平臺的已有 AI 模型植入到 Web3 專案中,對於 AI 模型的創建則很少涉獵。

Web3 要素一直處於食物鏈下游,無法獲得真正的超額回報。對於分佈式算力平臺而言也是如此,單純的 AI+ 算力,並不能真正挖掘出二者的潛力,在這一關係中,算力提供方無法獲得更多超額利潤,且生態架構過於單一,因此也就無法通過代幣經濟學去促使飛輪運轉。

但 AI+DePIN 概念,正在打破這一固有關係,並將 Web3 的注意力轉移至更廣闊的 AI 模型方面。

2. AI+DePIN 專案匯總

DePIN 內部天然擁有 AI 所亟需的設備(算力、帶寬、算法、數據)、用戶(模型訓練數據提供者),以及生態內激勵機制(代幣經濟學)。

我們可以大膽地下一個定義:為 AI 提供完備的客觀條件(算力 / 帶寬 / 數據 /IP),提供 AI 模型(訓練 / 推理 / 微調)場景,並被賦予代幣經濟學的專案,可以被定義為 AI+DePIN。

Future Money Group 將會列舉以下 AI+DePIN 的經典範式進行梳理。

FMG研報:AI 的三個問題和 DePIN 的解法插图11

我們按照資源提供類別的不同,分成了算力、帶寬、數據、其他四個板塊,嘗試對不同板塊專案進行梳理。

2.1 算力

算力端是 AI+DePIN 板塊的主要構成,也是目前專案構成數量最多的部分。算力端專案,算力的主要構成是 GPU(圖形處理器)、CPU(中央處理機)和 TPU(專業機器學習晶片)。其中,TPU 由於製造難度高,主要由 Google 打造,只對外進行雲算力租賃服務,因此市場規模較小。而 GPU 是一種與 CPU 類似,但更專業的硬體元件。與普通 CPU 相比,它可以更高效地處理並行運行的複雜數學運算。最初的 GPU 專用於處理遊戲和動畫中的圖形渲染任務,不過現在它們的用途已遠超於此。因此,GPU 是目前算力市場的主要來源。

因此,我們能夠看到的算力方面的 AI+DePIN 專案,很多都專長於圖形和視頻渲染,或者相關的遊戲方面,這是由於 GPU 的特性導致的。

從全局看,算力類 AI+DePIN 產品,其算力的主要提供方由三部分構成:傳統雲算力服務商;閒置個人算力;自有算力。其中,雲算力服務商佔比較大,閒置個人算力第二。這意味著此類產品更多時候扮演著算力仲介的身分。需求端則是各種 AI 模型開發團隊。

目前這一分類中,算力幾乎無法 100% 被運用於實際,更多時候處於閒置狀態。比如 Akash Network,目前處於使用狀態的算力為 35% 左右,其餘算力則處於閒置狀態。io.net 也是類似情況。

這可能是目前 AI 模型訓練需求數量較少導致的,並且也是 AI+DePIN 能夠提供廉價算力成本的原因。後續隨著 AI 市場的擴大,這一情況將得以改善。

Akash Network:去中心化的點對點雲服務市場

Akash 網路是一個去中心化的點對點雲服務市場,通常被稱為雲服務的 Airbnb。Akash 網路允許不同規模的用戶和公司快速、穩定且經濟地使用他們的服務。

與 Render 類似,Akash 同樣為用戶提供了 GPU 部署、租賃以及 AI 模型訓練等服務。

2023 年 8 月,Akash 上線了 Supercloud,允許開發者設定他們願意支付的價格來部署他們的 AI 模型,而具有額外計算能力的提供商則託管用戶的模型。該功能與 Airbnb 非常相似,允許提供商出租未使用的容量。

通過公開競價的方式,激勵資源提供方開放其網路中的空閒計算資源,Akash Network 實現了資源的更有效利用,從而為資源需求方提供了更具競爭力的價格。

FMG研報:AI 的三個問題和 DePIN 的解法插图13

目前 Akash 生態 GPU 總量為 176 枚 GPU,但活躍數量為 62 枚,活躍度為 35%,低於 2023 年 9 月份 50% 的水準。預估日收入為 5000 美元左右。AKT 代幣具有質押功能,用戶通過將代幣進行質押以參與網路安全的維護,獲得 13.15% 左右的年化收益。

Akash 在當前 AI+DePIN 板塊數據表現比較優質,且 7 億美元的 FDV 相較於 Render 和 BitTensor,具有較大上漲空間。

Akash 還接入了 BitTensor 的 Subnet,用於擴大自身發展空間。總體而言,Akash 的專案作為 AI+DePIN 賽道的幾個優質專案之一,基本面表現優異。

io.net:接入 GPU 數量最多的 AI+DePIN

io.net 是一個去中心化計算網路,支持在 Solana 區塊鏈上開發、執行和擴展 ML (機器學習)應用程式,利用世界上最大的 GPU 集群,以允許機器學習工程師以相當於中心化服務成本的一小部分,來租用並訪問分佈式雲服務算力。

據官方數據顯示 io.net 擁有超過 100 萬個處於待命狀態的 GPU。此外,io.net 與 Render 的合作也擴展了可供部署的 GPU 資源。

io.net 生態的 GPU 較多,但幾乎都是來自於與各雲計算廠商的合作和個人節點的接入,且閒置率較高,以數量最多的 RTX A6000 為例,8426 枚 GPU 中,只有 11%(927)枚處於使用狀態,而更多型號的 GPU 幾乎沒有人使用。但目前 io.net 產品的一大優勢在於定價便宜,相較於 Akash 1.5 美元一小時 GPU 調用成本,io.net 上成本最低能做到 0.1-1 美元之間。

FMG研報:AI 的三個問題和 DePIN 的解法插图15

後續 io.net 還考慮允許 IO 生態的 GPU 提供商通過抵押原生資產的方式來提高被使用的機會。投入資產越多,被選中的機會越大。同時,質押原生資產的 AI 工程師同樣可以使用高性能的 GPU。

在 GPU 接入規模上,io.net 是本文所列 10 個專案中最大的。刨除閒置率之外,處於使用狀態的 GPU 數量也處於第一。在代幣經濟學方面,io.net 原生代幣與協定代幣 IO 將於 2024 年第一季度上線,最大供應量為 22,300,000 枚。用戶使用網路時將收取 5% 的費用,該費用將用於 Burn IO 代幣或為供需雙方的新用戶提供激勵。代幣模型有著明顯的拉昇特性,因此 io.net 儘管未發幣,但市場熱度很大。

Golem:以 CPU 為主的算力市場

Golem 是一個去中心化算力市場,支持任何人都可以通過創建共享資源的網路來共享和聚合計算資源。Golem 為用戶提供了算力租賃的場景。

Golem 市場由三方組成,分別是算力供應方、算力需求方、軟體開發者。算力需求方提交計算任務,Golem 網路將計算任務分配給合適的算力供應方(提供 RAM、硬碟空間及 CPU 核數等),計算任務完成之後,雙方通過 Token 進行支付結算。

FMG研報:AI 的三個問題和 DePIN 的解法插图17

Golem 主要採用 CPU 來進行算力堆疊,儘管在費用方面會比 GPU 的成本更低(Inter i9 14900k 價格 700 美元左右,而 A100 GPU 價格在 12000-25000 美元)。但 CPU 無法進行高併發運算,且能耗更高。因此以 CPU 來進行算力租賃可能在敘事上相較於 GPU 專案會稍微弱一些。

Magnet AI:AI 模型資產化

Magnet AI 通過整合 GPU 算力提供商,為不同 AI 模型開發者提供模型訓練服務。和其他 AI+DePIN 產品不同,Magent AI 允許不同 AI 團隊基於自身模型發佈 ERC-20 代幣,用戶通過參與不同模型互動,獲得不同模型代幣空投和額外獎勵。

2024 年 Q2,Magent AI 將上線 Polygon zkEVM & Arbrium。

與 io.net 有點類似,對於 GPU 算力都是以整合為主,並為 AI 團隊提供模型訓練服務。

不同點在於,io.net 更側重於 GPU 資源的整合,鼓勵不同 GPU 集群、企業以及個人貢獻 GPU,同時獲得回報,是算力驅動。

Magent AI 看起來更側重 AI 模型,由於 AI 模型代幣的存在,可能會圍繞代幣、空投來完成用戶的吸引和留存,並通過這種將 AI 模型資產化的方式來推動 AI 開發者的入駐。

簡單概括:Magnet 相當於用 GPU 搭建了一個集市,任何 AI 開發者,模型部署者都可以在上面發 ERC-20 代幣,用戶可以獲取不同代幣,或者主動持有不同代幣。

Render:圖形渲染型 AI 模型專業玩家

Render Network 是基於去中心化 GPU 的渲染解決方案提供商,旨在通過區塊鏈技術連接創作者和閒置 GPU 資源,以消除硬體限制,降低時間和成本,同時提供數位版權管理,進一步推動元宇宙的發展。

根據 Render 白皮書內容,基於 Render,藝術家、工程師和開發者可以創建一系列 AI 應用,比如 AI 輔助 3D 內容生成、AI 加速全系渲染,以及利用 Render 的 3D 場景圖數據進行相關的 AI 模型的訓練。

Render 為 AI 開發者提供了 Render Network SDK,開發者將能夠利用 Render 的分佈式 GPU 來執行從 NeRF(神經反射場)和 LightField 渲染過程到生成性 AI 任務的 AI 計算任務。

根據 Global Market Insights 的報告,預計全球 3D 渲染市場規模達 60 億美元。而 FDV 22 億美元的 Render 相比仍具發展空間。

目前查詢不到 Render 基於 GPU 的具體數據,但由於 Render 背後 OTOY 公司數次表現出與蘋果公司的關聯性;再加上業務廣泛,OTOY 旗下的明星渲染器 OctaneRender,支持 VFX、遊戲、動效設計、建築視覺化和類比領域的所有行業領先的 3D 工具集,包括對於 Unity3D 和 Unreal 引擎的原生支持。

以及谷歌和微軟加入了 RNDR 網路。Render 曾在 2021 年處理了近 25 萬個渲染請求,生態中的藝術家通過 NFT 產生了 50 億美元左右的銷售額。

因此,對於 Render 的參考估值應該對照泛渲染市場潛力(約 300 億美元)。加上 BME(燃燒和鑄造平衡)經濟模型,無論從單純代幣價格還是 FDV 來看,Render 依舊有一定上漲空間。

Clore.ai:視頻渲染

Clore.ai 是一個建立在 PoW 基礎上的提供 GPU 算力租用服務的平臺。用戶可出租自己的 GPU 用於 AI 培訓、視頻渲染和加密貨幣挖礦等任務,其他人可以以低價獲取這種能力。

業務範圍包括:人工智慧培訓、電影渲染、VPN、加密貨幣挖礦等。有具體算力服務需求的時候,完成網路分配的任務;如果沒有算力服務需求的時候,網路找到當時挖礦收益率最高的加密貨幣,參與挖礦。

FMG研報:AI 的三個問題和 DePIN 的解法插图19

Clore.ai 過去半年,GPU 數量從 2000 漲到 9000 左右,但從 GPU 集成數量上來看,Clore.ai 超過 Akash。但其二級市場 FDV 只有 Akash 的 20% 左右。

代幣模型上,CLORE 採用 POW 挖礦模式,沒有預挖和 ICO,每個區塊的 50% 分配給礦工,40% 分配給出租者,10% 分配給團隊。

代幣總量 13 億枚,自 2022 年 6 月開始挖礦,至 2042 年基本進入全流通,當前流通量大約為 2.2 億枚。2023 年底流通量約為 2.5 億枚,佔代幣總量的 20%。所以當前實際 FDV 為 3100 萬美元,理論上,Clore.ai 處於嚴重被低估狀態,但由於其代幣經濟學上,礦工分配比例 50%,挖賣提比例過高,因此幣價提升具有較大阻力。

Livepeer:視頻渲染、推理

Livepeer 是基於以太坊的去中心化視頻協定,向以合理價格安全地處理視頻內容的各方發放獎勵。

據官方稱,Livepeer 每週有數千個 GPU 資源進行數百萬分鐘的視頻轉碼。

Livepeer 或將採用「主網」+「子網」的方式,讓不同的節點運營商生成子網,通過在 Livepeer 主網上兌現付款來執行這些任務。比如,引入 AI 視頻子網用於專門進行視頻渲染領域的 AI 模型訓練。

Livepeer 此後會將與 AI 有關的部分從單純的模型訓練擴列至推理 & 微調。

Aethir:專注於雲遊戲和 AI

Aethir 是一個雲遊戲平臺,專為遊戲和人工智慧公司構建的去中心化雲基礎設施 (DCI)。它有助於代替玩家交付繁重的 GPU 計算負載,確保遊戲玩家在任何地方、任何設備上都能獲得超低延遲的體驗。

同時,Aethir 提供包括 GPU、CPU、磁碟片等要素的部署服務。2023 年 9 月 27 日,Aethir 正式為全球客戶提供雲遊戲和 AI 算力的商用服務,通過集成去中心化算力的方式來為自身平臺的遊戲以及 AI 模型提供算力支持。

雲遊戲通過將計算渲染的算力需求轉移到雲端,消除了終端設備的硬體及作業系統的限制,顯著擴大了潛在的玩家基礎規模。

2.2 帶寬

帶寬是 DePIN 向 AI 提供的資源中的一種,2021 年全球帶寬市場規模超過 500 億美元,預測 2027 年將突破千億。

由於 AI 模型的越來越多以及更復雜,模型訓練通常採用多種並行計算策略,例如數據並行、流水線並行和張量並行等。在這些並行計算模式下,多臺計算設備間集體通信操作的重要性日益凸顯。因此,在構建大型 AI 模型的大規模訓練集群時,網路帶寬的作用就凸顯了出來。

更重要的是,一個穩定且足夠可靠的帶寬資源,能夠確保不同節點之間同時相應,技術上避免了單點控制的出現(比如 Falcon 採用低延遲 + 高帶寬的中繼網路模式來尋求延遲與帶寬之間需求的平衡),最終確保整個網路的可信任和抗審查。

Grass:相容移動端的帶寬挖礦產品

Grass 是 Wynd Network 的旗艦產品, Wynd 專注於開放⽹絡數據,於 2023 年融資 100 萬美元。Grass 允許⽤戶通過出售未使⽤的⽹絡資源來通過互聯⽹連接來獲得被動收⼊。

用戶可以在 Grass 上出售互聯網帶寬,為有需要的 AI 開發團隊提供帶寬服務,幫助 AI 模型訓練,從而獲得代幣回報。

目前,Grass 即將推出移動端版本,由於移動端與 PC 端具有不同的 IP 地址,這意味著 Grass 的用戶將為平臺同時提供更多的 IP 地址,而 Grass 將收集到更多的 IP 地址從而為 AI 模型訓練提供更好的數據效率。

目前 Grass 有兩種 IP 地址提供方式:PC 端下載拓展程式,以及移動端 APP 下載。(PC 端與移動端需處於不同網路)

FMG研報:AI 的三個問題和 DePIN 的解法插图21

截至 2023 年 11 月 29 日,Grass 平臺已經擁有 103,000 次下載和 1,450,000 個唯一 IP 地址。

移動端和 PC 端對 AI 的需求度不一樣,因此適用的 AI 模型訓練類別有所不同。

比如,移動端對於圖片優化、人臉識別、即時翻譯、語音助手、設備性能優化等方面擁有大量數據。這些是 PC 端難以提供的。

目前 Grass 在移動端 AI 模型訓練上處於比較先發的身位。考慮到當前全球範圍內,移動端市場的巨大潛力,Grass 的前景值得關注。

但目前 Grass 尚未在 AI 模型方面提供更有效的資訊,推測前期可能單純以礦幣為主要運營方式。

Meson Network:Layer 2 相容移動端

Meson Network 是基於區塊鏈 Layer 2 的下一代存儲加速網路,通過挖礦的形式聚合閒置服務器,調度帶寬資源並將其服務於檔案以及流媒體加速市場,包含傳統網站、視頻、直播及區塊鏈存儲方案。

我們可以將 Meson Network 理解為一個帶寬資源池,池子兩邊可以看作是供需雙方。前者貢獻帶寬,後者使用帶寬。

在 Meson 具體的產品結構中,有 2 個產品(GatewayX、GaGaNode)在負責接收全球不同節點貢獻的帶寬,1 個產品(IPCola)則負責將這些匯聚的帶寬資源進行變現。

GatewayX:以集成商業閒置帶寬為主,主要瞄準 IDC 中心。

從 Meson 的數據看板可以發現,目前接入的 IDC 在全世界範圍內共有 2 萬多個節點,並且形成了 12.5Tib/s 的數據傳輸能力。

GaGaNode:主要整合住宅及個人設備閒置帶寬,提供邊緣計算輔助。

IPCola:Meson 變現渠道,進行 IP 和帶寬分配等任務。

FMG研報:AI 的三個問題和 DePIN 的解法插图23

目前 Meson 透露,半年收入在百萬美金以上。據官網統計,Meson 有 IDC 節點 27116 個,IDC 容量 17.7TB/s。

FMG研報:AI 的三個問題和 DePIN 的解法插图25

目前 Meson 預計 2024 年 3-4 月份發行代幣,但公佈了代幣經濟學。

代幣名稱:MSN,初始供應量 1 億枚,第一年挖礦通脹率為 5%,每年下降 0.5%。

Network 3:與 Sei 網路集成

Network3 是一家 AI 公司,構建了一個專門的 AI Layer 2,並與 Sei 集成。通過 AI 模型算法優化和壓縮,邊緣計算和隱私計算,為全球範圍內的 AI 開發者提供服務,幫助開發者快速、便捷、高效地大規模訓練和驗證模型。

據官網數據,目前 Network3 已經有超過 58000 個活躍節點,提供 2PB 的帶寬服務。與 Alchemy Pay、ETHSign、IoTeX 等 10 個區塊鏈生態達成合作。

2.3 數據

與算力和帶寬不同,數據端供應目前市場較為小眾。並且具有鮮明的專業性。需求群體通常是專案自身或者相關品類的 AI 模型開發團隊。比如 Hivemapper。

通過自身數據餵養訓練自己的地圖模型,這一範式在邏輯上並不存在難點,因此我們可以嘗試將視野放寬到與 Hivemapper 類似的 DePIN 專案中,比如 DIMO、Natix 和 FrodoBots。

Hivemapper:專注於自身 Map AI 產品賦能

HiveMapper 是 Solana 上 DePIN 概念 Top 之一,致力於創建一個去中心化的「谷歌地圖」。用戶通過購買 HiveMapper 推出的行車記錄儀,通過使用並與 HiveMapper 共享即時影像,便能獲得 HONEY 代幣。

關於 Hivemapper,Future Money Group 曾在《FMG 研報:30 天上漲 19 倍,讀懂以 Hivemapper 為代表的汽車類 DePIN 業態》中有詳細描述,在此不做展開。之所以把 Hivemapper 列入 AI+DePIN 板塊,是因為 Hivemapper 推出了 MAP AI,是一個 AI 地圖製作引擎,可以基於行車記錄儀所採集的數據生成高質量地圖數據。

Map AI 設置了一個新角色,AI 訓練師。該角色該角色囊括了此前的行車記錄儀數據貢獻者,以及 Map AI 模型訓練師。

FMG研報:AI 的三個問題和 DePIN 的解法插图27

Hivemapper 對於 AI 模型訓練師的要求並沒有刻意專業化,反而採用了類似遠端任務、猜地理位置等類似遊戲行為的低參與門檻,讓更多的 IP 地址參與進來。DePIN 專案的 IP 資源越豐富,AI 獲取數據的效率就更高。而參與 AI 訓練的用戶,同樣也能獲得 HONEY 代幣的獎勵。

AI 在 Hivemapper 中的應用場景較為小眾,Hivemapper 也並不支持第三方模型訓練,Map AI 目的在於優化自身地圖產品。因此對 Hivemapper 的投資邏輯不會產生改變。

Potential

DIMO:對汽車內部數據進行採集

DIMO 是一個建立在 Polygon 上的汽車物聯網平臺,使駕駛員能夠收集和共享他們的車輛數據,記錄的數據包括汽車行駛公里、行駛速度、位置追蹤、輪胎壓力、電池 / 發動機健康狀況等。

通過分析車輛數據,DIMO 平臺可以預測何時需要維護並及時提醒用戶。駕駛員不僅能深入瞭解自己的車輛,還能將數據貢獻給 DIMO 的生態系統,從而可以獲得 DIMO 代幣作為獎勵。而作為數據消費方可以從協定中提取數據以瞭解電池、自動駕駛系統和控件等元件的性能。

Natix:隱私賦能地圖數據收集

Natix 是一個利用 AI 隱私專利打造的去中心化網路。旨在基於 AI 隱私專利,將全球與攝像頭設備(智慧手機、無人機、汽車)進行結合,創建中保攝像頭網路,同時在隱私合規性的前提下收集數據,並對去中心化動態地圖(DDMap)進行內容填充。

參與數據提供的用戶可以獲得代幣和 NFT 進行激勵。

FrodoBots:機器人為載體的去中心化網路應用

FrodoBots 是一個以移動機器人為載體,通過攝像頭採集影響數據,具有一定社交屬性的 DePIN 類遊戲。

用戶通過購買機器人來參與到遊戲過程中,與全球玩家進行交互。同時機器人自帶的攝像頭也會對道路和地圖數據進行採集匯總。

以上三個專案,都具有數據採集和 IP 提供兩個要素,儘管他們尚未進行相關的 AI 模型訓練,但都為 AI 模型的引入提供了必要條件。這些專案包括 Hivemapper 在內,都是需要通過攝像頭來採集數據,並形成完備的圖譜。因此適配的 AI 模型也都侷限於以地圖構建為主的領域。AI 模型的賦能,將能夠幫助幫助專案建立更高的護城河。

需要注意的點在於,通過攝像頭採集往往會遇到雙向的隱私侵犯等法規問題:比如外置攝像頭採集外部影像對於路人肖像權的定義;以及用戶對自身隱私的重視。比如 Natix 運營 AI 來進行隱私保護。

2.4 算法

算力、帶寬、數據側重於資源端的區分,而算法則側重於 AI 模型方面。本文以 BitTensor 為例,BitTensor 既直接不貢獻數據,也不直接貢獻算力,而是通過區塊鏈網路和激勵機制,來對不同的算法進行調度和篩選,從而讓 AI 領域形成一個自由競爭、知識共享的模型市場。

類似 OpenAI,BitTensor 目的在於在維持模型去中心化特性的同時,以達到與傳統模型巨頭相匹配的推理性能。

算法賽道具有一定超前性,類似的專案並不多見。當 AI 模型,尤其是基於 Web3 誕生的 AI 模型湧現,模型之間的競爭就將成為常態化。

同時,模型之間的競爭也會讓 AI 模型產業的下游:推理、微調的重要性提高。AI 模型訓練只是 AI 產業的上游,一個模型需要先經過訓練,具備初始的智慧性,並在此基礎上對模型進行更仔細的模型推理和調整(可以理解為優化),最終才能作為一個成品來進行邊緣部署。這這些過程需要更復雜的生態架構和算力支撐。也意味著潛在的發展潛力巨大。

BitTensor:AI 模型預言機

BitTensor 是一個架構類似 Polkadot 主網 + 子網的去中心化機器學習生態。

工作邏輯:子網將活動資訊傳給 Bittensor API(角色類似預言機),然後 API 會將有用資訊傳給主網,主網再分發 Rewards。

FMG研報:AI 的三個問題和 DePIN 的解法插图29

FMG研報:AI 的三個問題和 DePIN 的解法插图31

BitTensor 32 個子網

BitTensor 生態內角色:

  • 礦工:可以理解為全世界各種 AI 算法和模型的提供方,它們託管 AI 模型並將其提供給 Bittensor 網路;不同類型的模型組成了不同的子網。

FMG研報:AI 的三個問題和 DePIN 的解法插图33

  • 驗證者:Bittensor 網路內的評估者。評估 AI 模型的質量和有效性,根據特定任務的性能對 AI 模型進行排名,幫助消費者找到最佳解決方案。

  • 用戶:Bittensor 提供的 AI 模型最終使用方。可以是個人,也可以是謀求 AI 模型來做應用的開發者們。

  • 提名人:將代幣委託給特定驗證者來表示支持,也可以換不同的驗證者來委託。

FMG研報:AI 的三個問題和 DePIN 的解法插图35

開放的 AI 供需鏈條 :有人提供不同模型,有人評價不同模型,有人使用最好的模型所提供的結果。

和 Akash、Render 這種類似「算力仲介」的角色不同,BitTensor 更像一個「勞務市場」,用已有模型去吸收更多數據以此來讓模型更加合理。礦工和驗證者更像「施工方」和「監工」的角色。用戶提出問題,礦工們輸出答案,驗證者再來評估答案的質量,最終返回給用戶。

BitTensor 代幣為 TAO。TAO 的市值目前僅次於 RNDR,但由於 4 年減半的長期釋放機制存在,市值與完全稀釋價值的比率反而是幾個專案中最低的,也意味著 TAO 的總體流通量目前來看相對較低,但單價較高。因此意味著 TAO 的實際價值處於低估狀態。

目前比較難以尋找合適估值標的,如果從架構相似性出發,Polkadot(約 120 億美元)為參照對象,TAO 有接近 8 倍的上漲空間。

如果按照「預言機」屬性出發,Chainlink(140 億美元)為參照對象,TAO 有接近 9 倍的漲幅。

如果以業務相似性出發,OpenAI(從微軟獲得約 300 億美元)為參照,TAO 的上漲硬頂可能在 20 倍左右。

結論

總體而言,AI+DePIN 推動了 Web3 語境下 AI 賽道的範式轉移,讓市場從「AI 能在 Web3 裡做什麼?」的固有思維中跳出,去思考「AI 和 Web3 能為世界帶來什麼?」這一更大的問題。

如果說英偉達 CEO 黃仁勳將生成式大模型的發佈稱為 AI 的「iPhone」時刻,那麼 AI 與 DePIN 的結合便意味著 Web3 真正迎來「iphone」時刻。

DePIN 作為 Web3 在現實世界最容易被接受以及最成熟的用例,正在讓 Web3 變的更加可被接受。

由於 AI+DePIN 專案中 IP 節點與 Web3 玩家的部分重合性,二者的結合,同時也在幫助行業催生屬於 Web3 自己的模型和 AI 產品。這將有利於 Web3 行業的整體發展,並且為行業去開拓新的賽道,比如 AI 模型的推理和微調、以及移動端 AI 模型發展等。

一個有趣的點在於,文中所羅列的 AI+DePIN 的產品,似乎可以去嵌套公鏈的發展路徑。在此前的週期中,各種新公鏈湧現,用自身的 TPS 和治理方式來吸引各種開發者的入駐。

當前的 AI+DePIN 產品也是這樣,基於自身的算力、帶寬、數據以及 IP 優勢來吸引各種 AI 模型開發者入駐。所以,我們目前看到 AI+DePIN 產品有偏向同質化競爭的趨勢。

問題的關鍵並不在於算力的多少(儘管這是個很重要的先決條件),而在於如何去運用這些算力。現在的 AI+DePIN 賽道仍舊處於「野蠻生長」的早期,因此我們對於 AI+DePIN 的未來格局以及產品形式,可以抱有一個充滿期待的預期。

聯系郵箱:0xniumao@gmail.com