對話 FLock.io CEO:為什麼谷歌不能做真正的聯盟學習,而區塊鏈可以?



世界是功利主義的,算法又是確實這個黑盒算法出來的,結果大力真的出了很大的奇跡。

撰文:Sunny,深潮 TechFlow

嘉賓:Jiahao Sun,FLock

“去中心化機器學習已經漸漸不只是一個說辭,更加是一個可行的工程方案。”

– Jiahao Sun, CEO of FLock.io 

去中心化人工智慧並不是一個新奇的概念,但由於加密貨幣的興起,它正在經歷一次復甦,為人工智慧民主化提供了潛力。然而,對於那些不熟悉該領域的人來說,民主化人工智慧的概念可能顯得模糊不清。

區塊鏈作為現代網路後端,促進了勞動力和資源的協調和眾包。

人工智慧廣泛涵蓋了訓練和推理以進行預測,依賴於計算能力、模型和數據。目前,這些要素的控制往往掌握在少數幾家主要科技公司手中。儘管人們普遍認為其使用不會作惡,但並沒有可驗證的保證,這需要一種新的方法來讓更廣泛的人群參與到人工智慧的發展中來。

谷歌之前嘗試過聯盟學習,用戶設備在本地貢獻數據和計算能力,然後匯總到一個全球模型中。然而,這種模型仍然保持著中央控制。

區塊鏈通過啟用一個私有經濟系統,使每個人都能通過代幣經濟學和加密貨幣參與提供數據、計算能力和模型,從而提供了一種解決方案。

FLock(基於區塊鏈的聯盟學習)通過智慧合約和代幣經濟學引入了真正的聯盟學習,確保了更廣泛的參與。今天,我們歡迎 FLock 的首席執行官來討論民主人工智慧的概念,以及其在全球衛生等領域的相關性,即使在沒有去中心化的論點之上,聯盟學習仍舊充滿意義。

傳統金融 AI 總監到智慧合約化聯盟學習

TechFlow: 首先請你進行簡單的自我介紹,並告訴我們FLock,或者說是去中心化聯盟學習到底是什麼?

Jiahao:

我在傳統的 Web2 的 金融科技圈子幹了十年,剛畢業的時候就進了 Entrerpreneur First 的孵化器,那個時候我在做 AI 加持下的 Credit Scoring,是我的第一次創業。那之後很快被獵頭挖到了一家 Top Tier 的金融機構,做 Innovation Lead,八年時間一直到做到它們的全球 AI 總監。所以,我算是一直在 AI 研究與應用行業裡深耕。

對於 Web3 這個行業產生興趣,主要是因為2017年的 ICO 春天。看到很多團隊似乎隨便搞個 idea 都能行,我當時覺得很神奇。不過很明顯那個時代的市場很不成熟,或者用現在的話說就是給人感覺土狗太多,感覺會比較沒有格調,所以就沒有想著說是真的要進場,只是看著說這個行業有點意思。

在疫情期間,時間彷彿有些拖沓,整個歐美都是 Work from Home 的狀態,大家都真的突然多了很多時間。這些多出來的時間,可以選擇天天打遊戲,也可以選擇做些有意義的事情。我了打了一年遊戲以後,感覺確實有點太浪費人生了,於是選擇了做些有意義的事情。回顧 2021 年末,儘管處於加密深熊,卻看到了許多引人注目的專案。這些專案由具備豐富Web2經驗的團隊在Web3領域展現出色,讓我深感啟發,開始著迷於 Web3 的發展以及真正有意義的技術與敘事。

我最後決定進入 Web3 是因為我們幾個人的一篇頂會獲獎的研究論文,這是我們幾個創始人及研究團隊一起對於去中心化機器學習真正奧義的研討與思考,也是 FLock 作為一個技術辭彙(Federated Learning on the Blockchain) 第一次展現在市場上,並且獲得了學術界最頂級同行評議的背書,這給了我們全力啟動 FLock 這個專案很大的信心和支持。

論文鏈接:https://scholar.google.com/citations?user=s0eOtD8AAAAJ&hl=en

因為聯盟學習或者去中心化機器學習,它一直在行業內存在。

比如英偉達、AWS 也在投資很多類似的分佈式計算、分佈式機器學習的這些東西,但是這裡面永遠都有一個問題,假設 AWS 說“我所有這些雲計算平臺、雲計算資源,它都是分散的,你擁有你的雲計算平臺”,但是你顯然不會相信這個點的,因為你還是通過 AWS 來買的某一個雲計算,其實 AWS 是有中間控制權,它是最終那個控制人。所以你並不擁有你手上這個 AWS ,你只是租用了它。同理就是用戶沒有數據所有權。

在解決隱私這個邏輯上,谷歌在 2017 年就提出了聯盟學習(Federated Learning)這個概念。

所謂聯盟學習還是一個 Machine Learning 那個框架,只不過把所有的計算分散到每個節點裡面去,這樣就可以不把數據拿出來,每個人都在每個節點裡面做一個 Local Compute,簡單來講就是把結果綜合起來,得到一個最後的綜合大模型,這個大模型可以體現出所有數據被訓練之後的結果,又能夠防止我需要把數據放到任何第三方的服務器上這件事。

所以整個這樣一套邏輯就稱為聯盟學習,最早谷歌他們提出來之後,他們就把這套邏輯用在了輸入法預測上。所以當時很多Pixel Phone的用戶很早就已經體會到什麼是聯盟學習了,你用谷歌的手機打字的時候,他會給你預判下一個字。其實這就是聯盟學習最早在現實中的應用。

但就像我剛剛舉的例子一樣,同樣的,谷歌控制了所有這個 Training 過程,它是可以作惡的,它可以看到所有的源代碼,可以看到所有的原數據,沒法證偽自己沒看到。那個時候就出了一件非常有意思的大事,某中文輸入法軟體爆了雷,它也說自己搞聯盟學習保護用戶隱私,但後來被人挖到,它背後回傳了所有的用戶的輸入法數據,全部直接回傳到中心化服務器的,並沒有搞什麼聯盟學習。

所以這幾點就是最近在整個技術圈比較火的事件,大家開始質疑 “如果讓一個人來控制所有這些資源的話,他是否能夠保證他自己不作惡?” ,他如果保證的話,你又是否能夠信他。顯然其他廠家不信,不然蘋果和谷歌早就一起加入,一起訓練一個輸入法預測模型了。

所以這是為什麼我們把區塊鏈智慧合約的機制加入到整個傳統的聯盟學習框架裡面,這樣就不需要谷歌了,不需要中間有一個人做資源分配,我們每個人都是個獨立的個體,我們自己有自己的節點,我只算我的那部分,然後通過智慧合約來決定誰上傳的 Gradient 是有用的,哪個需要綜合起來,全部靠就這一套鏈上的 Consensus 去解決。這是 FLock 最早作為一個 Research Idea 的一個點。

對話 FLock.io CEO:為什麼谷歌不能做真正的聯盟學習,而區塊鏈可以?插图1

FLock 通過智慧合約協調計算, 模型和數據的社區共建

先理解:被訓練過的數據還是不是你的數據?

TechFlow:那麼首先在個體節點上,本地個體數據是怎麼被進行加密然後加入到綜合大模型進行訓練的,並且在得到一個訓練結果的前提下仍舊保證起始數據隱私?

Jiahao:

我舉一個例子,WorldCoin,拍一個自己的虹膜照片,然後通過神經網路繞一圈,把它變成一個Embedding,那這個 Embedding 就不是你的虹膜照片了,對不對?就看人們相不相信這個邏輯

–“那不是我的虹膜了,那是一個新的 Embedding”。

當然有些人不認這個邏輯,他認為這還是自己的數據的衍生品。

我們一步步講,首先認這些邏輯的人,在這個聯盟學習的邏輯裡,個人數據從來沒有從個體節點出來,出來的東西是你的數據把一個 Local 模型訓練完之後這個模型的變化,這個變化值我們稱之為梯度(Gradient)。

我們只傳這個梯度到下一個節點,整個過程中沒有任何跟你數據有關的任何東西被傳到下一個節點,它是完全保密的。所以理論上不需要做任何的加密,因為這東西本來就不是你的數據。

如果你不認這個邏輯,你覺得我數據的衍生品也是我的數據,就算那個東西它不是我的虹膜了,被你的神經網路處理過了,它是一個嵌入(Embedding),但是這個 Embedding 還是能夠對應到我的數據,那我們會在這個標留的信道上做一層加密。

把這個節點的傳到下一個節點,我們對節點本身的傳輸也會做一層加密,有好多種方法,現在有一些特別有意思的方法叫 Deep Gradient Compression,我們可以做到節點數據的傳輸被壓縮到 5% 以下。既加快了傳輸速度,又順手解決了加密隱私問題,還不影響模型準確性,一舉三得。

為什麼呢?首先,本來在 Machine Learning 中,為了防止數據過擬合或者模型過擬合,每次計算的時候都會做一些 Dropout,或者說故意遺漏一些數據,從而達到更好的計算準確率。比如我算到了100%,我都要把它省略到百分之七八十,再進行傳輸,因為我們怕 100% 的話會讓他一頭勁的往裡面沖,沖到最後沖到一個過擬合的點,那是個局部最優解,而不是個全局最優解。這個方法其實能夠增加我們整個計算的準確度。

第二,我們發現在深度學習領域,當我們把 Gradient 壓縮到極致(例如 5% 及以下)時,這些 Gradient 中的資訊已經完全被壓縮到任何人無法恢復你的數據的程度了——這就相當於你在任何一個圖片上打上很厚的馬賽克,哪怕最好的AI也不可能完全恢復原始圖片的任何細節,它可能腦補,它可能亂猜,但是由於可被利用的資訊太少了,能還原出的東西是極度有限的。根據資訊論,沒有人能夠把它再回復成你的數據了,所以這是一層已經讓人可以放心的加密。

當然,第三就是,數據的 Payload 小了,那自然傳輸效率就提升上來了,就算是幾十b的大模型,在我們的優化下,多臺普通家用機器的去中心化調優也可以在幾個小時內完成。

去中心化機器學習已經漸漸不只是一個說辭,更加是一個可行的工程方案。

這本質上就不是涉及到區塊鏈或者聯盟學習本身這一套機制的問題,而是涉及到節點之間的加密傳輸,那隻要能保證它是安全的就行。我上面說的只是一種解決思路,包括ZK,包括FHE,包括TEE,其實都可以作為解決加密的方案。這裡面,FLock 跟所有的這些技術都可以很好的相容,甚至我們自己還出了一篇 Paper 叫 zkFL。

聯盟學習 + 智慧合約 = FLock

TechFlow: 在聯盟學習每個節點是在處理學習自己的數據,然後提交一個節點,然後會發生什麼?對於一個不太懂 AI 的人怎麼解釋這個 Consensus?

Jiahao: 

這一堆節點相當於是個圈子,我們使用了 Ring-all Reduce 的方式,從一個節點推到下一個節點,再推到下一個,不用有中間人做管理,直到某一個節點收到第二次數據時,這堆節點就完成了一個圈,這個叫 Gradient 加成。這樣加成完之後每個人都把它的 Local 模型都更新到一個新模型。

Consensus 是發生在一個沒有人管理的系統,為什麼谷歌需要管理這樣一個中心化的聯盟學習系統?

他是怕這個裡面有節點會作惡,比如我算的數據不是我真的數據,或者我給的結果直接給一堆亂碼數據,這些是為什麼需要一個中間人管理的原因。這也是在傳統 Web2 世界裡做聯盟學習大家都需要簽個合約的原因,我只能跟可信的人一起來做聯盟學習。

而 FLock 來做是通過去中心化的方案,涉及到怎麼去防止這些作惡節點,我們用智慧合約來替代中間那個管理人,我們相當於做 Validator,用智慧合約做Validation。

機器學習是結果導向的,只要去驗證這個數據跑完之後的模型出來的結果,是否往準確率高的方向跑的。

假如別人都在往一個數據高的方向跑,而你在往一個數據低的方向跑,你就會被Slash,當然不會一下子 Slash 掉,而會慢慢Slash,如果你一直還是跟別人不一樣,才最終被 Slash out。

這是一個博弈機制,通過智慧合約管理。

那會不會有一些極端情況的出現呢?這就是整個 Tokenomics 的意義。

我們在 Paper 裡論證過很多極端情況,我這裡舉個簡單的例子:

假設我這個數據裡面都是右慣手用戶,其中一個節點是左慣手用戶,他的數據跟別人確實有點不一樣,但他是真實的數據。這個時候再做出一次計算,別的所有的右慣手用戶的的那個模型都會往右偏,然後左慣手用戶的這個模型往左偏了,那麼在第一輪的時候確實通過我們 FLock 的 Concensus,這個左慣手用戶的節點會往下slash,因為他跟別人不一樣,然後再到第二輪的時候,他又會往下 slash 一點點,但是在過了幾輪之後,因為這個用戶的數據是真實的,他對於模型的貢獻也是真實的,於是模型訓練的變化會在某個epoch(訓練輪次)的時候開始慢慢的往左慣手用戶這邊偏。從而導致所有其他人也都會往左慣手這個模型結果的位置偏。

根據我們的 Tokenomics,在整個這樣一個 FLock 的系統裡面,最終模型往誰的方向偏(通俗地講法),那麼 Rewards 的分成就會往誰的那邊偏移。於是,雖然左慣手的節點在早期可能會因為數據的獨特性被 slash 一下下,但是最終會因為他對於終極模型的貢獻,而得到更多的 Rewards 傾斜,反而得到更多的收益。

這是我們設計整個這一套 FLock 機制的一個原因,這也是為什麼我們從論文入手,發頂級會議,然後開始搞這個FLock,因為這裡面很多東西需要深思,於是我們團隊早期其實完全沒有做 Monetization 的事情,就是在那論文、寫代碼、做實驗,然後做simulation,並且我們能得到 Peer Review 的肯定(NeurIPS,TAI,Science等),去確保我們這個東西的基礎足夠堅實,能夠經得起實驗的考驗,之後我們才開始建設 SDK 和 testnet。

TechFlow: 能簡單的講述一下這個 Tokenomics 裡面,或者說這個 Network 裡面的 Player 都有誰嗎?

Jiahao:

這裡面 Players 是 Planer, Trainer 和 Validator 三方:大家可以把它抽象成一個任務平臺,就像傳統 AI 圈的 HuggingFace 一樣,所謂 Planer就是任務的發佈方,來發布任務,並提供 Incentive 給到參與任務的人;Trainer 就是那些 AI 開發者,數據擁有方,我有模型或者我有數據,我來這裡面做貢獻,期待獲得收益;Validator則通過提供算力以及 AI 模型的準確度驗證,來確保系統一直是公平高效地運行。

Go-to-Market

TechFlow:FLock 智慧合約在前端上是怎麼呈現的呢?比如你剛才講的圖片識別,它的步驟是怎樣的?

Jiahao: 

每個用戶打開網站或打開我們的客戶端,定位自己的本地數據,然後點擊 Training 就可以進入整個 Training 過程了。我們對於 Retail 用戶而言,做到了Seamless的用戶體驗

TechFlow: 不同任務的 Matching 是怎麼搞定的?

Jiahao: 

我作為一個訓練的人,我的數據可以 Match 不同的東西。比如說,一個醫院搞的睡覺數據,有每天睡覺的數據集,我就選擇去加入這個,有點像個 Marketplace,我作為數據擁有方,我有權利選擇去加入這個或是加入那個。在這個 Marketplace 裡的 Incentive 是由 Business 方提供的。比如說醫院、銀行、De-Fi,他們放個Bounty,比如放200K,去激勵成員參加他們自己在 FLock 上構建的subnet(子網路)。

TechFlow: 所以你們做市場的時候是先去搞定這個 Business 那一方?

Jiahao: 

對,我們現在已付費用戶都是 Business 的 Contract。我們已經交付了幾期,現在我們想上線 Marketplace,讓更多的 Business 可以在上面就直接發佈任務,更加的 2C 向,而不是需要去走 B2B 的模式來 onbaord。

TechFlow: 傳統數據提供商戶對於 Web3 的的接受程度是怎樣的?

Jiahao: 

這件事讓他們的成本降低了,如果他們做 Off-Chain 的話整個過程可能要歷時幾個月,還要過很多審核。另外,如果他們想搞跨國之間的 Clinical Trial 的話,問題會更嚴重,因為幾乎任何國家都不會讓醫療數據出境,所以很多情況下就這事就做不了。

所以 FLock 的出現對他們而言是一個突破:

第一,本人的數據都在本地,不需要過那麼多監管。

第二,可以做一些以前沒想到的事情,比如說跨國之間,中日韓一起搞一個更好的、對於東亞人身體機制的一個聯盟學習去算血糖原預測和監測。

除此之外的話還有一些更大的想像力,這些也是之前我們合作的醫院方跟我們聊的,像是遠端醫療,之前這件事不太有可能,主要就是因為數據不可能出境,那用聯盟學習的方式的話,就可以做到我這邊做監測,他那邊出結論,那兩邊的東西其實都不看到,但是對患者而言的話我就少了很多麻煩–我不用飛到任何一個第三個國家去來做個體檢之類的。至少我從我瞭解來看,就對於醫療行業而言,它們可能是我聊下來發現最懂聯盟學習的一個行業,然後第二個最懂這個行業就是金融行業,因為他們已經被無數前赴後繼的技術公司 Pitch 過很多遍了。

不過我們也沒有做傳統的 Finance 行業,我們直接去跟 DeFi 合作,因為他們是完全懂 Web3,相互的理解門檻最低。

我們 Marketplace 上線的時候應該會側重一些更有貼近個人需求的AI初創公司,比如說做聲音類比的。之前某人工智慧生成相機拍照的小程式突然不火了,就是因為他們那個隱私條款裡面有一句非常可怕的話,“你的所有的照片的版權歸****所有”,很多人都不想用了,畢竟你要上傳 10 張你的臉的照片。但對做聲音類比這些 startup 而言,他們想用 FLock 的原因就是他們想要把 FLock 當成一個隱私保護的定心丸一樣貼在他們的產品上,讓用戶去放心–我的聲音就還是在我的本地,並且在鏈上可以查到我的聲音從來沒有被傳到任何第三方,同時我又可以用我的聲音去玩聲音類比,比如說去學趙本山說話或者怎麼樣。

所以終局形態的話,我還蠻希望 FLock 成為一個就是隱私行業的一個 CertiK 這種感覺。讓它成為隱私保護和去中心化模型訓練的標準化制定者。

TechFlow: 你研究了多久 P2P Network後覺得可行?

Jiahao: 

我們搞了一年不到吧。幾篇 Paper 發出去很快就能就被髮表,讓我們覺得這東西有點意思。

我覺得評審對我們而言也是個風向標的,如果你發的東西別人都覺得無聊、不新穎,那這東西可能也沒法 Monetized。但我們當時一髮出去,各種反饋都很棒,這樣的正反饋是很有幫助的。

但其實這都是從學術界的反饋,到 Monetization 的階段還是有很多努力要去做的,就是如何讓資本覺得這件事 Make Sense?如何讓資本覺得就是這東西有前途?這就是另外一個挑戰

第一階段我們稱之為 R&D 階段,接下來就是我們推出測試版本和開源代碼庫之後的第二階段。在2023年深熊的時候 Close了我們六百萬美元的 Seed 輪,Lightspeed Faction(光速美國)領投,這也給了我們很大的信心,在市場最差的時候,有這麼 Top Tier 並且是專注投 AI 的 Fund 投了我們,這也對我們長線的發展有了很大的預期。

現在是在我們第三個階段–就是整個市場的肯定。我們會推出整個 FLock 的去中心化訓練平臺,它是一個 Marketplace,讓所有的用戶都可以構建模型構建屬於自己社群的AI。我們的網路也早早就被全球市場上最大的 Validator 們預定支持了。

TechFlow: 現在大家看到了 Web3 的潛力,很多專案都是利用區塊鏈技術應用在現實生活中,你們也是。你們怎麼增加自己的市場曝光呢?

Jiahao: 

我們有點想打爆款的邏輯,就是爆款的應用,或者剛需的應用的出現,比如說我們之所以要跟 DeFi 這個圈子走這麼近,就是因為很多在這方面在 DeFi 這個圈子很多需求是剛需,但是又沒有辦法被滿足。

比如說做個人信貸的時候,信貸數據跟線下銀行卡肯定不能綁起來,FLock 就能在你的節點內部進行一個計算,出一個信用分,來給別人做信用憑證。當然可能到現在還不能做到 低 Collateral 的借貸,肯定都得超 Collateral,但可能別人是 150% 的 overcollateral,你可以做到 105% 的 Collateral,加強了個市場做借貸的效率。對於很多用戶而言的話,這是個剛需。

第二就是爆款點,就像剛剛說的那個做聲音類比,又火一波,大家互相分享,大家喜歡那些網紅也都在分享的話,那我可能也想去下載一下這個APP。

主要是這兩個邏輯點,是我們想去獲客的一個渠道。

TechFlow: FLock 也算是 DePin 的一個賽道,FLock 和現在的 Decentralized Compute 還有 Decentralized Storage 之間的關係是怎樣的?

Jiahao: 

那我覺得上下遊之間就是互相合作挺好的。因為我們是 Training Layer,只是一層 Layer,在整個構建中的話,我們相當於像 TensorFlow、pyTorch 這樣的一個地位,在傳統行業裡面對標的是訓練中層,還是需要 AWS 去放你的模型,你還是需要用 AWS 的 s3 去存你的數據,我們只做串聯工作的,算力從哪來?以及存儲方案的解決商也有很多。

我覺得數據去中化技術存儲可能創新的機會沒有那麼大,大家都已經很大了。我們第一版的 Test Net 就是在 IPFS 上上下層合作蠻好的,用 Decentralized Compute 能夠讓普通用戶可以無縫的、無難度的體驗 FLock 的機制。

按照原教旨主義的講法,位元幣要怎麼用?應該是用家裡的電腦打開之後下載全世界的Ledger,再轉一筆賬到另一個電腦。那 FLock 原教旨主義用法也應該是這樣,你應該是打開你自己家的電腦,把你數據都放在你自己家,你不可能把它放在任何第三方,因為它才這才是最安全的,然後再連入 FLock 網路。但你沒有辦法去要求,很多人都有一臺很好電腦,並且永遠把它連著網。所以我們跟 Decentralized Compute 和 Data 的合作最重要點就是用戶可以登陸 FLock 放到一個Decentralized Storage 上,再用去中心化的算力,FLock 是作為一個中間協調商進行協調數據,跟別人的算力進行協調,去算出一個結果,並且還能分配到公平透明的 Rewards。這樣你作為一個用戶,就像一個 Metamask 一樣,直接登錄,然後點擊完事,然後你就走了。你也不需要去真的有一個電腦跑去 Host 自己的數據。

對我們而言,上下遊的合作就是為了讓用戶體驗更好。

關於AI的題外話:GPT, GNN, 和其他大模型

TechFlow: 你之前在銀行的時候是不是也做了聯盟學習?

Jiahao: 

其實沒有,在銀行更多是 NLP,主要就是 Graph Neural Network、Knowledge Graph這些,所以我是對這個行業略懂的。當時 GPT 火了之後突然發現這個知識圖譜和神經網路行業完全冷掉了。我還在帝國理工帶兩個博士生,我這兩個學生的畢業論文都要重寫,需要換,不然別人會很容易就 Challenge 你的:那為什麼不直接用GPT?

TechFlow: GPT是 Semantic Gata,Graph 更多是 non-Semantic Data?

Jiahao: 

可以這麼說,但是大力出奇跡,如果 GPT 能夠解決問題的話,那你為什麼還要去 Propose 一個 Graph Behind GPT 呢?2022 年在 NeurIPS 上,當時我也是論壇的嘉賓之一,跟華為 Research 的 Boxing Chen 老師,微軟的 Yu Cheng 老師,以及 Meta 的 Marjan 老師等在聊 NLP 的未來的時候,當時我想強行再給我的 Knowledge Graph 再增加一點這個流量。

但主流的反饋也是說,假設我們有最高的算力、最厲害的算法、最厲害的數據,我都已經能夠直接 End to End 達到結果了,為什麼還要去深度分析裡面的每一個關係網路是長什麼樣子的。世界是功利主義的,算法又是確實這個黑盒算法出來的,結果大力真的出了很大的奇跡。

你如果要做這個判斷分析的話需要的成本太高,並且效果會很慢。我可以舉個非常直觀的例子:神經網路在剛開始出來的時候,大家也很反對,老學究們也很反對他,他說我們要用統計學的方法,我要知道因果關係:a 為什麼能夠得到 b,要把公式都算出來,這才叫機器學習。

但是那群搞神經網路人說何必呢?a 就是能得到b,我給你做個神經網路,它能把 a 轉成 b 就可以了,不行的話我再把這個神經網變大一點,不行的話再大一點,再放出更好的,就是能夠變成 b。你看現在,還有人質疑神經網路不夠透明麼?反而是曾經強烈需要因果分析的那些行業(比如高頻交易基金),改變了自己的內部審計方案,直接用端到端測試來解釋自己的策略,而摒棄了所有的因果分析報告。

站在消費主義市場觀察的角度,我覺得 Graph 的未來可能也是這樣,當大模型走到這一步之後,再到下一個週期,可能人們就快忘了為什麼還需要一個 Graph 的存在。可能會被下一代的人認為這是上一代老學究在研究統計學算法

不過,我還是要申明,基礎科學的研究永遠是必要的,我也永遠會力所能及的支持。Graph 在研究領域依舊還有很長很 Promising 的道路。這畢竟也是我奉獻了 10 年的研究背景。哈哈。

更多閱讀

  1. https://www.youtube.com/watch?v=4zrU54VIK6k
  2. https://flock-io.medium.com/what-is-flock-71ac590c4e2d 
  3. https://flock.io/
聯系郵箱:0xniumao@gmail.com