維塔裡克·布特林:人工智慧可能會超過人類,成為頂尖物種;



Etherum聯合創始人維塔利克·布特林表示,如果不加以遏制,超級先進的人工智慧很有可能超過人類,成為地球上的下一個“頂端物種”。

但他表示,這將歸結為人類可能如何幹預人工智慧的發展。

新的怪物帖子:我自己對最近圍繞技術樂觀主義、人工智慧風險和如何避免21世紀極端集中化的辯論的看法。https://t.co/6lN2fLBUUL pic.twitter.com/h5aIyFNCoh

– vitalik.eth(@VitalikButerin)十一月27,2023

在11月27日的一篇部落客文章中,被一些人視為加密貨幣領域的思想領袖的布特林認為,人工智慧與其他最近的發明–如社交媒體、避孕、飛機、槍支、輪子和印刷機–有“根本的不同”,因為人工智慧可以創造一種新型的“思維”,可以與人類的利益背道而馳,並補充道:

“人工智慧是[……]這是一種新型思維,它的智力正在迅速增長,它很有可能超過人類的智力,成為地球上新的頂尖物種。

布特林認為,與氣候變化、人為流行病或核戰爭不同,超智能人工智慧可能會終結人類,沒有幸存者,特別是如果它最終將人類視為對自身生存的威脅。

“人工智慧出錯的一種方式可能會讓世界變得更糟,那就是(幾乎)最糟糕的方式:它可能真的導致人類滅絕。”

“即使是火星也可能不安全,”Buterin補充道。

Buterin引用了2022年8月來自4270多名機器學習研究人員的一項調查,他們估計人工智慧殺死人類的可能性為5%-10%。

然而,雖然Buterin強調這種性質的主張是「極端的」,但人類也有獲勝的方法。

大腦接口與技術樂觀主義

Buterin建議整合腦機接口(BCI),為人類提供對基於人工智慧的計算和認知的強大形式的更多控制。

腦機接口是大腦的電活動和外部設備(如電腦或機械臂)之間的通信路徑。

Buterin說,這將把人與機器之間的雙向通信循環從幾秒減少到幾毫秒,更重要的是,確保人類在世界各地保留一定程度的「有意義的代理」。

維塔裡克·布特林:人工智慧可能會超過人類,成為頂尖物種;插图1
這張圖描繪了人類和AI之間兩種可能的反饋迴路。來源:Vitalik.eth

Buterin表示,這條路線將「更安全」,因為人類可以參與AI機器做出的每個決定。

“我們(可以)減少將高層規劃責任交給人工智慧本身的動機,從而降低人工智慧獨自做一些與人類價值觀完全不一致的事情的可能性。”

這位Etherum的聯合創始人還建議,將人工智慧帶向造福人類的方向,這是因為利潤最大化並不總是將人類引導到最理想的道路上,這是一種積極的人類意圖。

人類內心深處是善良的。Pic.twitter.com/AbOfd75IJ4

– vitalik.eth(@VitalikButerin)十一月27,2023

布特林的結論是,“我們人類是宇宙中最明亮的恆星”,因為我們已經開發了數千年來開發人類潛力的技術,希望未來還會有更多:

20億年後,如果地球或宇宙的任何部分仍然承載著地球生命的美麗,那麼太空旅行和地球工程等人類手段將使之成為現實。

聯系郵箱:0xniumao@gmail.com