關於AI監管,馬斯克再“搖旗吶喊”,秀克納克也發出警告!



當地時間週四,全球首屆人工智慧安全峰會在英國落下帷幕,馬斯克英國首相秀克納克探討AI的對話頗受業界矚目。

其中,馬斯克再呼籲要豎起AI監管大旗,秀克納克也警告稱AI可能會帶來核戰爭規模般的風險。


AI監督


在兩人的對話中,馬斯克將人工智慧描述為“歷史上最具顛覆性的力量”,並表示我們最終將“擁有比最聰明的人類更聰明的東西”。

同時,他也將人工智慧比作一把”雙刃劍”。這項技術在他看來至少有80%的機率對人類有益,20%的機率會帶來危險,有可能成為人類面臨的“最大威脅”之一。

“人工智慧很可能成為一股向善的力量,但它變壞的可能性並不是零。”

對於人工智慧將如何影響工作時,馬斯克預測人類勞動力將被淘汰。

“總有一天,我們將不需要工作。如果你想找一份工作來滿足個人需求,你可以找一份工作,但人工智慧將能夠做一切事情。”

“這是否會讓人們感到舒服還不清楚,未來的挑戰之一將是我們如何找到生活的意義。”

關於監管,馬斯克最新表示,監管“確實會很煩人,但我認為多年來我們已經瞭解到,有裁判是一件好事。”

他指出,應設立一個中立的“第三方裁判”機構以監督AI公司的開發活動。這將有助於及時發現領先AI公司的活動趨勢和潛在問題。

同時強調,制定有效的AI監管規則需要對其發展有深入瞭解,因此,他並不擔心在沒有充足理解的情況下過早制定相關規則。

關於政府應該採取哪些措施來“管理和減輕”人工智慧的風險時,馬斯克確認需要政府幹預,並表示他不同意“不到 1% 的監管”。 

近十年來,馬斯克一直在警告人工智慧可能威脅人類的生存。當人工智慧潮席捲全球之際,今年7 月,馬斯克宣佈他正在組建xAI來“理解現實”。他曾表示:“從人工智慧安全的角度來看,一個具有最大好奇心、試圖理解宇宙的人工智慧將是有利於人類的。” 

馬斯克和秀克納克一致認為,可能需要物理“開關”來防止機器人以危險的方式失控,並參考了《終結者》系列電影和其他科幻電影。秀克納克稱:“所有這些具有相同情節的電影基本上都以人關掉它而結束。”

會上,秀克納克也警告說,AI可能會給人類帶來與核戰爭規模相當的風險。他對先進的AI模型給公眾帶來的風險感到擔憂。

“開發這項技術的人們已經提出了AI可能帶來的風險,重要的是不要對此過於危言聳聽。關於這個話題存在爭議。業內人士對此看法並不一致,我們也無法確定。”

“但有理由相信,它可能會帶來與大流行病和核戰爭規模相當的風險,這就是為什麼,作為領導人,我們有責任採取行動,採取措施保護人民,這正是我們正在做的事情。”


《布萊切利宣言》


此前一天,在這場人工智慧安全峰會上,英國政府公佈了《布萊切利宣言》。

這是一份來自中國、印度、美國和歐盟等28個國家和地區的代表簽署通過的全球首個人工智慧協定,旨在解決前沿人工智慧模型可能會面臨的失控和濫用的風險,警告人工智慧可能造成“災難性”傷害。

關於AI監管,馬斯克再“搖旗吶喊”,秀克納克也發出警告!插图1

宣言指出,AI為全球帶來了巨大的機遇,它有潛力改變或增強人類福祉、和平與繁榮。同時,AI還帶來了重大風險,包括在日常生活領域。

“所有問題都至關重要,我們確認解決它們的必要性和緊迫性。”

AI能產生的許多風險本質上是國際性的,因此最好通過國際合作來解決。

“為了實現這一點,我們申明,為了所有人的利益,AI應該以安全、以人為本、值得信賴和負責任的方式設計、開發、部署和使用。”

宣言提到,鼓勵所有相關行為者就衡量、監測和減輕潛在有害能力以及可能出現的相關影響的計劃提供適合具體情況的透明度和問責制,特別是防止濫用和控制問題以及其他風險的放大。

在合作的背景下,宣言重點關注兩個要點:一、識別共同關注的AI安全風險,建立針對它們的科學和基於證據的“認識理解”,並在能力不斷增強的情況下維持這種認識理解,以更廣泛的全球方法來了解AI對我們社會的影響。

二、各國各自制定基於風險的政策,並酌情開展合作。“為了推進這一議程,我們決心支持一個具有國際包容性的前沿人工智慧安全科學研究網路,以對尚未完全瞭解的人工智慧風險和能力加深理解。”

據悉,下一屆人工智慧安全峰會將於 2024 年由韓國和法國主辦。

文章來源:格隆匯

聯系郵箱:0xniumao@gmail.com