英國組織警告稱,人工智慧生成的虐待兒童材料可能會淹沒互聯網



英國互聯網監督機構互聯網觀察基金會(IWF)再次就人工智慧生成的兒童性虐待材料(CSAM)的快速傳播敲響了警鐘。在週三發佈的一份新報告中,該組織報告稱,在短短一個月的時間裡,在一個黑暗網路論壇上發現了超過20254張人工智慧生成的CSAM圖像–大量此類令人厭惡的內容可能會“淹沒”互聯網。

隨著生產性人工智慧圖像生成器變得更加先進,創建人類逼真複製品的能力已經突飛猛進。中途、Runway、穩定擴散和OpenAI的Dall-E等人工智慧圖像生成器只是能夠召喚逼真圖像的幾個平臺。

這些廣泛向公眾開放的基於雲的平臺已經實施了大量的限制、規則和控制,以防止邪惡的行為者使用它們的工具來創建辱罵內容。但人工智慧愛好者經常尋找繞過這些護欄的方法。

基金會首席執行官秀克西·哈格裡夫斯在報告中表示:“重要的是,我們要向廣大受眾傳達人工智慧CSAM的現實,因為我們需要討論這項令人驚嘆的技術的陰暗面。”

📓我們發現了專門幫助犯罪分子微調AI圖像生成器的在線手冊,以生成更逼真的AI兒童性虐待圖像。現在,隨著犯罪分子使用真實兒童作為人工智慧圖像生成的模型,我們的專家分析師表示,可以創建新的圖像…Pic.twitter.com/kESw9nZEtD

-互聯網觀察基金會(IWF)(@IWF熱線)2023年10月25日

IWF表示,其“最糟糕的噩夢”已經成真,目前正在追蹤人工智慧生成的性虐待真實受害者的CSAM實例。該英國組織還突出了名人被降齡和被操縱以虐待受害者的形象的照片,以及被操縱的著名兒童的照片。

哈格裡夫斯說:“好像讓受害者知道他們的虐待行為可能在互聯網的某個黑暗角落被分享還不夠,現在他們面臨著自己被虐待的新畫面,這種新的可怕方式是以前從未想像過的。”

IWF指出,仿生人工智慧生成的CSAM的擴散的一個主要問題是,它可能會分散執法資源,使其無法檢測和消除實際的虐待行為。

該基金會成立於1996年,是一個非營利性組織,致力於監測性虐待內容,特別是針對兒童的內容。

今年9月,IWF警告稱,戀童癖團夥正在討論和交換有關使用開源人工智慧模型創建非法兒童圖像的提示,這些模型可以下載到本地並在個人電腦上運行。

IWF表示:“犯罪者可以合法地下載生成這些圖像所需的一切,然後可以離線生成任意數量的圖像,而不會有被髮現的機會。”

這家英國組織呼籲國際合作打擊CSAM的禍害,提出了一種多層次的方法,包括修改相關法律、更新執法培訓,以及建立對人工智慧模型的監管。

對於人工智慧開發人員,IWF建議禁止使用他們的人工智慧來創建虐待兒童材料,對相關模型進行索引,並優先從他們的模型中刪除虐待兒童材料。

哈格裡夫斯在之前與美國分享的一份聲明中說:這是一個全球問題,需要各國共同努力,確保立法符合目的。解密注意到IWF在限制本國的CSAM方面卓有成效。

哈格裡夫斯說:“只有不到1%的犯罪內容被託管在英國,這一事實表明我們與英國警察部隊和機構建立了良好的合作夥伴關係,我們也將積極與執法部門合作,應對這一令人震驚的新趨勢。”“我們敦促英國首相在11月於英國舉行的全球人工智慧安全峰會上將這一問題牢牢提上議事日程。”

雖然IWF表示,在英國託管非法CSAM的暗網論壇正在被拆除,但該組織表示,如果網站託管在其他國家,拆除可能會更加複雜。

有許多協調一致的努力來打擊濫用人工智慧。今年9月,微軟總裁布拉德·史密斯建議效仿金融機構的政策,使用KYC政策來幫助識別利用人工智慧模型傳播錯誤資訊和濫用職權的罪犯。

路易西安那州在7月份通過了一項法律,增加了對銷售和擁有人工智慧生成的兒童色情製品的處罰,該法律稱,任何被判創作、傳播或擁有描繪未成年人的非法深度假圖像的人都可能面臨強制性的5至20年監禁,最高1萬美元的罰款,或者兩者兼而有之。

今年8月,美國司法部更新了關於兒童色情的美國聯盟法律公民指南頁面。如果有任何混淆,美國司法部強調,兒童色情圖片不受第一修正案保護,根據聯盟法律是非法的。

聯系郵箱:0xniumao@gmail.com