科技部發布AI使用規範:生成式AI在申報材料中禁用



近日,科技部監督司發佈了《負責任研究行為規範指引(2023)》,對人工智慧(AI)在科研領域的使用進行了規範。其中,生成式AI被明確禁止直接用於生成申報材料,同時不得將其列為成果共同完成人。這一規定旨在加強科研行為的規範性,確保科技倫理要求得到貫徹執行。

生成式AI是一種新興技術,能夠根據輸入的文本自動生成全新的、真實的文本內容。近年來,隨著深度學習技術的不斷發展,生成式AI在各個領域得到了廣泛應用。然而,由於其生成的內容可能存在不可控的風險,因此在使用過程中需要嚴格遵守相關規定。

科技部此次發佈的《指引》明確指出,不得使用生成式AI直接生成申報材料。這意味著,在科研項目的申報、評審和結題等環節,研究人員必須自行撰寫相關材料,不得依賴生成式AI來生成虛假或誤導性的資訊。這一規定有助於保障科研成果的真實性和可信度,防止出現學術不端行為。

同時,《指引》還強調了科研人員在研究過程中的倫理責任。科研人員應把科技倫理要求貫穿到研究活動的全過程,確保研究行為符合倫理準則。此外,針對成果發佈問題,《指引》要求公佈突破性研究成果和重大研究進展應經所在科研單位同意,未經科學驗證或同行評議的研究成果不得向公眾傳播。

這些規定的出臺,對於規範科研行為、提高科研成果質量具有重要意義。同時,也為生成式AI在科研領域的應用提供了明確的指導原則。未來,隨著技術的不斷發展和應用場景的拓展,生成式AI在各個領域的應用將更加廣泛。在此背景下,加強對其使用的管理和規範,對於保障科技倫理、促進科技創新具有重要意義。

總之,《負責任研究行為規範指引(2023)》的發佈為科研人員在使用生成式AI時提供了明確的指導原則。在未來的科研工作中,研究人員應嚴格遵守相關規定,確保研究行為的規範性和倫理要求得到落實。(數據支持:天眼查)

聯系郵箱:0xniumao@gmail.com