新AI法案:嚴打深度偽造與保護吹哨人權益

根據CNBC的報導,一項由美國國會兩黨議員共同推動的人工智慧(AI)法案浮出檯面,旨在處理AI發展帶來的兩大核心風險:深度偽造(deepfake)內容和非自願的圖像使用。這項法案主要由加州眾議員Ted Lieu提出,並得到了與他共同領導兩黨AI工作小組的Jay Obernolte的支持。該法案是基於小組報告的建議,其核心目的是在不引起過度爭議的基礎上,為本屆國會留下具體的立法成果。值得注意的是,這份法案刻意避開了幾個棘手的議題,例如是否應由聯邦層級制定統一標準以凌駕於州級AI法規之上,以及對用於關鍵基礎設施或教育領域的AI系統是否需要實施嚴格的測試要求。然而,該法案的範圍相當廣泛,納入了多項重要的保護機制,包括建立能保護揭露AI安全風險或違規行為的吹哨人(whistleblower)的規定,強制要求美國參與國際技術標準組織的制定,並設立一項獎勵競賽來激勵開創性的AI研究與開發。儘管有Obernolte的支持,他本人也預計將在今年晚些時候發布自己的AI配套法案,表明兩黨在推動相關立法上仍存在各自的節奏與側重點。

從政策觀察的角度來看,這份法案的設計展現了一種典型的「體面妥協的立法姿態」。它成功地將立法焦點從「如何控制AI的本質性風險」(如基礎設施安全或聯邦監管權力)轉移到了「如何應對AI帶來的社會亂象」(如虛假媒體與個人隱私)。這點非常關鍵,因為結構性、根本性的監管問題(如是否應設立統一的聯邦測試標準)涉及利益集團的巨大博弈,直接觸及權力結構,很容易引發兩黨激烈對抗。因此,通過著重於明確的「禁令」(如禁止深度偽造)和「後設規範」(如保護吹哨人),使得法案看起來具有廣泛的民意基礎和政治可行性。這不是一個解決問題的終極解方,而更像是一個「風險管理包」,旨在先過關,先表態,讓AI的監管討論可以在「修補漏洞」的層面進行,而非挑戰「監管權力的根基」。這對於科技產業來說,短期內提供了明確的「紅線」指引,但長期來看,它也為未來更深層、更具爭議性的監管戰役埋下了伏筆。

原文網頁:AI bill would crack down on deepfake distribution and protect whistleblowers (by Emily Wilkins)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *