前Google CEO警告:AI失控可學習殺人,潛藏巨大風險!

這篇報導的核心在於前Google執行長艾瑞克·施密特對人工智慧(AI)潛在危險的警示。施密特指出,AI技術易受駭客攻擊,並且存在被濫用的風險,甚至可能比核武器更具毀滅性。他強調,即使是經過安全措施保護的AI模型,也可能被逆向工程破解,移除其安全防護機制,導致AI產生有害的指令,例如提供犯罪方法或宣揚極端思想。以ChatGPT的「DAN」模式為例,駭客透過威脅手段繞過安全限制,讓AI產生不當內容。

施密特認為,目前缺乏有效的「防擴散機制」來控制AI的風險。儘管如此,他對AI的整體發展前景仍然樂觀,認為AI的潛力遠超預期,甚至可以視為一種「外星智慧」,將挑戰人類在物種鏈上的地位。他以ChatGPT在短短兩個月內獲得一億用戶的現象,證明了AI技術的強大力量。

此外,報導也提及了市場上對AI泡沫化的擔憂,投資者大量資金湧入AI領域,導致估值過高,讓人聯想到2000年初的網路泡沫。然而,施密特並不認為歷史會重演,他相信投資者們看好AI的長期經濟回報,因此願意承擔風險。

我認為這份報導反映了科技界對AI發展的兩面性:一方面,AI的潛力巨大,可能帶來革命性的變革;另一方面,AI的安全性問題不容忽視,需要及早建立有效的監管和防護機制。施密特的警告提醒我們,在擁抱AI的同時,必須保持警惕,並積極應對潛在的風險。

原文網頁:Ex-Google CEO warns AI models can be hacked: ”They learn how to kill someone” (by Sawdah Bhaimiya)

Comments

發佈留言

發佈留言必須填寫的電子郵件地址不會公開。 必填欄位標示為 *