根據谷歌威脅情報組(GTIG)的報告,駭客分子正利用人工智慧模型,企圖規劃大規模的系統漏洞利用行動。該報告指出,情報部門有高度信心記錄到駭客利用AI工具尋找並利用零日漏洞(開發者尚不知曉的軟體缺陷),並成功設計了規避兩步驟驗證(2FA)的方法。儘管谷歌表示其主動的偵測工作可能阻止了這場大規模的攻擊,但事件強烈警示了當前網路安全環境的危險性。
報告強調,即便是投入數十億美元進行防禦強化,駭客仍能利用如OpenClaw這類現成的AI工具來挖掘和發動惡意軟體攻擊。這種趨勢已引起科技巨頭的高度關注。過去,Anthropic因擔心惡意使用者濫用其Mythos模型發現過時漏洞,曾暫緩發布;而OpenAI也已宣布,其最新模型的變體版GPT-5.5-Cyber,正向經過審核的網路安全團隊小範圍預覽。
此外,谷歌的分析更警示,與中國和朝鲜相關的群體已展現出利用人工智慧進行漏洞發掘的濃厚興趣。總體而言,這份報告描繪了一幅令人不安的圖景:生成式AI的爆炸性發展,正直接與網路攻擊的效率和規模掛鉤,使得網路戰的門檻和威脅級別以前所未有的速度提升。
作為一名觀察者,我認為這篇報告的核心價值,遠超過僅僅報告一次「被阻止的」攻擊事件。它標誌著網路安全領域進入了一個全新的「AI驅動的攻防戰時代」。我們正在目睹的是一場能力層面的代差戰。以前的資安防禦,更多是修補已知的漏洞;但現在,攻擊方利用AI的強大推理性,可以在極短時間內繪製出一個「全局攻擊圖譜」,找到人類難以察覺的、鏈結性的系統弱點。
因此,單純投入「更多資金」的防禦策略已經過時。真正的轉捩點必須是體質上的轉變——從「事後修補(Reactive)」過渡到「預測性安全(Predictive Security)」和「行為模型分析(Behavioral Modeling)」。產業和政府需要建立的,不應僅是更強大的防火牆,而必須是能夠監測「意圖(Intent)」和「異常的思考流程」的AI防火牆。這場AI的浪潮,對地緣政治層面的網路穩定性構成了結構性的、系統性的威脅。
原文網頁:Google likely thwarted effort by hacker group to use AI for ”mass exploitation event” (by Samantha Subin)
發佈留言