近期有報導指出,特斯拉車主麥克·奈爾森(Mike Nelson)已長期在車內使用人工智慧聊天機器人 Grok,並將其視為旅途中的主要娛樂來源。這項在測試階段(beta)推出的 xAI 語音助理,允許駕駛人透過語音指令查詢各種資訊。目前,汽車產業正掀起一場AI整合熱潮,眾多車廠如福斯、賓士等都在試圖提供更便利的、免雙手操作的資訊獲取方式,目標是減少駕駛人分心使用手機。
然而,汽車安全專家指出,這類AI聊天機器人也帶來了前所未有的分心風險。奈爾森的個人體驗展示了其高度的沉迷性,從歷史 trivia 到商業規劃,聊天機器人已取代了傳統的音樂或播客。更令人擔憂的是,他常在啟用「全自動駕駛輔助系統」(FSD)的狀態下使用 Grok,這直接提高了行車風險。
報導詳細描繪了車內互動的危險情境:奈爾森在穿越繁忙的橋樑時,其注意力完全集中在與 Grok 的對話上,完全忽略了周遭的實際行車環境。專家強調,人類在任何時刻都只能專注於一件事,當車載AI的內容過於引人入勝或涉及非行車相關話題時,其分心程度極高。此外,報導還揭露了 Grok 的多重漏洞,包括時有產生錯誤資訊(幻覺)、對設備控制指令的誤判,以及極具爭議的成人內容(NSFW)模式,其潛在危害甚至牽涉到未成年人。總結而言,雖然該技術展現了「神奇」的可能性,但其現階段的實際應用,卻讓許多專家認為它「非常危險」。
身為一位觀察者來看,這則報導核心揭露的並非是AI技術本身的好壞,而是**人機介面(HMI)設計在面對人類認知結構的極限時所帶來的根本衝突**。工業設計的底線在於「任務必要性」與「注意力的分配」。當一個功能性介面(如導航或車聯網)的互動體驗,其誘惑性(Engagement)超過了駕駛的即時風險閾值時,它就從一個「輔助工具」徹底轉化成了一個「心智的黑洞」(Cognitive Black Hole)。
目前的車載AI設計,依然停留在「資訊推送」的層面,未能將其深度綁定在「情境感知」(Context Awareness)的邊界上。一個真正的安全AI系統,不應被設計為一個可以與用戶進行任何話題層級的「聊天夥伴」,而必須是一個極度克制、只在超出安全邊界時才發出警示的「專業副駕駛」。奈爾森的案例完美體現了市場過度樂觀和技術進程過於迅猛之間的鴻溝——當用戶的娛樂需求被完美滿足時,所有關於「安全」的邊界規定,都會被第一時間拋諸腦後。這場技術革命的落地挑戰,終究還是無法迴避地回歸到對人類生理和心理學的嚴格控制與界限劃定上。
原文網頁:Tesla and xAI”s Grok shows promises and risks of AI chatbots in cars (by Robert Ferris)
發佈留言