Artificial Intelligence 在識別與利用 Zero-Day Vulnerabilities 中的整合

導言

Google 的 Threat Intelligence Group ( GTIG )報告指,一項大規模網絡行動已被瓦解,該行動利用 Large Language Models 識別並利用先前未知的軟件漏洞。

正文

相關行動針對一個基於 Web 的系統管理工具,利用語義邏輯缺陷以繞過 Two-factor Authentication。 GTIG 透過 Python 腳本中出現的 「幻覺」 CVSS 分數及教科書式格式,識別出 Artificial Intelligence 的使用,而此類特徵常見於 LLM 訓練數據。雖然所使用的具體模型尚未確定,但 Google 表示其 Gemini 模型可能未被使用。此事件與更廣泛的觀察結果一致,即來自 China 、 North Korea 及 Russia 的犯罪實體與國家關聯參與者,正日益利用商業 AI 工具,以提升其攻擊能力的速度與規模。 與這些發展同步,如 Anthropic 的 Mythos 等高效能模型的出現,使得防禦姿態必須進行戰略轉移。 Anthropic 限制了 Mythos 的發佈,因其具備識別各大 Operating Systems 及 Browsers 中 Zero-day Vulnerabilities 的能力,隨後成立了 Project Glasswing,以協調各大科技與金融機構之間的安全工作。同樣地, OpenAI 推出了其模型的專門 Cybersecurity 版本,僅限於經過審核的基礎設施防禦者使用。 從政策角度看, United States 政府在 AI 監管方面表現出波動的立場。儘管最初承諾撤銷之前的監管限制,但 Commerce Department 最近與 Google 、 Microsoft 及 xAI 達成協議,在高效能模型公開傳播前進行評估,儘管這些協議的公開記錄隨後被刪除。政策分析師指出,雖然 AI 最終可能促進舊有軟件的加固,但在過渡期內,由於自動化利用的能力目前超過了防禦修復的速度,預計系統性風險將會增加。

結論

目前的局勢特徵在於 AI 驅動的攻擊利用與協調的機構防禦發展之間,正進行一場激烈的競賽。