Generative AI 隱私漏洞分析及 Secure Inference Frameworks 之實施
導言
Generative Artificial Intelligence 的近期發展,凸顯了 Large Language Models (LLMs) 的實用性與保護 Personally Identifiable Information (PII) 之間存在嚴重的矛盾。
正文
LLMs 內部 PII 的系統性洩露,主因在於訓練階段攝入了海量的抓取數據集。證據顯示,Google Gemini 及 OpenAI 的 ChatGPT 等模型可能會逐字重現聯絡詳情,包括電話號碼及住宅地址,即使該等數據最初並不公開或僅限特定對象閱覽。由於數據經紀商的參與以及模型記憶訓練數據的內在傾向,此現象更趨嚴重。儘管開發者已實施輸出護欄,但研究指出,透過迭代提示或「調查式」查詢,這些護欄經常被繞過。此外,目前的基礎設施無法系統性地從訓練權重中剔除特定 PII,這使得在 GDPR 等現有監管框架下實現全面的「被遺忘權」變得複雜。 針對這些隱私缺陷,Meta 在 WhatsApp 內推出了 「Incognito Chat」,並採用 「Private Processing」 架構。該系統利用 Trusted Execution Environments (TEEs) 確保 AI 推理在安全的雲端環境中進行,而服務提供者並不持有解密密鑰,無法獲取用戶輸入或模型輸出。這與競爭對手的 「無痕」模式有所不同,後者通常會將伺服器端日誌保留 72 小時至 30 日不等。然而,這種架構轉向引入了次生風險:即可能出現問責真空。法律專家與密碼學家指出,缺乏可檢索日誌可能會阻礙針對 AI 導致的損害或非正常死亡事件的法證調查,而聊天記錄在司法證據開示過程中通常至關重要。 與這些機構轉向平行的是,Ambient Computing 應用程式(如 Poppy)的出現,顯示出對聚合多元數據流(包括日曆、電子郵件及地理位置)以提供主動協助的依賴程度日益增加。雖然此類服務聲稱採取零保留政策及加密,但行業趨勢顯示,為了降低與雲端數據集中化相關的風險,處理過程正逐漸向 On-device Processing 轉移。
結論
目前的 AI 領域特徵在於,正向更安全、瞬時的處理環境轉型,以減輕 PII 洩露及未經授權數據保留的持續風險。