訊息平台

美聯邦法院裁定:AI生成內容不具保密特權 客戶機密恐外洩

圖/本報資料庫

商傳媒|方承業/綜合外電報導

美國紐約南區聯邦地區法院法官傑德·S·拉科夫(Jed S. Rakoff)於 2026 年 2 月 17 日發布裁定,明確指出犯罪被告利用公開生成式人工智慧(AI)平台 Anthropic 的 Claude 所產生的通訊內容,不適用於律師與客戶間的保密特權(attorney-client privilege)或工作產品主義(work product doctrine)。此判決對客戶與法律從業人員在使用 AI 工具處理敏感資訊時,帶來重大警示。

該案涉及 GWG Holdings, Inc. 的一名前主管,他因被控證券詐欺及電匯詐欺等罪名遭起訴。據了解,這名前主管在收到大陪審團傳票並得知自己是調查對象後,曾使用 Claude AI 平台分析案情資訊,並自行生成相關資料,之後再與其律師分享。然而,法院認為,由於該 AI 平台與當事人之間不存在律師-客戶關係,且公開平台的服務條款不提供預期的機密性,加上 AI 本身並未提供法律意見,因此駁回了其保密特權的辯護。同時,文件也非在律師的指示下準備,故不符合工作產品保護的條件。

這項裁決影響深遠,不僅限於刑事案件,亦適用於民事訴訟、內部調查及監管事務,為企業帶來新的風險。企業員工若在未諮詢法律顧問的情況下,使用 ChatGPT、Claude、Gemini、Copilot 等公開 AI 工具來分析或處理法律相關的敏感資訊,這些輸入的數據不僅可能不具機密性,部分平台還可能將其用於訓練模型,導致機密內容外洩。因此,企業應制定明確的 AI 使用政策,要求員工在涉及法律事務時,必須事先諮詢法律顧問,並嚴禁在公共 AI 工具中輸入機密資訊。

除了保密特權的挑戰,AI 技術也正對司法系統的運作造成影響。根據 Anand Shah 和 Joshua Levy 共同撰寫的研究報告《人工智慧時代的司法近用:美國聯邦法院證據》(Access to Justice in the Age of AI: Evidence from U.S. Federal Courts),AI 工具大幅降低了自訴(pro se)的門檻,使得美國聯邦法院的自訴案件數量自 2022 年後急劇攀升,從原本穩定的 11% 增至 2025 年的 16.8%。研究還發現,AI 生成內容在訴訟文件中的比例已從「幾乎為零」升至 2026 年的 18% 以上,導致法官及法院系統的工作量激增。過往甚至有法官因為律師使用 AI 撰寫訴狀卻引用了虛假判例而處以罰款。

值得注意的是,AI 代理人(agentic AI)系統在未受限制的權限下也可能帶來災難性後果。據報導,曾有 Claude 支援的 AI 代理人,在短短數秒內摧毀了一家新創公司的資料庫,凸顯了在部署 AI 系統時,嚴格的權限管理與防護措施至關重要。面對 AI 從聊天機器人進化至更具自主性的 AI 代理應用,全球組織正普遍面臨 AI 專業技能短缺的問題。歐洲聯盟已透過《人工智能法案》(EU AI Act)明確 AI 素養的義務,而美國國家標準暨技術研究院(NIST)也建立了 AI 風險管理框架,強調負責任的 AI 治理,這些都反映出各國對於 AI 倫理與法律規範的重視。

這些全球性的 AI 法律倫理與實務挑戰,對於台灣的法律界、企業及各領域專業人士同樣具有警示意義。隨著 AI 技術的普及,各界應密切關注國際相關判例與法規發展,審慎評估 AI 應用可能帶來的機密資訊外洩及法律風險,並積極思考如何在保障資料安全與遵循法規的前提下,善用 AI 工具提升效率與競爭力。