商傳媒|責任編輯/綜合外電報導
美國政府正加速對人工智慧(AI)領域的監管布局,川普總統主政下的白宮正研擬一套針對尖端AI模型的「審查系統」。此系統旨在要求AI實驗室在模型公開發布前,向聯邦政府提供「首次存取權」,以評估其潛在的國家安全風險。
根據《Default》報導,這項審查機制將著重於AI模型的網路安全能力。其中一個引發關注的案例是Anthropic公司,該公司選擇不發布其最新模型Mythos,因其具備識別和利用軟體漏洞的能力。Mythos已提供給特定的私營利益相關者及聯邦政府進行防範評估,英國的The Alan Turing Institute(U.K. AI Security Institute)曾評估指出,Mythos能以一定可靠性執行多達32步驟的企業網路攻擊,而人類需耗時20小時才能完成。
業界專家擔憂,面對這些先進的AI工具,許多網路安全措施不完善的實體可能準備不足,尤其小型企業、非營利組織以及地方政府,普遍缺乏足夠的技能和資源來應對這些潛在威脅。
《Stratfor》報導指出,包括微軟、xAI和Google DeepMind在內的多家美國領先AI公司,已與美國商務部簽署協議,允許政府在其AI模型公開發布前,進行國家安全風險審查。這些協議的達成,顯示產業對政府介入監管的態度,或預期未來監管將更趨嚴格。
目前,這項審查系統傾向採自願模式,由Center for AI Standards and Innovation(CAISI),一個隸屬於美國商務部國家標準及技術研究所的單位,負責進行部署前的模型評估。若CAISI發現模型可能對關鍵基礎設施或公共安全構成網路威脅,可將資訊分享給網路安全暨基礎設施安全域性(CISA),後者可依據2002年國土安全法案的授權,採取進一步行動。
雖然美國政府考慮動用如1950年國防生產法、國際緊急經濟權利法和1934年通訊法案等現有法律來強制執行AI模型審查,但目前判斷可能性較低。值得注意的是,前總統拜登曾在2023年發布行政命令,藉1950年國防生產法要求進行AI模型測試,但川普總統已於2025年撤銷該命令。這意味著當前的AI監管方向,是在現任政府主導下的新框架。
此外,人工智慧在政府部門的應用也日益普及。Google Cloud的Gemini for Government便旨在協助政府機構提升生產力,邁向「代理式工作力」(agentic workforce)。但不同於商業應用,政府機關在導入AI時,合規性、安全認證、資料駐留和隱私控制等要求,成為推動AI應用的首要考量,這些考量亦在全球範圍內,如歐盟的Cyber Resilience Act,形成對AI開發者的壓力,促使AI系統從設計之初即符合規範。







