訊息平台

美國政府擴大AI模型測試 強化安全監管

商傳媒|責任編輯/綜合外電報導

美國政府正積極強化對人工智慧(AI)模型的安全評估與監管。隸屬於美國商務部國家標準及技術研究所(National Institute of Standards and Technology)的 Center for AI Standards and Innovation(CAISI)已宣布,將在頂尖企業發布其 AI 模型前,進行安全性測試,此舉旨在識別並降低潛在的安全風險。

CAISI 週二表示,已與微軟(Microsoft)、xAI 及 Google DeepMind 達成測試與目標研究協議,目的為更好地評估前沿 AI 技術能力,並提升 AI 安全的整體水準。這批協議延續了 2024 年與 OpenAI 和 Anthropic 簽署的類似合作,相關內容已依照川普政府(Donald Trump)的新指令進行重新協商。CAISI 主任 Chris Fell 指出:「獨立、嚴謹的測量科學對於理解前沿 AI 及其國家安全影響至關重要。這些擴大的產業合作有助於我們在關鍵時刻,為公共利益擴展工作範疇。」

值得注意的是,Anthropic 上個月發表了全新的 AI 模型 Mythos AI,該模型擅長於識別軟體內的弱點與安全漏洞。Mythos AI 初期僅限於亞馬遜(Amazon)和微軟等特定公司使用,主要應用於防禦性安全工作及「Project Glasswing」這項網路安全計畫。至今,CAISI 已完成了逾 40 次的 AI 模型評估。

與此同時,川普政府也正考慮發布一項行政命令,以建立由白宮主導的 AI 監督流程,顯示美國官方對於人工智慧技術發展的重視及審慎態度。