訊息平台

打不過就加入?英國前首相轉職 對AI監管態度大轉彎

圖/AI示意圖

商傳媒|記者責任編輯/綜合外電報導

生成式AI龍頭OpenAI執行長阿特曼(Sam Altman)日前於英國倫敦大學學院(UCL)舉行公開演講,除了深入談論AI的風險與潛能,阿特曼更強調「超智慧系統」將成為經濟成長與社會平等的突破關鍵,主張在監管政策上應保持彈性與審慎。

當天稍早,阿特曼與英國前首相蘇納克(Rishi Sunak,目前擔任微軟及AI新創Anthropic資深顧問與戰略顧問)及DeepMind共同創辦人哈薩比斯(Demis Hassabis)、Anthropic執行長達里歐・阿莫迪(Dario Amodei)會面,針對AI治理與發展方向進行高層討論。

隨著AI發展進入深水區,曾高調示警AI風險的蘇納克(Rishi Sunak),如今態度大轉彎。根據《彭博》報導,英國於2023年舉辦全球首次「AI安全高峰會」(AI Safety Summit)時,邀請特斯拉執行長馬斯克(Elon Musk)到場倡議風險管控,兩年過去,蘇納克近日於新加坡出席「彭博新經濟論壇」的發言,對AI監管態度明顯軟化,蘇納克坦言:「現在的最佳做法,是不要過早進行管制。」

根據外媒報導,近期OpenAI已正式成立「模型治理委員會」(Model Governance Board),由內部高階研究人員及部分獨立顧問組成,負責審查GPT系列模型的更新、安全機制與對社會可能產生的影響。此舉象徵OpenAI將關鍵決策權限逐步下放給模型開發者與執行層,而非依賴外部政策機構進行審核。

過去致力推動AI審查制度的政府首長,如今卻轉向對產業自律與合作機制的強大信心。蘇納克表示,包括OpenAI在內的領導企業,目前正積極與倫敦的資安研究團隊合作,主動讓模型接受審核與壓力測試,並強調「他們是自願接受外部審查的,這在目前階段是正面的跡象。」

2023年舉辦的AI安全高峰會,被視為全球對AI風險的集體焦慮總和,當時包括:深偽技術(deepfake)、模型幻覺、資料偏誤或潛在失控的自我學習能力等爭議一字排開,各國政府與科技業者皆罕見齊聚,討論如何建立「AI版的控管條約」。

然而,OpenAI等公司並未在這兩年放慢腳步,ChatGPT在企業、教育、媒體、醫療等領域急速擴展應用版圖,生成式AI競賽亦由美國延伸至中東與亞洲。在這樣的背景下,各國政府與企業的關係從對抗走向合作,儼然成為趨勢。

蘇納克強調,目前業界仍處於「良好互動階段」,尚未出現企業抵制審查或拒絕合作的情況;不過,蘇納克也補充:「如果哪一天企業改變立場,那就必須再重新審視是否需要進一步監管。」

OpenAI執行長阿特曼(Sam Altman)近年頻頻出席全球政策論壇,強調企業願意與各國政府合作建立風險評估框架。目前OpenAI在倫敦、巴黎、東京與舊金山等城市,均已設立研究中心,專責監測模型倫理、資料來源與社會衝擊。

與此同時,微軟、Google與Anthropic等AI企業也陸續表態支持「紅隊測試」與「沙盒部署」制度,意即在模型推出前,先在封閉環境中模擬各種極端使用情境,這些機制被視為建立「AI信任標章」的第一步;但專家仍提醒,當前並無強制性法規可約束所有業者都遵循類似標準,雖然領導企業願意主動揭露風險與數據處理機制,但新創與邊緣公司若未遵循同樣高標,仍可能造成破口。

英國並非唯一積極參與AI政策討論的國家,歐盟即將實施的《AI法案》(AI Act),明文規範生成式AI模型必須揭露訓練資料來源與使用限制;而美國政府則目前傾向採用「行政命令+產業自律」的混合模式,尚未制定統一聯邦法規。