訊息平台

憂人類存亡?800名科技領袖籲暫停發展「超級智能」

圖/AI示意圖

商傳媒|記者責任編輯/綜合外電報導

人工智慧界掀起前所未見的示警浪潮,根據《CNBC》報導,全球超過800名科技與政策領袖共同發表聯署聲明,呼籲各界立即暫停研發「超級智能」(Superintelligence),這種可能超越人類智慧的AI系統。簽署人包括蘋果共同創辦人史蒂夫.沃茲尼克(Steve Wozniak)、美國前國安顧問蘇珊.賴斯(Susan Rice)、AI先驅喬書亞.本喬(Yoshua Bengio)、傑佛瑞.辛頓(Geoff Hinton),以及加州大學柏克萊分校AI安全專家史都華.羅素(Stuart Russell)等重量級人士。

上述聲明指出,「超級智能的出現已引發廣泛憂慮,從經濟淘汰與人類權力被削弱,到自由、尊嚴、國家安全,甚至人類滅絕風險。」聯署人呼籲各國政府與科技公司,在取得充分的公眾共識與明確的科學安全保障之前,應暫停一切超級智能AI的研發與部署。聲明進一步強調,AI快速演進已遠超監管與倫理討論的速度,「若無有效的社會與法律機制,任何形式的超級智能開發都不應繼續推進」。

除了AI學者與企業家外,這次聯署名單也涵蓋媒體人物、宗教領袖與前政界人士。簽署者包括維珍集團創辦人布蘭森爵士(Richard Branson)、前美軍參謀首長聯席會議主席麥克.馬倫(Mike Mullen)、英國王室成員梅根.馬克爾(Meghan Markle),以及美國前總統川普的媒體盟友史蒂夫.班農(Steve Bannon)與格倫.貝克(Glenn Beck)等人。這份聯署名單發布後激起廣大迴響,截至週三名單仍在增加中。

近年來,「超級智能」已成AI產業的熱門名詞;包括馬斯克創辦的xAI、OpenAI及Meta等科技巨頭,正爭相開發更高階的大型語言模型(LLM)。Meta甚至將其AI部門命名為「Meta Superintelligence Labs」,顯示全球科技巨頭已將「超智競賽」視為下一階段主要戰場;然而,多位AI安全專家警鈴大作,提醒當前人工智慧尚未具備可完全控制與可驗證的安全框架,若未設限開發,可能導致社會結構崩壞與人類自主權喪失。

AI倫理學者指出,這份聯署代表科技界內部首次大規模自我警示,象徵「AI發展的社會契約」需重新定義,多國政府已開始研究監管超級智能的立法架構,包括歐盟AI法案(EU AI Act)與美國國會AI安全草案;不過目前尚無任何國際協議對「超級智能」的定義與發展門檻作出統一規範。聯署人呼籲,全球應共同制定「AI發展暫停協議」,以確保技術進展不超越人類社會可控範圍。