訊息平台

OpenAI陷自殺爭議 將加強ChatGPT防護及父母監控機制

圖/AI示意圖

商傳媒|記者責任編輯/綜合外電報導

美國AI巨頭OpenAI在遭遇首宗與自殺事件相關的產品責任訴訟後,正式對外說明:將強化ChatGPT在「敏感情境」下的應對機制,並推出新控管功能,以回應外界對AI安全性的疑慮。

根據《NBC新聞》報導,美國一名16歲少年萊恩(Adam Raine)去年透過ChatGPT獲取自殺資訊後選擇結束生命,其家屬於27日正式向法院提出產品責任與過失致死訴訟,指控OpenAI「積極幫助Adam探索自殺方法」。該案目前仍在審理階段,OpenAI並未在部落格聲明中直接提及此案。

OpenAI於官方文章《Helping people when they need it most》中強調,ChatGPT已內建引導有自殺念頭的用戶尋求協助的安全機制,但承認在長時間對話後,模型可能會出現偏離設計的回應。公司表示將持續改進,包括:

  1. 升級GPT-5模型:近期更新將讓系統更能降溫(deescalate)對話,避免強化危險念頭。
  2. 專業心理支持:研究如何將用戶快速轉介給合格的心理師,甚至可能建立專業諮商網絡,讓使用者能直接透過ChatGPT連線。
  3. 親友支持連結:探索協助用戶主動聯繫身邊親友,降低孤立風險。
  4. 青少年管控功能:即將推出家長監控選項,讓父母能更清楚掌握未成年子女使用ChatGPT的情況。

不過,代表萊恩家屬的律師埃德爾森(Jay Edelson)接受《CNBC》訪問時批評,OpenAI至今未與家屬直接聯繫,亦未表達哀悼。埃德爾森直言:「當你操作全球最強大的消費性科技產品時,外界必須相信創辦人具備道德羅盤。問題是現在誰能信任OpenAI?」

值得注意的是,Raine案並非唯一案例。《紐約時報》本月刊登作家Laura Reiley的專欄,揭露其29歲女兒在與ChatGPT長時間討論後選擇自殺。佛州亦發生14歲少年Sewell Setzer III在使用另一款AI應用Character.AI後輕生的悲劇。

隨著AI聊天服務廣泛滲入情感陪伴、心理慰藉等領域,外界對其潛在風險日益憂慮;然而,如何在保障用戶安全與維持創新間取得平衡,仍存重大挑戰。

就在相關爭議升溫之際,OpenAI總裁布羅克曼(Greg Brockman)與多家AI新創、創投及產業高層,本週宣布成立政治倡議組織「Leading the Future」,主張反對任何「扼殺創新」的AI監管政策。此舉突顯AI產業儘管面臨社會責任與倫理質疑,仍積極進軍政策遊說戰場。