商傳媒|記者責任編輯/綜合外電報導
長年被諷「駑鈍」的蘋果語音助理Siri,有望迎來最大幅度的進化。根據《彭博》最新報導,蘋果正與OpenAI及Anthropic兩大AI獨角獸洽談合作,內容包括將先進大型語言模型(LLM)整合至Siri系統,力圖全面「革新」其語音助理功能。
蘋果近年積極布局AI,但旗下語音助理Siri仍被市場認為落後於Google Assistant、Amazon Alexa甚至是三星的Bixby。業內人士分析,主要原因在於Siri缺乏上下文理解力與自然語言應答能力,因此無法應對多步驟對話與複雜開放性等問題。
為解決此硬傷,蘋果一方面持續開發自家LLM「Apple Intelligence」,同時也尋求與業界先進模型的整合方案。據悉,目前蘋果正評估OpenAI的ChatGPT模型以及Anthropic的Claude模型,並著手進行私有雲運算環境(Private Cloud Compute)上的內部測試。
報導進一步指出,Anthropic模型在Siri應用上測試表現較佳,但該公司提出數十億美元級別的授權合作條件,令蘋果高層在權衡成本與技術彈性中陷入長考。
蘋果在今年3月公布,Siri將延後至2026年才會全面支援「Apple Intelligence」,引發外界批評其AI進程「跳票」。面對市場反彈與生成式AI進度嚴重落後等批評,蘋果決定將目標提前至2025年iOS 26更新中釋出相關功能,力拚扳回一城。
專業人士分析,蘋果若成功與OpenAI或Anthropic達成合作,除了可強化Siri語意理解力與回應自然度,也能為Apple Intelligence系統「補血」,減輕自研壓力並迎頭趕上AI戰局。事實上,微軟與Google已將AI模型深度融入旗下產品,如:Bing與Gemini,蘋果若想扭轉局面,勢必要加快語音助理的AI演化腳步。