OpenAI近日公布最新報告,揭露已成功打擊超過20起網路攻擊和輿論操作。2024年全球超過40個國家陸續舉行關鍵大選;然而,隨著生成式AI技術崛起,網絡上與選舉相關的假訊息及深偽(Deepfake)內容呈現爆炸性增長,這些技術也正成為網絡操控者用來影響民主進程的新工具。
OpenAI報告指出,這些威脅行為範圍廣泛,從AI生成的假新聞網站文章,到透過假帳號在社交媒體上發布的訊息無孔不入。這份名為《影響力與網絡操作》的更新報告,旨在呈現當前觀察到的狀況,並識別出初步趨勢,期望突顯AI在網路安全中的重要性,也提醒各國政府和企業應加強對AI技術的監控與防範。
值得注意的是,這份報告發布的時間點,距離2024年美國總統大選不到一個月。除了美國外,今年全球各地的選舉活動頻繁,這也加劇選舉資訊誤導問題的嚴重性。根據數據顯示,與選舉有關的深偽內容在過去一年內增長900%,生成式AI技術所帶來的假訊息風險,不僅影響美國總統大選,也蔓延到印度、歐盟、盧安達等多國的競選活動。
早在2016年美國總統選舉時,俄羅斯相關勢力便利用廉價且便捷的方式,在社交媒體上大規模傳播假訊息。隨後在2020年,社交媒體更充斥著與新冠疫苗及選舉舞弊相關的不實資訊。如今,隨著ChatGPT等生成式AI的廣泛應用,上述影響選舉的風險進一步升高。
報告詳細披露多起利用生成式AI操作的案例,例如:8月底一起來自伊朗的行動中,OpenAI產品被用來生成有關美國選舉及其他主題的長篇文章和社交媒體評論,但大多數的貼文幾乎沒有獲得點讚、分享或評論。
今年7月,OpenAI封鎖盧安達多個ChatGPT帳號,這些帳號被用來發布與選舉有關的內容。此外,5月一間以色列公司也使用ChatGPT生成有關印度選舉的媒體評論,OpenAI則在24小時內解決該問題。
追溯到今年6月,OpenAI處理一起利用其產品生成歐洲議會選舉相關評論的秘密行動,這些評論涉及法國、德國、美國、義大利和波蘭的政治議題。儘管OpenAI辨識出的媒體貼文大多無法吸引大量互動,但部分訊息確實引起真實用戶的回應。
OpenAI已成功阻止多起網絡操控行動,報告中強調,至今尚無一起行動能夠通過使用ChatGPT等AI工具實現「病毒式傳播」或建立持續性的受眾。然而,這些行為表明,生成式AI已成為網絡攻擊者手中的新興武器,並持續對於民主進程構成潛在威脅。