近日,網絡上流傳一段視頻,顯示「球王」美斯身穿唐裝向中國和香港球迷拜年,並稱因「接收到的信息有偏差」導致他未能參加在香港的比賽,並承諾將在調查清楚後公布「真相」。然而,這段視頻疑似是利用AI合成技術製作的,使美斯成為了深偽技術(Deepfake-深度偽造)的另一受害者。
社交媒體上的討論顯示,深偽技術是一個持續受到關注的熱門話題,在過去一年中,相關帖子的數量超過了360萬條。 今年1月,當代音樂和文化的重要代表人物 Taylor Swift 也成為了受害者,社交媒體上出現了大量由人工智能生成的不雅圖片,這些圖片在被移除前已被觀看超過4,500萬次。這些事件不僅突顯了深度偽造技術可能帶來的威脅和挑戰,也引發了對現有法律和社會道德規範是否足夠應對這類新興技術濫用的廣泛質疑。
深度偽造技術的興起最初源於學術界和研究人員。然而,《Motherboard》一篇由Vice出版的報道指出,2017年,一名Reddit用戶「deepfakes」利用開源代碼開發了製作虛假視頻的算法。儘管Reddit禁止了這位用戶,這種技術卻迅速擴散。初期,製作深度偽造影像需要已有的視頻、真實的聲音以及熟練的編輯技巧。如今,生成式AI系統使用戶能夠僅憑簡單的文字提示就創造出逼真的圖像和視頻。隨著AI公司將新工具應用到網絡上廣泛的資料庫中,從YouTube到圖片和視頻庫,這些數字偽造品變得愈發難以辨識。
2023年5月,當網上傳播一張五角大樓著火的圖片後,美國股市經歷了一陣急劇下跌。同年2月,一段製造的音頻片段聲稱像尼日利亞總統候選人·阿布巴卡正在密謀操縱當月的選票。2021年,一段在社交媒體上發布的一分鐘視頻似乎顯示烏克蘭總統澤連斯基告訴他的士兵向俄羅斯投降。
深度偽造影像的技術讓人們擔憂,它們最終可能變得如此逼真,以至於真假難辨。想像詐騙者通過製作偽造的企業領袖發布更新視頻來操縱股價,或是偽造士兵犯下戰爭罪行的視頻。政治家、商業領袖和名人尤其面臨風險,因為網上有大量關於他們的錄音。春節期間,大家可能看過領導人唱賀年歌的深度偽造片段。
雖然生產深度偽造影像的機器學習技術不易被逆向應用檢測,但如荷蘭的Sensity AI和愛沙尼亞的Sentinel等少數初創公司,以及許多大型美國科技公司正在開發檢測技術。英特爾公司於2022年11月推出的FakeCatcher產品聲稱能通過觀察皮膚上血流引起的細微顏色變化,以96%的準確率檢測假視頻。包括微軟公司在內的企業承諾在使用其AI工具創建的圖像中嵌入數字水印,以區分它們為假。
美國聯邦通信委員會於2月8日宣布,對公司使用AI生成的語音進行自動撥號電話是違法的,這項禁令是在對一家負責製作拜登總統音頻深度偽造的公司發出停止和緩令兩天後實施的。新罕布什爾州居民在州總統初選前收到彷彿是拜登敦促他們留在家中並「為11月選舉保存您的票」的自動撥號電話,語音甚至使用了拜登的標誌性語句:「真是胡說八道。」目前美國還沒有禁止深度假影像的聯邦法律。一些州已實施關於深度假影像色情內容的法律,但在全國範圍內的適用存在不一致性,使受害者難以對創造者追究責任。歐盟提出的AI法案將要求平台將深度假影像標記為此類內容。
面對深偽技術的挑戰,準確辨識信息的真實性顯得格外重要。我們需加強警覺,透過多元來源驗證,以篩選潛在的虛假信息。
文:劉偉良(Eden)/社交媒體商業應用公司天勤(Tocanan)首席執行官