
AI工具大行其道,影響遍及多方面。(資料圖片)
電話中的聲音聽來跟真的沒分別,美國一名母親聽到「女兒」啜泣求救,之後一名男子接過電話,要求支付贖金。但其實女孩的聲音是人工智能(AI)合成,綁架是一場騙局。
AI模糊了真假界線
現今AI網上工具大行其道,專家表示,AI最大的危險是模糊了真實與虛幻的界線,讓網絡罪犯能以廉價又有效的技術,來散播假訊息。
新型詐騙手法震撼了美國當局,不法分子使用網絡上垂手可得、幾可亂真的AI語音複製工具,假冒家庭成員來詐騙其親人。
苦主:AI哭聲與女兒一模一樣
住在亞利桑那州的迪斯特法諾(Jennifer DeStefano)聽到電話那邊傳來:「救我,媽,救我。」她當下百分百肯定那是15歲女兒的聲音,擔心她在滑雪時遇上麻煩,「問題不是那是誰,那就是她的聲音……她哭起來就是那樣」。
民眾沒信心能分辨AI聲音
一項在美國等9個國家訪問了7,000人、上月由美國資訊安全公司麥卡菲實驗室(McAfee Labs)公布的民調中,四分一人表示遇過AI語音詐騙,或聽過別人有類似經驗。70%受訪者表示,沒有信心能「分辨真假語音」。
AI完美模仿愛瑪屈臣聲音
加州大學柏克萊分校資訊學院教授法里德(Hany Farid)表示:「因為現在製作仿真度高的語音非常容易……網上幾乎無人能倖免。這些詐騙正廣泛流行。」
今年初AI初創公司ElevenLabs坦承其語音合成工具可被用於「惡意用途」,先前就有用戶發布透過「深偽技術」(Deepfake)合成的語音,假冒哈利波特系列英國女星愛瑪屈臣(Emma Watson),朗讀希特拉自傳《我的奮鬥》(Mein Kampf)。