
ChatGPT用家注意 專家:密碼及客戶文件等5類資料勿告訴AI
隨著人工智慧(AI)聊天機器人如ChatGPT日益普及,已成為許多人傾訴各種疑難雜症的對象。不過,有專家就警告,別告訴ChatGPT以下五件事,否則會面臨個資外洩的情形。
史丹佛大學「人本人工智慧研究中心」(HAI)研究員Jennifer King向《華爾街日報》指出:「當你把信息輸入聊天機器人後,你就失去了對這些資料的掌控。」
Jennifer列出ChatGPT「5大禁區」如下
1.企業資訊
若在工作中使用ChatGPT等AI工具撰寫電子郵件、編輯文件等,可能會無意中暴露客戶資料、內部文件或尚未公開的業務計劃。即便目前有些企業已使用安全性較高的企業版AI或自家客製化AI系統,但仍必須防範資訊外洩風險。
2.醫療檢測結果
儘管醫療業對於病患隱私相當重視,並會嚴格保護,但AI平台並不在法規保護範圍內,若你想讓AI解釋醫療檢查結果,建議在上傳資料之前,先移除姓名、身份證等個人資料,僅保留必要的檢測數值。
3.帳號與密碼
有些人可能認為,隨著AI執行任務能力有所提高,因此將各平台的帳密資訊交由AI管理,但專家示警,AI並非密碼管理工具,也無法保障你帳號的安全,應該選擇使用「密碼管理工具」來儲存這類資訊。
4.個人資訊
別向ChatGPT揭露任何身分資訊,像是身份證、護照號碼、地址、出生日期、電話號碼等,這些皆屬高度敏感的個人識別資料,雖然一些聊天機器人會遮蓋這些敏感資訊,但最安全的做法就是不要上傳。
五、金融帳戶資訊
絕對不要向ChatGPT提供何銀行帳戶、信用卡資料、投資帳戶等,這些資訊一旦被竊取,可能就會遇到被監控或盜用。
事實上,OpenAI在官網上明確提醒使用者,請勿在對話中分享敏感資料。而Google在其AI產品Gemini頁面也呼籲使用者避免輸入「你不希望審查員看到的機密資訊」。
文章授權轉載自《中天新聞網》,按此查看原始文章