隨著AI科技逐漸發達,其應用範圍也逐漸擴大,近期有使用者發現,ChatGPT的開發公司OpenAI,將使用規範中的「禁止用於軍事用途」條款刪除,引發外界擔憂AI恐淪為戰爭工具。根據原先的使用條款,裡頭明訂AI技術不得用於「軍事及戰爭(military and warfare)」,不過10日條款更新後,僅提到禁止將AI產品用於「任何可能造成傷害」的用途,並警告不得用來「開發或操作武器」,但卻不復見原先定義較為廣泛的「軍事及戰爭」一詞。
發言人未明確回應「傷害」是否包含軍事用途
條款更新後,外界開始擔心,OpenAI可能淪為戰爭工具,對此OpenAI的發言人尼科·菲利克斯(Niko Felix)解釋,條款的更新是因為公司的產品、服務,已經受到全世界的廣泛使用,所以公司認為,應該創建一套更簡潔明瞭的原則,讓條款的用字遣詞變得更為精簡。雖然新條款中,仍有提及「不要傷害他人」,但發言人並未明確回應,所謂的「傷害」是否包含一切軍事用途,這導致了AI使用範圍出現許多灰色地帶,像是利用AI輔助軍事程式書寫,或是協助進行國防軍事採購,都有導致「戰爭發生」,並可能「製造傷亡」,許多國際專家擔心,OpenAI轉變成更加注重「合法性」而非「安全性」,之前的條款明確規定禁止武器開發、軍事和戰爭,而新條款則側重強調靈活性和遵守法律,恐間接為軍事AI應用敞開大門。
文章授權轉載自《中天新聞網》,按此查看原始文章