Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

OpenAI 執行長警告:用戶與 ChatGPT 對話恐無法律保護、需強化 AI 隱私保障

OpenAI 執行長警告:用戶與 ChatGPT 對話恐無法律保護、需強化 AI 隱私保障 / Tokenpost

根據彭博(Bloomberg)於 24 日(當地時間)的報導,OpenAI 執行長山姆·奧特曼(Sam Altman)警告,目前用戶與 ChatGPT 互動所產生的內容,具有「可能在法律程序中被提出的風險」,他認為這類缺乏妥善保護的情況正日益成為一項嚴重的隱私問題。

奧特曼近日接受知名播客主持人西奧·馮(Theo Von)訪問時指出,用戶透過 ChatGPT 溝通時所輸入的「敏感資訊與文件」,可能因應法院傳票等法律需求被迫提交。他特別強調,與心理諮商師、律師或醫師的對話依法享有「法律特權」(legal privilege)保護,但目前人工智慧聊天機器人的對話並不涵蓋在此保護範圍內。

他舉例表示:「若你今天和心理師討論私人問題,這段對話依法不得提出於法庭;但如果這段資訊是你告訴 ChatGPT 的,我們現在可能無法拒絕提供它作為證據,這確實是一個問題。」

近年來,ChatGPT 在心理諮詢、健康建議甚至財務規劃等領域的應用日漸普及,也帶動了人工智慧在日常生活中角色的迅速擴張。然而,在缺乏明確法律界線與制度支撐下,用戶個資保障面臨極大挑戰。

奧特曼直言:「這樣的現況是不對的。人工智慧與使用者間的對話,也應該受到和醫師或律師對話同等程度的保護。」他呼籲業界與政府應強化「AI 隱私保護」概念,盡快建立清楚的保障框架,避免未來衍生更廣泛的社會與法律爭議。

評論:隨著生成式 AI 融入更多日常應用場景,用戶在不知情狀態下揭露私人資訊的風險急遽升高。奧特曼的警告點出目前「用戶資料法律地位模糊」的問題,也再次提醒企業與立法機構必須正視 AI 所帶來的新型隱私挑戰。是否應將 AI 對話納入現有的保密法規,成為 AI 發展中的另一項重要法理辯論。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1