根據美國 CNN 的報導,於 24 日(當地時間),美國聯邦參議院推出一項名為《負責任創新與安全專業法(RISE Act of 2025)》的草案,旨在在不犧牲使用者資訊透明的前提下,減輕人工智慧(AI)開發者在高度專業領域中所承擔的法律責任,例如醫療、法律與工程等。草案由共和黨籍懷俄明州參議員辛西婭·盧米斯(Cynthia Lummis)主導,被視為美國針對「專家級 AI」責任問題的首項立法。
根據草案內容,若專業人士如醫師、律師、金融顧問等在服務過程中使用 AI 技術輔助決策,則該技術開發者可在特定條件下免除一部份法律風險。但前提是,AI 的架構與效能規格(如模型卡 Model Cards)必須公開,讓使用者具備足夠資訊以判斷其可信度。換言之,開發者可獲法律保障,但需履行透明公開義務。
儘管立法用意在於降低創新門檻、鼓勵技術應用,但外界批評聲浪也不小。雪城大學(Syracuse University)公共政策院的哈米德·艾克比亞(Hamid Ekbia)教授認為,僅要求 AI 技術文件公開、不必為實際後果承擔責任,形同賦予開發者「廣泛免責權」,而潛在風險將轉嫁至如醫療人員等最前線的專業人士身上。部分進步派社群更批評該法案形同「發給 AI 公司逃避管制的通行證」。
不過,也有專家為立法背書。法律學者費利克斯‧希普克維奇(Felix Shipkevich)指出,高階大型語言模型的輸出經常充滿不確定性,若將無限法律責任加諸開發者,反而阻礙創新。他認為,「只要開發者不存在明顯過失或惡意,部分免責屬合理作法。」評論:這樣的觀點突顯了當今科技與法制之間的權衡取捨。
值得注意的是,RISE 法案的適用範圍有限。例如,只涵蓋臨床醫師或財務顧問等在執業過程中借助 AI 的場景,不包括 AI 與一般使用者直接互動所造成的後果。像佛羅里達州一名青少年因與虛擬 AI 朋友互動後不幸自殺的案件,便屬於法律範圍之外。
此外,該草案的方向與歐洲聯盟(EU)政策大不相同。EU 於 2023 年通過《人工智慧法案》,採用以人權為本的監管模式,優先保障使用者、消費者與病患等一般民眾的權益。而美國目前根據風險程度調整責任,僅要求開發者公布技術細節,因此被批評用戶保護力不足。AI 研究組織「AI 未來計畫」理事丹尼爾‧科科塔伊洛(Daniel Kokotajlo)便指出,目前透露的內容僅涉及最低程度的透明義務,甚至開放企業選擇是否承擔責任,問題不小。
產學界也呼籲政府制定現實可行、系統性的規範。兼具醫師與律師身分的英國薩里大學(University of Surrey)教授萊恩‧艾博特(Ryan Abbott)表示,AI 在醫療領域應用的責任問題尤其棘手,許多情況下 AI 的建議比人類還精準,因此應建立明確標準,以辨別責任歸屬。
雖然法案尚未確定能否成功通過參議院審議,但業界多數對其樂觀看待。「美國負責任創新的倡議組織(ARI)」政策副總裁賈斯汀‧布洛克(Justin Bullock)指出,RISE 法案一方面提供了透明度指南與風險範圍界線,另一方面也將責任設定於專業人員權限範疇內,是「推進技術實用化的良好起點」。但他也提醒,若無外部審核與風險評估機制,僅靠技術說明可能導致「虛假安心效應」。
目前川普總統積極強化對消費者保護機關的掌控,此一法案朝企業友善方向傾斜的設計,再次引發制度性傾斜的擔憂。若最終通過,RISE 法案預計將於 2025 年 12 月 1 日正式生效。伴隨 AI 技術日漸深入人類生活,如何建立一套兼顧創新與責任的監管機制,將成政策制定者未來的關鍵挑戰。
關鍵詞:RISE 法案、AI 法律責任、專家級 AI、AI 開發者免責、歐盟 AI 法案、AI 與醫療責任
留言 0