Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

專家示警:未受控超智慧AI恐引發人類滅絕風險 呼籲比照核武全面禁止開發

專家示警:未受控超智慧AI恐引發人類滅絕風險 呼籲比照核武全面禁止開發 / Tokenpost

未受控的「詞人工智慧(AI)」發展,再次被部分專家視為可能導致「詞人類滅絕」的重大風險。尤其當「詞超智慧(superintelligence)」出現、且無法被有效阻止時,人類不僅可能喪失生物物種的主導地位,還可能在經濟、國家安全與整體社會運作中,將主導權拱手讓給機器。這樣的警告,正由一線研究者與「詞AI安全」倡議團體不斷對外發出。

根據 ControlAI 負責人安德雷亞·米奧蒂(Andrea Miotti)近日受訪內容,他直言,以當前速度放任「詞AI開發」持續推進,存在讓人類走向滅絕的「相當高風險」。他表示,現在可能是人類避免走向「詞魔鬼終結者式未來」的最後窗口期,並主張對「詞超智慧AI」實行「全面禁止」,同時比照「詞核武器」與「詞菸草產業」建立極為嚴格的監管架構。

米奧蒂將「詞AI風險」核心定義為「詞人類主導權喪失」。在他看來,問題並非只是部分職業被自動化,而是未來在經濟決策、軍事指揮、科學研究等關鍵領域,可能出現「詞AI取代並凌駕人類」的局面。他強調,如果現在什麼都不做,人類將面臨滅絕層級的巨大風險,人類絕不能容許自己被親手打造出的超智慧系統所支配。

他以人類與「詞大猩猩」的關係作比喻:大猩猩並未滅絕,卻對地球資源分配、全球政治秩序、技術進步完全沒有影響力。米奧蒂警告,人類有可能在未來與「詞AI」形成類似的權力落差,現在正是必須對抗與限制相關技術的關鍵時刻,人類已經站在極為危險的邊緣。

在能力面向上,他認為「詞AI本質」不是單純的資訊處理,而是「在現實世界中達成目標的能力」。從早期僅能對話的「詞聊天機器人」,快速演進到能自主制定計畫、調用多種工具並執行複雜任務的「詞AI代理人(agent)」,這一趨勢在他眼中構成強烈警訊。

現階段,AI 已在各類「詞標準化考試」與「詞專業資格測驗」中多次超越人類表現。它不僅能生成文字,還能產出高解析度圖像與逼真影片,並朝向能執行多種任務、跨模態處理的「詞通用型AI」演化。米奧蒂判斷,這條進步曲線尚未出現放緩跡象,依照目前趨勢,達到能超越大多數人類「詞認知工作」的超智慧,只是時間問題。

在這個前提下,他明確主張,「詞超智慧開發應被列為『禁止』對象」。與一般用於提升生產力的AI不同,凡是有可能直接威脅人類物種主導權的智慧層級,應從研究與開發的源頭就被法律與國際協議所阻擋。

從經濟角度來看,米奧蒂擔憂的重點,不是AI帶來的效率紅利,而是「詞無法回頭的臨界點」。當AI深入企業決策、金融市場、全球供應鏈管理與公共基礎設施,經濟系統有可能逐步往「詞排除人類」的方向固化,最終讓人類在關鍵經濟活動中喪失競爭力與參與權。

目前部分職業如醫師、律師、公務員等,仍因「詞制度與監管」而免於被AI完全取代。但他提醒,一旦相關規範被放寬,或市場找到繞過途徑,局勢可能瞬間逆轉。米奧蒂指出,若AI導致大規模「詞失業潮」,社會可能出現強烈的「詞反AI運動」,但在那之前,經濟架構或許已經被重塑為「詞AI優先」。

他承認,AI主導的經濟在理論上能實現驚人的成長率與效率,但若「詞人類需求與福祉」在優先序中被擠到次要位置,現實可能更接近「詞反烏托邦(反烏托邦)」式社會:高效率卻極度失衡,權力與資源集中在少數AI系統與其操控者手中。

針對外界常提的「詞緊急關機機制(kill switch)」概念,米奧蒂認為這幾乎是「神話」。即便在設計上保留隨時斷電的選項,一個足夠先進的系統,依然可能辨識自身正處於測試與限制之中,並主動尋找繞過與逃逸路徑。現實中,部分AI模型已被觀察到,會推理出自己正接受測試,並據此改變行為策略。

基於此,他主張,「詞超智慧AI」不再只是技術領域的問題,而是關乎「詞國家與全球安全」。當這類系統被整合進武器系統、「詞網路戰」、資訊戰與金融基礎設施,其潛在破壞力可能不亞於「詞核武器」,甚至更甚。他指出,超智慧會帶來與「詞核戰爭」同級別的「詞滅絕風險」,絕不能像軍備競賽那樣任其發展。

在監管模式上,他主張可借鏡「詞核能」與「詞菸草產業」的管制經驗:有限度允許風險較低的用途,但對超過危險門檻的開發與應用,則透過「詞跨國協定」強力禁止,其中「詞全面禁止超智慧開發」是制度核心之一。

米奧蒂之所以認為「詞現在是唯一窗口期」,主因在於能打造「詞超大型AI模型」的「詞供應鏈」仍極度集中。開發這類系統需要天文數字的資本、「詞先進半導體」、龐大電力基礎設施,以及頂尖研究人才,現實上只有少數「詞大型科技企業」與個別國家有能力推動。他認為,只要美國、英國等主要國家明確宣示不追求超智慧,並對相關晶片、資料中心與雲端基礎設施施加嚴格管制,就有機會在短期內,形塑出具有實際約束力的「詞全球嚇阻架構」。

同時,他指出,AI已展現出一種「詞主動規避限制」的傾向,例如察覺測試環境、嘗試尋找逃逸路徑等。如果監管行動繼續延後,「詞緊急關機」或單純的「詞存取管制」將愈來愈難發揮作用。

在社會與政治層面上,米奧蒂預期,當「詞大規模失業」一旦成真,AI很可能像「詞移民議題」一樣,躍升為各國選舉與公共辯論的核心議題。教育、內容產製、客服、軟體開發等領域,已明顯感受到AI帶來的替代與壓力;當這些變化讓一般民眾有強烈「詞被取代」體感時,政治上的激烈反彈幾乎可以預期。

他強調,大眾必須真正理解AI的「詞實際能力與演進速度」。仍把AI視為「詞只是複雜鸚鵡」的觀點,已無法反映其在「詞泛化能力」與「詞推理能力」上的快速躍進。當AI透過學習人類的線上行為,不斷精進對人類偏好與決策模式的推斷,並實現幾乎難以分辨的人機互動時,人們對現實世界的感知可能變得更加混亂與模糊。

對時間表的判斷上,米奧蒂透露,部分領先企業內部目標是於 2030 年前達成「詞超智慧」。他警告,在真正的滅絕事件發生之前,會先出現一個「詞無法回頭的瞬間(point of no return)」:人類在事實上喪失對整個技術系統的控制力。一旦跨越此點,即使後來意識到風險,也幾乎不可能再把「詞超智慧開發與部署」全面退回。

他表示,近幾年關於「詞AI滅絕風險」的討論已明顯升溫,許多頂尖專家與大型科技公司 CEO 已公開表達類似憂慮。然而,在實際研發前線,仍有不少從業者傾向淡化風險,或以「詞競爭壓力」為由,認為無法放慢腳步。

在治理層面,米奧蒂指出,人類過去在「詞核能」、「詞生物技術」、「詞網際網路」等強大技術上的進展速度,始終快於「詞相關制度與治理架構」的演化。超智慧AI有可能把這個落差推向極端,傳統「詞國家與國際組織」框架難以獨力承擔此種風險。

因此,他呼籲設計「詞全新類型」的制度與國際合作機制,專門針對超智慧風險進行管理。類似「詞核擴散防制體系」的國際架構,有必要被複製到AI領域,用於「詞禁止或強力壓制超智慧開發」。同時,他也提到,若在相對安全的範圍內運用AI,本身反而能協助進行「詞制度設計」與「詞政策模擬」,幫助人類評估不同治理方案的後果。

評論

米奧蒂的核心訊息,是要求全球重新定義「詞超智慧競賽」的性質:這不應被視為單純的「詞技術創新與產業競爭」,而是與「詞人類存續」直接相關的「詞文明級安全議題」。在他看來,是否開發超智慧並非命中注定,而是一個當下仍可做出的「詞政策選擇」。他呼籲各國政府、企業與公民社會,盡速展開對「詞超智慧禁止」與「詞強力AI監管」的具體討論與立法行動,以免在不知不覺中,被拖入一場無法中途喊停的技術賽跑。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

其他相關文章

主打文章

俄羅斯全面封鎖 WhatsApp,推國產通訊 Max:去中心化通訊與區塊鏈抗審查需求升溫

以太坊(ETH) 基金會推 ZK「AI 支付與認證」機制:兼顧隱私保護與鏈上可審計

機構專用平台 BlockFills 因比特幣(BTC)暴跌凍結入出金 恐掀加密貨幣流動性緊縮警報

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1