Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

AI 專家警告:缺乏高品質資料將導致 60% 專案失敗,強調人類智慧不可或缺

AI 專家警告:缺乏高品質資料將導致 60% 專案失敗,強調人類智慧不可或缺 / Tokenpost

儘管人工智慧(AI)技術持續快速進步,仍有專家強調,在「可信度」與「準確性」這兩大核心領域,仍需仰賴人類的知識與經驗。根據《The Korea Economic Daily》於 24 日的報導,AI 專案 Sapien 執行長羅文·斯通(Rowan Stone)表示,若要發揮 AI 的真正潛力,必須強化「資料品質」,並結合人類的情境判斷來進行訓練。

羅文·斯通指出,與其關注模型的技術性複雜程度或訓練資料的數量,不如將焦點放在 AI 是否建立在「值得信賴的高品質資料」之上。因為正如他所說的「沒有好的輸入,就沒有好的輸出」,為人熟知的 GIGO(Garbage In, Garbage Out)即揭示了這一現象。目前有研究發現,大型語言模型 GPT-3.5 的「AI 幻覺(hallucination)」比例高達 39.6%,這正是受限於低品質或偏頗資料導致的結果錯誤與事實失真。

這類問題不僅是技術性錯誤,更可能產生實質損失。斯通提到,因錯誤資料所導致的決策失誤與專案失敗,平均每年可能造成約 6% 的營收損失。此外,美國有 20% 的資訊長(CIO)表示,因擔憂 AI 準確性不足,仍不願導入相關解決方案。曾有數據顯示,底特律警方在使用 AI 臉部辨識時,其錯誤辨識率竟高達 96%。而哈佛醫學院也揭露,部分 AI 系統在處理醫療資源時,會系統性地優先處理白人病患,反映出訓練資料中的「結構性偏見」問題。評論:這類結構性偏誤,特別在公衛、司法等高風險場域,將可能造成難以估量的社會成本。

斯通反駁伊隆·馬斯克(Elon Musk)「AI 已經涵蓋人類全部知識」的說法,強調 AI 的核心仍需回歸「人類智慧」。他指出,人類能透過經驗作出邏輯判斷並結合倫理價值觀,但若 AI 僅依靠「人造合成資料」訓練,往往會喪失對現實脈絡的理解能力,提升風險與誤判的機率。

他也批評目前多數系統高度「集中式」的數據管理方式限制重重,並主張應設計「人類參與式(human-in-the-loop)」的去中心化訓練機制。據統計,近 67% 的資料科學家花費大量時間清洗與標記訓練資料,不只延後產品開發,還間接推高營運成本。但透過區塊鏈獎勵機制,可以讓來自全球各地、具有不同背景與經驗的使用者,共同參與標籤與分類等任務,藉此建立「分散式強化學習(RLHF)」模型,進一步消除資料偏誤並提升協作效能。評論:這也點出生成式 AI 的潛力與限制並存,唯有多元參與才能避免技術壟斷與資料同質化。

另一份由研調機構 Gartner 預測的報告指出,至 2026 年,60% 以上的 AI 專案將因「缺乏適用資料」而被迫終止,進一步證明沒有高品質、人類專業支撐的資料環境,AI 將無法實現其超過 2 兆美元的預期經濟效益。

斯通最後總結,AI 的未來不在於取代人類,而是搭建「人與機器共存協作模式」。他認為,只有由人類主導的資料治理與即時監控,才能為 AI 建構長期可持續發展的基礎。否則,脫離人類專業知識與價值框架的 AI,就如失控的巨獸,最終只能成為科技的累贅。真正具備「商業可行性」的 AI 應從「以人為本」的設計理念出發,構築一個可驗證、可信賴的智能系統。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

其他相關文章

主打文章

Coinbase 將下架 Render(RNDR) 等 4 種山寨幣 Synapse(SYN) 價格重挫近 15%

派幣(PI)陷整理區間!技術阻力0.84美元壓力大,交易所擴增交易對有望助攻突破

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1