Back to top
  • 공유 分享
  • 인쇄 列印
  • 글자크기 字體大小
已複製網址

AI 數據壟斷擴大 加密社群被批忽視資料主權危機

AI 數據壟斷擴大 加密社群被批忽視資料主權危機 / Tokenpost

在加密貨幣社群過去十年致力推廣「去中心化」價值理念時,人工智慧(AI)產業卻悄悄形成了近乎壟斷性的結構。根據 OpenLedger 核心貢獻者拉姆·庫馬爾(Ram Kumar)的評論,目前 OpenAI、Google、Anthropic 等科技巨頭,已利用龐大資料資產建立明顯的優勢,超越了去中心化協議所能面對的挑戰。

庫馬爾近日在投書中指出,AI 公司正透過數十億甚至數兆筆以「資料代幣」形式存在的數據訓練其模型,預計至 2025 年將為業界創造高達 3,000 億美元(約合新台幣 9.7 兆元)的收入。他強調,這些企業已構築起資料上的「壟斷」,而非傳統區塊鏈協議層面的技術優勢,其影響層面更為深遠。

在過去數年間,比特幣(BTC) 社群爭論區塊大小問題,以太坊(ETH) 社群焦點則圍繞最大抽取價值(MEV)。然而,庫馬爾指出,AI 企業則趁此期間持續透過網路抓取知識資源,將其封存於閉源模型之中─本質上等同於對人類知識的「中心化」。評論:這暴露了目前區塊鏈界在面對智慧資料主權議題上的集體盲點。

他進一步指出,現今生成式 AI 模型背後所依賴的訓練資料,通常含數千億筆資料代幣,創建基礎模型往往需耗時數月、至少投入 1 億美元,導致結果近乎無法被複製。且資料來源集中在極少數大型公司手中。例如,OpenAI 與主流出版社簽訂獨家協議;Google 擁有超過 20 年的搜尋數據;Meta 則整合 15 年來的社群紀錄。這些資訊資產的不對等,將隨時間進一步拉開差距。

相對而言,加密產業創業者目前仍多聚焦於獎勵機制與擴展型去中心化金融(DeFi)應用,如流動性挖礦或收益農場。庫馬爾指出,當前更迫切的基礎建設應是「資料貢獻與所有權認證層」,而非單純的 NFT 市場或遊戲化應用。他強調,唯有優先建構此類基礎設施,才能從根本上挑戰 AI 數據壟斷結構。

庫馬爾以去中心化預言機專案 Chainlink(LINK) 為例,表示:「過去也曾有人認為以太坊只是速度慢的電腦,Chainlink 花了多年才完成孤獨又冗長的基礎建設。但關鍵價值正是來自這類『枯燥的工作』。」

他具體建議,未來的系統應具備三項功能:首先,在提供訓練資料前以加密方式簽署授權協議;其次,為訓練過程留下具透明度的使用紀錄;最後,能根據 AI 模型產生的收益,自動將報酬分配予資料原始貢獻者。評論:這一資料權利與報酬機制,若能有效實現,將可為加密貨幣市場創造一個與 AI 垂直整合的新興領域。

他補充指出,打造該架構並非需要極度複雜的共識機制或前沿密碼學,完全可以運用現有鏈上技術實現。

庫馬爾最後警告道:「比特幣誕生的目的是阻止中央銀行壟斷貨幣權力,以太坊則是一場抗衡集中式算力的革命。如果我們最終無法阻止 AI 公司控制人類的知識與信息秩序,那這些年來的加密運動可能終將失去意義。」

他強調,若未能在未來兩年內完善資料權益相關基礎建設,AI 企業目前正建立的「數據集壟斷結構(monolith)」將可能變成一種歷史趨勢,無法動搖。屆時,區塊鏈可能將僅被當作一場從未真正實現去中心化的「理想主義辯論」記錄於歷史中。

<版權所有 ⓒ TokenPost,未經授權禁止轉載與散佈>

最受歡迎

其他相關文章

留言 0

留言小技巧

好文章。 希望有後續報導。 分析得很棒。

0/1000

留言小技巧

好文章。 希望有後續報導。 分析得很棒。
1