AI 巨頭之間對數據的爭奪愈演愈烈。
最近,英國廣播公司(BBC)向 AI 搜尋引擎 Perplexity 發出律師函,指控該公司未經授權抓取並訓練 BBC 內容。 BBC 要求 Perplexity 停止爬取、刪除已用作訓練的數據,並提出經濟補償方案,否則將尋求法院禁令。這標誌著媒體與生成式 AI 之間持續已久的緊張關係徹底浮上水面——數據不是公共自助餐,版權方向擅自使用其內容的 AI 模型要帳。
幾乎同時,Meta 斥資 148 億美元入股 AI 數據標註獨角獸 Scale AI 49% 股權,將年僅 28 歲的創始人 Alexandr Wang 連人帶團隊招致麾下。谷歌等競爭對手立刻傳出將另覓食數據供應商以避嫌——據悉 Alphabet 旗下的谷歌已決定與 Scale AI 切斷合作關係——可見“誰掌握數據,誰就握有生殺大權”的行業共識正在加速固化。
一邊是版權方嚴防死守,一邊是巨頭為爭奪數據不惜重金。數據,儼然成為 AI 賽道上最昂貴、最敏感的戰略資源。然而當海量數據被少數中心化巨頭壟斷,AI 創新的門檻就會水漲船高,各類版權糾紛與合規灰色地帶亦隨之滋生。在這場數據軍備競賽與版權保衛戰的夾縫中,去中心化、原生激勵、面向全球普通用戶的數據採集新範式正呼之欲出——這正是 OORT 想要提供的破局之道。
作為去中心化 AI 資料方案的實踐者,OORT 最近迎來了里程碑式的進展:其核心應用 DataHub 已於 6 月下旬採集 Binance 去中心化,成為首個裝置。這意味著 OORT 觸達了更廣闊的加密社區,為數以億計的 Binance 用戶打開了一條用數據賺錢的全新管道。
藉助此集成,全球超過 4.86 億潛在用戶得以直接透過 Binance Wallet 參與 OORT 平台上的資料任務,例如圖片分類、內容驗證這種模式為 AI 訓練資料的獲取提供了有力補充——與傳統昂貴低效的集中式採集方式不同,大量普通用戶的微勞動力正在源源不斷地匯聚成高品質的資料池。
OORT DataHub 的激勵機制已經顯示出強大的吸引力。截至目前,平台註冊用戶數已超過 30 萬,每周有 8 萬以上的活躍用戶參與數據貢獻。分佈全球 107 個國家/地區的超過 5 萬個 OORT 資料節點共同構成了龐大的網絡,這些節點既包括個人用戶,也涵蓋企業級算力和儲存提供者。
值得一提的是,OORT 已與聯想、戴爾、希捷和騰訊雲等行業巨頭達成合作,為其去中心化數據網絡提供硬體支援和雲端基礎設施背書。這種節點網路的快速擴張和產業協同,預示著去中心化資料生態正在迎來屬於自己的「奇點」時刻:資料不再只是大公司的專屬資源,而將由千千萬萬的個體節點共同擁有和分享。
正如上文,版權訴訟與隱私爭議接連不斷,AI 行業正面臨前所未有的合法性挑戰。而作為一家去中心化 AI 資料基礎設施公司,OORT 則提供了覆蓋資料擷取、儲存、運算的完整解決方案。其核心產品矩陣被形象化稱為去中心化 AI 三件組:
首先是 OORT DataHub。這是一個面向全球用戶的去中心化資料收集與標註平台。在這裡,任何人都可以透過手機或電腦完成簡短的資料任務,為 AI 模型貢獻訓練素材,包括影像拍攝上傳、語音錄製、文字標註、內容審核等。 DataHub 內建了精巧的加密經濟激勵機制:每當用戶完成一項資料任務,系統會即時發放 USDT 或 OORT 代幣作為報酬。這種「小任務、即時獎賞」的模式一方面為研究者和開發者源源不斷提供新鮮、多樣且高品質的數據,降低了訓練集偏倚和老化的風險,另一方面也讓普通用戶切實分享到了 AI 產業的價值增值——正如 OORT 所倡導的,讓參與數據貢獻的個人成為 AI 生態的產業的價值增值——正如 OORT 所倡導的,讓參與數據貢獻的個人成為 AI 生態的利益相關者,而非數據提供者的利益相關者。目前,透過 DataHub 聚合的社群資料集已經展現出令人驚訝的成效:OORT 社群貢獻的資料集在Google旗下的資料競賽平台 Kaggle 的多個分類中名列前茅。這有力地驗證了去中心化模式下資料品質的可靠性——原本鬆散分佈於世界各地的個人所收集的數據,只要經過適當激勵和校驗,也能達到業界領先的水準。
其次是 OORT Storage。這是與 DataHub 緊密協同的去中心化資料儲存網路。當海量多樣的原始資料從 Datahub 用戶端匯聚而來,如何安全、有效率地儲存並方便後續呼叫? OORT 給出的答案是建立一個分散的加密儲存體系,將資料切分加密後儲存在全球各地的節點上。與傳統集中式雲端儲存相比,OORT Storage 在保障資料隱私和降低成本方面具備優勢:資料因分散式儲存而更難被單點攻擊竊取,節點間的競爭與協作也帶來了更優的儲存性價比。
第三是 OORT Compute。這是 OORT 建構的去中心化算力層,透過整合邊緣節點算力來做資料的驗證與標註。簡單來說,OORT Compute 將來自不同節點的閒置運算資源(包括 OORT 推出的邊緣設備 Deimos,個人電腦、甚至企業伺服器)匯聚起來,形成一個去中心化超級電腦網路。每個節點都會運行預製 I 演算法來做資料的驗證和標註,把 datahub 採集到的大量原始資料變成可直接用於 AI 模型訓練的高品質資料集。透過 OORT Olympus 區塊鏈協議的鏈接,OORT Compute 和前述 OORT Storage 一道組成了 OORTDatahub 的去中心化基礎設施——實現了從數據的採集,清洗和標註的全流程解決方案。
許多區塊鏈專案開始嘗試和 AI 結合,但普遍存在著嚴重的鏈孤島問題:不同的鏈之間不能順暢溝通,各自為政,DeAI 遲遲無法真正發揮潛力。好比網路誕生前的電腦,雖然各自強大,卻因無法連網而威力大減。
傳統中心化 AI 受制於企業的資料孤島,DeAI 如果無法解決鏈與鏈之間的資料孤島,也可能步入同樣的陷阱。不同鏈的協定、智慧合約、虛擬機器環境差異巨大,造成跨鏈 AI 資料和模型的互動異常困難。
OORT 的獨特之處在於,它不只局限在單一鏈上,而是透過 Olympus 協定直接提供跨鏈的資料收集、儲存與運算服務,解決了鏈之間的隔離問題,打通了 DeAI 的關鍵環節。簡單來說,OORT 像是個鑰匙孔,讓不同鏈上的資料和算力順暢互通,讓開發者專注於資料與 AI 的核心任務,不再困擾跨鏈的複雜性。
與其他專案相比,OORT 的跨鏈方案既能有效解決資料隱私和版權爭議等中心化 AI 面臨的老問題,又能以透明的區塊鏈激勵方式提高資料收集的多樣性和規模化。這種設計也讓用戶重新掌控數據,參與 AI 產業的價值共享。
因此,OORT 能成為 DeAI 的鑰匙孔,關鍵在於它不光打破了資料孤島壁壘,更提供了一種切實可行的路徑,去重新定義資料歸屬和共享規則,為去中心化 AI 生態帶來了真正落地的可能。
無論是 BBC 與 Perplexity 的版權之爭,還是科技巨頭圍繞 Scale AI 展開的資料軍備博弈,本質上折射出同一個問題:AI 的發展正在觸及傳統版圖的邊界。海量高品質的數據是 AI 模型的燃料,但獲取這些數據的方式、成本與權益分配,卻長期以來沒有得到妥善解決。過去,「最後一公里」的數據標註和收集往往隱藏在 AI 產業光鮮的幕布之後,由成千上萬匿名的標註工和用戶默默奉獻,卻難以獲得應有的回報和尊重。而 OORT 提出的去中心化範式,正是要將 AI 的這「最後一公里」真正交還給使用者。
透過 OORT,我們第一次看到普通人與 AI 進化之間建立起如此直接的連接:每個人都可以利用碎片時間為全球 AI 模型做出微小但真實的貢獻,並以加密貨幣形式獲得即時且公平的回報。這種模式突破了地理和體制的限制,把原本分散於世界各地的個人力量匯聚成推動 AI 前進的引擎,讓 AI 開發不再是巨頭壟斷的特權,而成為一種大眾參與的協作事業。
歡迎加入律動 BlockBeats 官方社群:
Telegram 訂閱群:https://t.me/theblockbeats
Telegram 交流群:https://t.me/BlockBeats_App
Twitter 官方帳號:https://twitter.com/BlockBeatsAsia