去中心化GPU網(wǎng)絡(luò)將自身定位為運行AI工作負(fù)載的低成本層,而最新模型的訓(xùn)練仍然集中在超大規(guī)模數(shù)據(jù)中心內(nèi)。
前沿AI訓(xùn)練涉及構(gòu)建最大、最先進(jìn)的系統(tǒng),這一過程需要數(shù)千枚GPU高效協(xié)同運行。
這種級別的協(xié)作使得去中心化網(wǎng)絡(luò)在頂級AI訓(xùn)練中難以實現(xiàn),因為互聯(lián)網(wǎng)的延遲和可靠性無法與集中式數(shù)據(jù)中心中高度耦合的硬件相提并論。
大多數(shù)生產(chǎn)環(huán)境下的AI工作負(fù)載并不類似于大規(guī)模模型訓(xùn)練,這為去中心化網(wǎng)絡(luò)承接推理和日常任務(wù)提供了空間。
“我們現(xiàn)在開始看到,很多開源及其他模型已經(jīng)足夠精簡且優(yōu)化,可以高效地在消費級GPU上運行。”Theta Network聯(lián)合創(chuàng)始人兼首席執(zhí)行官Mitch Liu向Cointelegraph表示,“這正在推動整個行業(yè)向開源、更加高效的模型以及更具經(jīng)濟(jì)效益的處理方式轉(zhuǎn)變。”
從前沿AI訓(xùn)練到日常推理
前沿訓(xùn)練主要集中在少數(shù)超大規(guī)模運營商手中,因為運行大型訓(xùn)練任務(wù)的成本和復(fù)雜度極高。最新的AI硬件,例如Nvidia的Vera Rubin,被設(shè)計用于優(yōu)化集成數(shù)據(jù)中心環(huán)境下的性能。
“你可以把前沿AI模型的訓(xùn)練比作建造一座摩天大樓,”基礎(chǔ)設(shè)施公司Ovia Systems(前身為Gaimin)首席執(zhí)行官N?kkvi Dan Ellidason對Cointelegraph表示,“在集中式數(shù)據(jù)中心,所有工人都在同一個腳手架上,手動傳遞磚塊?!?/p>
這種一體化程度使分布式網(wǎng)絡(luò)中常見的松散協(xié)作和延遲波動幾乎沒有空間。
“如果要在去中心化網(wǎng)絡(luò)中建造同樣的摩天大樓,他們必須通過開放互聯(lián)網(wǎng)把每塊磚郵寄給對方,這效率極低?!盓llidason補(bǔ)充道。
Meta訓(xùn)練其Llama 4 AI模型時,使用了超過10萬枚Nvidia H100 GPU組成的集群。OpenAI未披露用于模型訓(xùn)練的GPU集群規(guī)模,不過其基礎(chǔ)設(shè)施負(fù)責(zé)人Anuj Saharan表示,GPT-5上線時獲得了超過20萬枚GPU的支持,但并未具體說明這些算力中有多少用于訓(xùn)練,多少用于推理或其他工作負(fù)載。
推理指的是運行已訓(xùn)練模型,為用戶和應(yīng)用生成響應(yīng)。Ellidason稱,AI市場已達(dá)到“推理臨界點”。雖然在2024年GPU需求仍以訓(xùn)練為主,他估計到2026年,推理、智能體和預(yù)測型工作負(fù)載將推動多達(dá)70%的需求。
“這讓算力從研究成本轉(zhuǎn)變?yōu)槌掷m(xù)擴(kuò)張的公用事業(yè)成本,”Ellidason說,“因此,內(nèi)部循環(huán)驅(qū)動的需求倍增效應(yīng)使去中心化計算在混合架構(gòu)中成為可行選項。”
去中心化GPU網(wǎng)絡(luò)的實際定位
去中心化GPU網(wǎng)絡(luò)最適合于可以分割、路由并獨立執(zhí)行的工作負(fù)載,無需機(jī)器間持續(xù)同步。
“推理是一個體量巨大的業(yè)務(wù)領(lǐng)域,并且會隨著每個部署的模型和智能體回路而擴(kuò)張,”去中心化計算平臺Fluence聯(lián)合創(chuàng)始人Evgeny Ponomarev對Cointelegraph表示,“在這個領(lǐng)域,成本、彈性和地理分布比完美互聯(lián)更為重要?!?/p>
實際上,這意味著消費級環(huán)境下的去中心化GPU和游戲級GPU對于追求吞吐量和靈活性、而非高度協(xié)調(diào)的生產(chǎn)工作負(fù)載更加合適。
“消費級GPU VRAM較低且家庭網(wǎng)絡(luò)連接環(huán)境下,既不適合訓(xùn)練,也不適合對延遲極為敏感的負(fù)載,”閑置消費級GPU聚合平臺Salad Technologies首席執(zhí)行官Bob Miles對Cointelegraph說。
“現(xiàn)在,它們更適用于AI藥物發(fā)現(xiàn)、文本生成圖像/視頻、大規(guī)模數(shù)據(jù)處理等對成本敏感的場景——在價格與性能方面,消費級GPU具有優(yōu)勢。”
去中心化GPU網(wǎng)絡(luò)同樣適合于采集、清洗、準(zhǔn)備訓(xùn)練數(shù)據(jù)等任務(wù)。這類任務(wù)常常需要廣泛訪問互聯(lián)網(wǎng),并可在無須緊密協(xié)調(diào)的情況下并行運行。
Miles表示,這類工作在沒有大量代理層基礎(chǔ)設(shè)施的前提下,在超大規(guī)模數(shù)據(jù)中心內(nèi)高效運行難度較大。
當(dāng)服務(wù)全球用戶時,去中心化模型具備地理優(yōu)勢,因為它可以減少用戶請求到數(shù)據(jù)中心所需的物理距離和多次網(wǎng)絡(luò)跳轉(zhuǎn),從而降低延遲。
“在去中心化模式中,GPU分布在全球眾多地點,通常更接近終端用戶。因此,用戶與GPU之間的時延明顯較低,優(yōu)于統(tǒng)一將流量路由至集中式數(shù)據(jù)中心,”Theta Network的劉明杰表示。
Theta Network正面臨兩名前員工在2025年12月于洛杉磯地區(qū)提起的欺詐及代幣操控相關(guān)訴訟。劉明杰稱目前訴訟尚未終結(jié),因此無法置評。Theta此前已否認(rèn)相關(guān)指控。
AI計算的互補(bǔ)層
前沿AI訓(xùn)練在可預(yù)見時期內(nèi)仍將保持集中化,但AI計算正逐步轉(zhuǎn)向推理、智能體以及需較松散協(xié)作的生產(chǎn)負(fù)載。這類工作負(fù)載更加注重成本效率、地理分布和彈性。
“本輪周期出現(xiàn)了大量雖不及ChatGPT規(guī)模,但運行在配備RTX 4090或5090等GPU個人電腦上的開源模型,”Theta技術(shù)負(fù)責(zé)人Jieyi Long對Cointelegraph表示。
Long指出,借助該級別硬件,用戶可以本地運行擴(kuò)散模型、3D重建模型以及其它有意義的工作負(fù)載,這為零售用戶共享自身GPU資源創(chuàng)造了機(jī)會。
去中心化GPU網(wǎng)絡(luò)并非超大規(guī)模運營商的替代方案,但正逐漸成為AI算力結(jié)構(gòu)中的互補(bǔ)層。
隨著消費級硬件不斷升級、開源模型愈發(fā)高效,越來越多AI任務(wù)逐步從集中式數(shù)據(jù)中心外溢,讓去中心化模型在AI體系中占據(jù)一席之地。
795
收藏
















