披露:此處表達的觀點和意見僅屬於作者本人,並不代表 crypto.news 編輯部的觀點和意見。
網際網路之所以能夠擴展,是因為 IP 協定為資料創建了通用架構。Web3 從未享有這種優勢。相反,它繼承了 1980 年代的網路技術和一系列臨時拼湊的協定,這些協定在您嘗試大規模運行真實交易時就會變慢和擁塞,更不用說數十億個 AI 代理、全球結算層或行星級去中心化實體基礎設施網路感測器網格了。我們早已過了更快的鏈或更大的區塊能有所幫助的時代。
Web3 需要屬於自己的 TCP/IP 時刻:一個基於使原始網際網路勢不可擋的原則所構建的去中心化網際網路協定,但經過精心設計以保留區塊鏈的重要特性:無需信任、抗審查以及最終能大規模運行的無需許可參與。
在 IP 協定出現之前,電腦無法跨網路通訊。IP 創建了一個通用標準,用於在地球上任意兩點之間路由資料,將孤立的系統轉變為網際網路。它成為網際網路基礎設施的三大支柱之一(與計算和儲存並列)。每個 Web2 應用程式都運行在 TCP/IP 上。這是使行星級通訊成為可能的協定。
Web3 正在重複同樣的早期錯誤。每個區塊鏈都發明了自己的網路層,包括流言協定、Turbine、Snow、Narwhal、記憶體池和 DA 取樣。它們都不是通用的,而且不必要地受到限制。每個人都在追求速度,使用更大的區塊、更多的 Rollup、更多的平行化。但它們都在使用根本上有缺陷的網路模型。
如果我們認真考慮擴展 Web3,我們需要一個可靠快速、無需信任、容錯,最重要的是模組化的網際網路協定。
二十多年來,我在 MIT 的研究專注於一個問題:去中心化系統能否像中心化系統一樣快速可靠地移動資訊——我們能否在數學上證明這一點?
為了回答這個問題,我們結合了兩個很少交集的領域:網路編碼理論(在數學上優化資料移動)和分散式演算法(由 Nancy Lynch 在共識和拜占庭容錯方面的開創性工作所主導)。
我們發現的結論很明確:去中心化系統可以達到中心化水準的效能——但前提是我們從第一原理重新設計資料移動。經過多年的證明和實驗,隨機線性網路編碼(RLNC)成為在去中心化網路中執行此操作的數學最優方法。
一旦區塊鏈出現,應用就變得顯而易見。我們擁有的網際網路是為可信中介機構建立的。去中心化網路需要自己的協定:一個設計用於在全球擴展的同時抵禦故障和攻擊的協定。架構轉變如下:
就像最初的網際網路協定一樣,它不是要取代現有的東西,而是要實現接下來會出現的東西。
去中心化系統正在世界需要它們擴展的確切時刻達到其極限。四個宏觀趨勢正在出現——每個都暴露了同樣的瓶頸:Web3 仍在使用從中心化系統繼承的網路假設。
我們現在擁有一百多個區塊鏈,雖然每個都可以優化自己的本地執行,但當這些網路需要全球協調時,它們都遇到了同樣的挑戰:資料移動受到限制、效率低下,而且從根本上來說是次優的。
區塊鏈所缺少的是電網的等價物,一個將頻寬路由到任何需要的地方的共享層。去中心化網際網路協定將使每條鏈都能存取相同的編碼資料架構,在不觸及共識的情況下加速區塊傳播、DA 檢索和狀態存取。就像任何好的電網一樣,當它運作時,擁塞會被最小化。
DeFi 無法在傳播速度緩慢、在負載下崩潰或 RPC 瓶頸使存取中心化的網路上結算數兆美元。如果多條鏈透過共享編碼網路連接,傳播高峰可能不會壓垮任何單一鏈——它們會被整個網路吸收和重新分配。
在傳統系統中,您建立更大的資料中心來吸收峰值負載。這些成本高昂,並導致單點故障。在去中心化系統中,我們不能依賴大型中心;我們必須依賴編碼分發。
擁有數百萬個裝置和自主機器的全球網路,如果每個節點都等待緩慢的單路徑通訊,就無法運作。這些裝置必須像一個單一、連貫的有機體一樣運作。
在能源系統中,靈活的電網既吸收商業採礦作業,也吸收單一吹風機。在網路中,去中心化協定必須對資料做同樣的事情:最佳地吸收每個來源,並將其傳送到最需要的地方。這需要編碼儲存、編碼檢索,以及利用每條可用路徑的能力,而不是依賴少數預定路徑。
分散式 AI,無論是在加密片段上訓練還是協調 AI 代理群,都依賴於高吞吐量、容錯的資料移動。如今,去中心化儲存和計算是分離的;存取速度緩慢;檢索依賴於中心化閘道。AI 需要的是資料物流,而不是簡單的儲存:這意味著資料在傳輸過程中被編碼,以編碼片段形式儲存,從當時最快的地方檢索,並立即重組,而不依賴於任何單一位置。
網際網路演進中的每一次重大飛躍都始於資料移動方式的突破。IP 提供了全球連接性。寬頻使 Netflix 和雲端運算成為可能。4G 和 5G 使 Uber、TikTok 和即時社交成為可能。GPU 引發了深度學習革命。智慧合約釋放了可程式化金融。
通用編碼資料層將為區塊鏈做 IP 為早期網際網路所做的事情:為我們尚無法想像的應用程式創造條件。這是將 Web3 從實驗性轉變為必然性的基礎。


