Offenlegung: Die hier geäußerten Ansichten und Meinungen gehören ausschließlich dem Autor und repräsentieren nicht die Ansichten und Meinungen der Redaktion von crypto.news.
Das Internet skalierte, weil IP ein universelles Gefüge für Daten schuf. Web3 hatte diesen Luxus nie. Stattdessen erbte es Netzwerktechnologie aus den 1980er Jahren und ein Flickwerk von Ad-hoc-Protokollen, die sich verlangsamen und verstopfen, sobald man versucht, echte Transaktionen in großem Maßstab durchzuführen, ganz zu schweigen von Milliarden von AI Agents, globalen Abwicklungsebenen oder einem planetaren dezentralen physischen Infrastrukturnetzwerk-Sensornetz. Wir sind längst über den Punkt hinaus, an dem schnellere Chains oder größere Blöcke helfen könnten.
Web3 braucht seinen eigenen TCP/IP-Moment: ein dezentrales Internetprotokoll, das auf den Prinzipien aufbaut, die das ursprüngliche Internet unaufhaltsam machten, aber so entwickelt wurde, dass es bewahrt, was Blockchain wichtig macht: Vertrauenslosigkeit, Zensurresistenz und erlaubnisfreie Teilnahme, die endlich im großen Maßstab funktioniert.
Vor IP konnten Computer nicht über Netzwerke hinweg kommunizieren. IP schuf einen universellen Standard für das Routing von Daten zwischen zwei beliebigen Punkten auf der Erde und verwandelte isolierte Systeme in das Internet. Es wurde zu einer von drei Säulen der Internetinfrastruktur (neben Rechenleistung und Speicherung). Jede Web2-Anwendung läuft auf TCP/IP. Es ist das Protokoll, das planetare Kommunikation möglich machte.
Web3 wiederholt die gleichen frühen Fehler. Jede Blockchain hat ihre eigene Netzwerkebene erfunden, einschließlich Gossip-Protokollen, Turbine, Snow, Narwhal, Mempools und DA-Sampling. Keines davon ist universal, und sie sind unnötig restriktiv. Jeder jagt Geschwindigkeit mit größeren Blöcken, mehr Rollups, mehr Parallelisierung. Aber sie alle verwenden grundlegend fehlerhafte Netzwerkmodelle.
Wenn wir es ernst meinen mit der Skalierung von Web3, brauchen wir ein zuverlässig schnelles, vertrauensloses, fehlertolerantes und vor allem modulares Internetprotokoll.
Seit über zwei Jahrzehnten konzentriert sich meine Forschung am MIT auf eine Frage: Können dezentrale Systeme Informationen genauso schnell und zuverlässig bewegen wie zentralisierte – und können wir das mathematisch beweisen?
Um diese Frage zu beantworten, haben wir zwei Bereiche kombiniert, die sich selten überschnitten haben: Netzwerk-Codierungstheorie, die Datenbewegungen mathematisch optimiert, und verteilte Algorithmen, angeführt von Nancy Lynchs wegweisender Arbeit zu Konsens und byzantinischer Fehlertoleranz.
Was wir herausfanden, war klar: Dezentrale Systeme können die Leistung zentralisierter Systeme erreichen – aber nur, wenn wir die Datenbewegung von Grund auf neu gestalten. Nach Jahren von Beweisen und Experimenten erwies sich Random Linear Network Coding (RLNC) als die mathematisch optimale Methode, um dies über dezentrale Netzwerke hinweg zu tun.
Als Blockchains aufkamen, wurde die Anwendung offensichtlich. Das Internet, das wir haben, wurde für vertrauenswürdige Vermittler gebaut. Das dezentrale Web braucht sein eigenes Protokoll: eines, das so konzipiert ist, dass es Ausfällen und Angriffen standhält und gleichzeitig global skaliert. Die architektonische Verschiebung ist so, dass:
Wie das ursprüngliche Internetprotokoll soll es nicht ersetzen, was existiert, sondern ermöglichen, was als Nächstes kommt.
Dezentrale Systeme stoßen genau in dem Moment an ihre Grenzen, in dem die Welt sie skalieren muss. Vier Makrotrends zeichnen sich ab – und jeder legt denselben Engpass offen: Web3 läuft immer noch auf Netzwerkannahmen, die von zentralisierten Systemen geerbt wurden.
Wir haben jetzt mehr als hundert Blockchains, und während jede ihre eigene lokale Ausführung optimieren kann, stoßen sie alle auf die gleichen Herausforderungen, sobald diese Netzwerke global koordinieren müssen: Die Datenbewegung ist eingeschränkt, ineffizient und grundlegend suboptimal.
Was Blockchains fehlt, ist das Äquivalent eines Stromnetzes, eine gemeinsame Ebene, die Bandbreite dorthin leitet, wo sie benötigt wird. Ein dezentrales Internetprotokoll würde jeder Chain Zugang zur gleichen codierten Datenstruktur geben, die Blockausbreitung, DA-Abruf und Zustandszugriff beschleunigen, ohne den Konsens zu berühren. Und wie bei jedem guten Netz wird die Überlastung minimiert, wenn es funktioniert.
DeFi kann keine Billionen in Netzwerken abwickeln, in denen die Ausbreitung langsam ist, sie unter Last zusammenbrechen oder wo RPC-Engpässe den Zugang zentralisieren. Wenn mehrere Chains durch ein gemeinsames codiertes Netzwerk verbunden wären, würden Ausbreitungsspitzen wahrscheinlich keine einzelne Chain überlasten – sie würden absorbiert und über das gesamte Netzwerk verteilt.
In traditionellen Systemen baut man größere Rechenzentren, um Spitzenlasten aufzufangen. Diese sind teuer und führen zu einzelnen Ausfallpunkten. In dezentralen Systemen können wir uns nicht auf Megacenter verlassen; wir müssen uns auf codierte Verteilung verlassen.
Ein globales Netzwerk mit Millionen von Geräten und autonomen Maschinen kann nicht funktionieren, wenn jeder Knoten auf langsame Single-Path-Kommunikation wartet. Diese Geräte müssen sich wie ein einzelner, kohärenter Organismus verhalten.
In Energiesystemen absorbieren flexible Netze sowohl kommerzielle Mining-Operationen als auch einen einzelnen Föhn. In der Vernetzung muss ein dezentrales Protokoll dasselbe für Daten tun: jede Quelle optimal absorbieren und dorthin liefern, wo sie am meisten benötigt wird. Das erfordert codierte Speicherung, codierten Abruf und die Fähigkeit, jeden verfügbaren Pfad zu nutzen, anstatt sich auf einige wenige vorgegebene zu verlassen.
Verteilte KI, ob beim Training auf verschlüsselten Fragmenten oder bei der Koordinierung von Flotten von AI Agents, hängt von einer fehlertoleranten Datenbewegung mit hohem Durchsatz ab. Heute sind dezentrale Speicherung und Rechenleistung getrennt; der Zugriff ist langsam; der Abruf hängt von zentralisierten Gateways ab. Was KI braucht, ist Datenlogistik, nicht einfache Speicherung: Das bedeutet, dass Daten während der Bewegung codiert, in codierten Fragmenten gespeichert, von dort abgerufen werden, wo es am schnellsten ist, und sofort rekombiniert werden, ohne von einem einzelnen Standort abhängig zu sein.
Jeder große Sprung in der Evolution des Internets begann mit einem Durchbruch in der Art und Weise, wie sich Daten bewegen. IP lieferte globale Konnektivität. Breitband ermöglichte Netflix und Cloud Computing. 4G und 5G machten Uber, TikTok und Echtzeit-Social möglich. GPUs entfachten die Deep-Learning-Revolution. Smart Contracts erschlossen programmierbare Finanzen.
Eine universelle, codierte Datenebene würde für Blockchains das tun, was IP für das frühe Internet tat: die Bedingungen für Anwendungen schaffen, die wir uns noch nicht vorstellen können. Es ist das Fundament, das Web3 von experimentell zu unvermeidlich transformiert.


