Auf dem Weg zur Erschließung einer neuen Klasse von Anwendungen. Nicht die Rechenleistung, die wir brauchen, sondern die Rechenleistung, die wir verdienen.
Aufgrund der eingeschränkten Verarbeitungsfähigkeiten von Ethereum stoßen dezentrale Apps bei der Durchführung komplexer Berechnungen in der Kette auf Einschränkungen. Infolgedessen haben wir gesehen, dass viele DeFi-Protokolle Komponenten wie Auftragsbücher und Risikosysteme außerhalb der Kette verlagert haben. Dies weist auf einen Bedarf an maßgeschneiderten Rechenumgebungen hin, die auf bestimmte Aufgaben zugeschnitten sind.
Wir haben eine langsame, aber allmähliche Verlagerung vieler Defi-Apps beobachtet, die in der Kette bereitgestellt werden und Teile ihres Systems außerhalb der Kette verwalten. Dydx V4 wird sein Auftragsbuch und möglicherweise auch sein Margin-System außerhalb der Kette halten. Blur hält Teile seines Austauschs außerhalb der Kette, um eine reibungslose UX zu gewährleisten. Aevo, eine Optionsbörse, hält ihr Orderbuch und ihre Risikomaschine außerhalb der Kette. Der einfachste Grund dafür ist die Schwierigkeit, diese leistungsorientierten Systeme effizient und skalierbar in der Kette zu warten.
Die Migration von Komponenten außerhalb der Kette weist auf einen umfassenderen Bedarf hin – maßgeschneiderte (und leistungsstarke) Rechenumgebungen, die auf bestimmte Aufgaben zugeschnitten sind. Das ist jedoch noch nicht alles. In diesem Regime funktioniert der Status quo gut. Wenn ein Protokoll ein Off-Chain-System ausführt, ist es für Sie als Benutzer letztendlich undurchsichtig, darauf zu vertrauen, ob das Off-Chain-System so funktioniert, wie es versprochen hat. Überprüfbare Berechnungen machen Vertrauensannahmen überflüssig und ermöglichen es Protokollen, Off-Chain-Berechnungen durchzuführen, ohne Vertrauensfaktoren einzuführen. Das ist das Versprechen von Coprozessoren für Ethereum. Bevor wir das Coprozessor-Modell in Ethereum diskutieren, wollen wir kurz zusammenfassen, woher diese Idee stammt.
Das Konzept der Coprozessoren hat seinen Ursprung in der Computerarchitektur als Technik zur Leistungssteigerung. Herkömmliche Computer sind auf eine einzige Zentraleinheit (CPU) angewiesen, die alle Berechnungen durchführt. Allerdings wurde die CPU überlastet, da die Arbeitslasten komplexer wurden.
Zur Unterstützung wurden Coprozessoren eingeführt – spezialisierte Prozessoren, die sich bestimmten Aufgaben widmen. Beispielsweise übernehmen Grafikprozessoren (GPUs) die enormen parallelen Berechnungen, die für das 3D-Rendering erforderlich sind. Dadurch kann sich die Haupt-CPU auf die allgemeine Verarbeitung konzentrieren. Weitere gängige Coprozessoren sind kryptografische Beschleuniger für die Verschlüsselung/Entschlüsselung, Signalprozessoren für Multimedia und mathematische Coprozessoren für wissenschaftliche Berechnungen. Jeder Coprozessor verfügt über eine optimierte Architektur, um seine Nischenarbeitslast effizient auszuführen. (Obwohl man sagen könnte, dass das meiste davon durch parallele Programmierung, ala GPUs, abgedeckt wurde.)
Diese Arbeitsteilung zwischen CPU und Coprozessoren führte zu Leistungsverbesserungen um Größenordnungen. Das Coprozessor-Modell ermöglichte es Computern, immer anspruchsvollere Arbeitslasten zu bewältigen, die mit einer einzelnen Generalisten-CPU nicht möglich wären.
Ethereum kann auch als generalistische CPU-VM betrachtet werden und ist allein aufgrund der Sperrkosten, die für die Ausführung in der Kette anfallen müssten, nicht für umfangreiche Berechnungen geeignet, was sogar die Bereitstellung einer Vielzahl von Protokollen einschränkt Designer werden gezwungen, sich innerhalb der Einschränkungen des EVM etwas Neues auszudenken. Vereinfacht gesagt sind die Kosten für komplexe Anwendungen zu restriktiv. Dies hat auch dazu geführt, dass verschiedene Protokolle Teile ihres Protokolls außerhalb der Kette halten, und jedes so eingesetzte Off-Chain-Modell bringt eine gewisse Risikovorstellung mit sich. Ein Risiko der Zentralisierung und ein Risiko einfach des Vertrauens; Sie vertrauen darauf, dass das Protokoll nicht bösartig ist, was etwas im Widerspruch zum Ethos dezentraler Apps steht.
In diesem Artikel versuche ich, einige dieser Lösungen zu betrachten und einen Einblick in die Art von Anwendungen zu geben, die mithilfe dieser Infrastruktur freigeschaltet werden könnten. Ich werde auch versuchen, nach alternativen Möglichkeiten zur Auslagerung von Berechnungen zu suchen, die mit Sicherheit zu einem Eckpfeiler von Anwendungen im Kryptoraum werden werden.
Coprozessoren wie die von Axiom und RiscZero haben kürzlich eine neue Dimension möglicher Anwendungen in der Kette eröffnet, indem sie es Smart Contracts ermöglichen, umfangreiche Berechnungen auszulagern. Die Systeme bieten den Beweis, dass der Code auf eine Weise ausgeführt wurde, die jeder überprüfen kann.
Bonsai und Axiom sind insofern ähnliche Lösungen, als sie die Ausführung beliebiger Berechnungen mit Zugriff auf den On-Chain-Status außerhalb der Kette ermöglichen und „Belege“ darüber liefern, dass die Berechnung durchgeführt wurde.
Axiom ermöglicht den intelligenten Verträgen von Ethereum den Zugriff auf mehr historische On-Chain-Daten und die Durchführung komplexer Berechnungen, während gleichzeitig die Dezentralisierung und Sicherheit des Netzwerks gewahrt bleibt. Derzeit haben Verträge Zugriff auf sehr begrenzte Daten aus dem aktuellen Block, was die Arten von Anwendungen einschränkt, die erstellt werden können. Gleichzeitig würde die Ermöglichung des Vertragszugriffs auf die vollständigen historischen Archivdaten erfordern, dass alle Netzwerkknoten das vollständige Archiv speichern, was aufgrund der Speicherkosten nicht realisierbar ist und sich negativ auf die Dezentralisierung auswirken würde.
Um dieses Problem zu lösen, entwickelt Axiom ein „ZK-Coprozessor“-System. Es ermöglicht Verträgen, historische Blockchain-Daten abzufragen und Berechnungen außerhalb der Kette über das Axiom-Netzwerk durchzuführen. Axiom-Knoten greifen auf die angeforderten On-Chain-Daten zu und führen die angegebene Berechnung durch. Der Schlüssel liegt darin, einen wissensfreien Beweis dafür zu generieren, dass das Ergebnis korrekt aus gültigen On-Chain-Daten berechnet wurde. Dieser Nachweis wird in der Kette überprüft, um sicherzustellen, dass Verträge dem Ergebnis vertrauen können.
Dieser Ansatz ermöglicht Verträgen den Zugriff auf weitaus mehr Daten aus dem Kettenverlauf und die Möglichkeit, komplexe Berechnungen darauf durchzuführen, ohne die Basisschichtknoten zu belasten. Axiom geht davon aus, dass dies neue Anwendungskategorien ermöglichen wird, die auf einer nachweisbaren, objektiven Analyse historischer Blockchain-Aktivitäten basieren. Sie haben bereits die Mainnet-Funktionalität für das Lesen grundlegender Daten eingeführt und planen, sie in naher Zukunft auf den vollständigen Zugriff auf Archivdaten und die ZK-Überprüfung der Vertragsansichtsfunktionen auszuweiten. Ihre längerfristige Vision sind noch fortschrittlichere ZK-Berechnungen, die über die EVM-Fähigkeiten hinausgehen.
Durch die Erstellung von Beweisen für die korrekte Off-Chain-Ausführung erschließt Axiom neue Kategorien von Blockchain-Anwendungen.
Risc Zero hat eine universelle Zero-Knowledge-Virtual-Machine (zkVM) entwickelt, die es ermöglicht, beliebige Programme, die in Sprachen wie Rust, C/C++ und Go geschrieben wurden, ohne Wissen zu testen.
Mit der zkVM können Entwickler beliebigen Rust-Code ohne Kenntnisse testen, ohne benutzerdefinierte Schaltkreise entwerfen zu müssen. Ziel ist es, die Entwicklung von Zero-Knowledge-Anwendungen zugänglicher zu machen. Die zkVM generiert eine Empfangsbestätigung, die bestätigt, dass das Programm korrekt ausgeführt wurde, ohne private Eingaben oder Logik preiszugeben. Dadurch können intensive Berechnungen außerhalb der Kette durchgeführt werden, wobei die Nachweisbelege die korrekte Ausführung in der Kette bestätigen. Rust-Kisten funktionieren in dieser zkVM, es gibt jedoch einige Einschränkungen bei Systemaufrufen. Eine Funktion namens Fortsetzungen ermöglicht die Aufteilung großer Berechnungen in Segmente, die unabhängig voneinander bewiesen werden können. Dies ermöglicht eine parallele Prüfung, wodurch Beschränkungen der Rechengröße aufgehoben werden, und ermöglicht das Anhalten/Fortsetzen von zkVM-Programmen. Fortsetzungen haben neue Anwendungsfälle wie vollständig homomorphe Verschlüsselung, EVM und WASM in der zkVM ermöglicht.
Bonsai ist ein Off-Chain-Zero-Knowledge-Beweisdienst, der von Risc Zero entwickelt wurde, um die Verwendung ihrer universellen zkVM für Ethereum- und Blockchain-Anwendungen zu ermöglichen. Es bietet eine Brücke zwischen On-Chain-Smart-Contracts und Off-Chain-Berechnungen in zkVM.
Der von Bonsai ermöglichte Workflow ist wie folgt:
Der Entwickler schreibt einen Smart Contract, der den Relay-Vertrag von Bonsai aufruft, um eine Off-Chain-Berechnung anzufordern
Bonsai überwacht diese On-Chain-Anfragen und führt das entsprechende in Rust geschriebene zkVM-Programm aus
Das zkVM-Programm läuft in der Infrastruktur von Bonsai, führt die intensive oder private Berechnung außerhalb der Kette durch und generiert dann den Nachweis, dass es korrekt ausgeführt wurde.
Die Nachweisergebnisse, sogenannte „Receipts“, werden von Bonsai über den Relay-Vertrag wieder in der Kette gepostet.
Der Smart Contract des Entwicklers erhält die Ergebnisse in einer Callback-Funktion
Dadurch kann rechenintensive oder sensible Logik außerhalb der Kette erfolgen und gleichzeitig die korrekte Ausführung über zk-Proofs in der Kette validiert werden. Der Smart Contract muss lediglich die Anforderung von Berechnungen und die Verarbeitung der Ergebnisse bewältigen.
Bonsai abstrahiert die Komplexität des Kompilierens von Rust-Code in zkVM-Bytecode, des Hochladens von Programmen, der Ausführung in der VM und der Rückgabe von Beweisen. Entwickler können sich auf das Schreiben ihrer Programmlogik konzentrieren. Diese Infrastruktur ermöglicht somit die Ausführung allgemeiner Berechnungen außerhalb der Kette, während sensible Daten und Logik privat bleiben.
Bonsai ermöglicht Entwicklern die unkomplizierte Erstellung von Blockchain-Anwendungen mit Off-Chain-Computing, ohne dass Fachkenntnisse in der zugrunde liegenden zkVM-Kryptografie und -Infrastruktur erforderlich sind. Einfach ausgedrückt ermöglicht Bonsai Entwicklern die einfache Integration von Off-Chain-Berechnungen ohne ZK-Expertise.
Ist ein ZK-Coprozessor die einzige Möglichkeit, eine überprüfbare Off-Chain-Berechnung zu erreichen? Welche anderen Anwendungen gibt es, um Berechnungen auf vertrauenswürdige und sichere Weise auszulagern? Während die Meinungen über die Sicherheitseigenschaften, die Effizienz und die Implementierung unterschiedlich sind, werden sie in verschiedenen Bereichen der Kryptowährung untersucht und werden langsam in den Vordergrund rücken.
Alternativen wie MPC und TEEs bieten andere Ansätze für überprüfbare Off-Chain-Berechnungen. MPC ermöglicht die gemeinsame Datenverarbeitung sensibler Daten, während TEEs hardwarebasierte sichere Enklaven bieten. Beide stellen Kompromisse dar, können aber Alternativen für ZK-Coprozessoren sein.
Secure Multi-Party Computing (MPC) ermöglicht es mehreren Parteien, gemeinsam eine Funktion über ihre Eingaben zu berechnen und diese Eingaben gleichzeitig privat zu halten. Es ermöglicht die Zusammenarbeit an sensiblen Daten und gewährleistet so die Privatsphäre aller Teilnehmer. Wenn die meisten Parteien unehrlich sind, ist es jedoch unmöglich, im MPC, bei dem entweder alle Parteien den Output erfahren oder keiner davon erfährt, Fairness zu erreichen. Mit anderen Worten: Datenschutz- und Integritätsgarantien verschwinden, wenn alle Knoten beschädigt sind. Die Blockchain-Technologie kann dazu beitragen, MPC-Protokolle gerechter zu machen.
Stellen Sie sich drei Freunde vor, die den Durchschnitt ihrer Gehälter wissen möchten, ohne sich gegenseitig ihre Gehälter preiszugeben. Sie könnten Secure MPC verwenden, um dies zu erreichen.
Angenommen, die Freunde sind Alice, Bob und Eve:
Alice nimmt ihr Gehalt, addiert eine Zufallszahl dazu und teilt Bob das Ergebnis mit.
Bob addiert sein Gehalt und eine weitere Zufallszahl zu der Zahl, die er von Alice erhalten hat, und teilt Eve dann das Ergebnis mit.
Eve addiert ihr Gehalt zur Zahl von Bob, subtrahiert dann alle zuvor hinzugefügten Zufallszahlen und dividiert das Ergebnis durch drei, um den Durchschnitt zu ermitteln.
Die endgültige Zahl ist der Durchschnitt ihrer Gehälter; Niemand hat etwas über die Gehälter der anderen erfahren. Eine Nuance, die hier beachtet werden sollte, ist, dass, obwohl niemand das genaue Gehalt des anderen kennt, wenn der Durchschnitt niedriger ist als Eves Gehalt, Eve daraus schließen könnte, dass das Gehalt eines der anderen beiden niedriger ist als ihres.
Die Blockchain stellt ein manipulationssicheres öffentliches Hauptbuch bereit, das es den Parteien ermöglicht, Informationen zu veröffentlichen. Durch die Verwendung von Zeugenverschlüsselung können Parteien die Ausgabe eines unfairen MPC-Protokolls verschlüsseln. Sie posten Token im Hauptbuch, die das Extrahieren eines Entschlüsselungsschlüssels ermöglichen. Da das Hauptbuch öffentlich ist, können alle Parteien gleichzeitig auf den Entschlüsselungsschlüssel zugreifen. Dies ermöglicht ein faires Entschlüsselungsprotokoll, bei dem entweder alle Parteien die Ausgabe entschlüsseln oder keine.
In „MPC als Blockchain-Vertraulichkeitsschicht“ spricht Andrew Miller darüber, wie MPC bei der Berechnung privater Daten helfen könnte. Das öffentlich überprüfbare MPC verwendet wissensfreie Beweise, um die Integrität trotz vollständiger Knotenbeschädigung aufrechtzuerhalten. Kunden würden Eingaben vornehmen, um die Gültigkeit zu beweisen. Die MPC-Knoten generieren Beweise für die korrekte Berechnung. Letztendlich überprüfen die Prüfer die Eingaben, Ausgaben und die Übereinstimmung der Beweise. Diese Prüfung verursacht nur einen minimalen Mehraufwand, der über die Standard-MPC-Kosten hinausgeht. Beweise sind mit SNARKs mit einem universellen Aufbau prägnant. Es bleiben jedoch Fragen zu Leistungsoptimierungen, Programmiermodellen und der praktischen Bereitstellung offen.
Sensible Daten wie persönliche Informationen, Finanzdaten usw. müssen bei der Speicherung oder Übertragung sowie bei der Verwendung und Verarbeitung geschützt werden. Herkömmliche Verschlüsselungsmethoden schützen Daten im Ruhezustand und während der Übertragung, jedoch nicht, wenn Daten aktiv genutzt werden. Dies stellt ein Problem dar, da Daten bei der Verarbeitung häufig in unverschlüsselter Form vorliegen und somit anfällig für Angriffe sind.
Vertrauenswürdige Ausführungsumgebungen (oder sichere Enklaven) sind isolierte Umgebungen, in denen Daten verschlüsselt werden können, in denen jedoch weiterhin Berechnungen durchgeführt werden können. Die Kernidee besteht darin, die Daten und Berechnungen zu isolieren, sodass selbst privilegierte Systemprozesse nicht darauf zugreifen können. Trusted Execution Environments (TEEs) sind sichere Bereiche innerhalb eines Prozessors, die hardwarebasierte Sicherheitsfunktionen zum Schutz sensibler Daten und Codes bereitstellen. Sie isolieren bestimmte Software vom Rest des Systems und stellen so sicher, dass die Daten im TEE nicht manipuliert werden können, selbst durch das Betriebssystem oder andere auf dem Gerät ausgeführte Software.
Durch TEEs bleiben sensible Daten auch während der Nutzung geschützt. Dies ermöglicht Anwendungen wie datenschutzschützende soziale Netzwerke, Finanzdienstleistungen, Gesundheitswesen usw. Es gibt einige Einschränkungen in Bezug auf Effizienz und Vertrauensannahmen, aber Enklaven sind eine leistungsstarke Technologie mit vielen potenziellen Einsatzmöglichkeiten, insbesondere in Kombination mit Blockchain-Netzwerken zum Aufbau robuster, unzensierbarer Systeme. Die Kompromisse in Bezug auf Vertrauen können für viele kommerzielle und gemeinnützige Anwendungen akzeptabel sein, bei denen ein strenger Datenschutz erforderlich ist.
Mit vertrauenswürdigen Ausführungsumgebungen (Trusted Execution Environments, TEEs) können Sie Berechnungen an einen nicht vertrauenswürdigen Cloud-Drittanbieter auslagern und gleichzeitig Ihre Daten vertraulich und den Betrieb vor Manipulationen schützen. Dies ist äußerst nützlich für dezentrale Anwendungen und Organisationen, die den Komfort und die Kosteneinsparungen der Cloud nutzen möchten, ohne auf Datenschutz oder Kontrolle zu verzichten. Aber TEEs lösen nicht alle Probleme auf magische Weise – es müssen noch einige praktische Herausforderungen gemeistert werden, bevor die meisten Entwickler sie problemlos verwenden können.
Sie stellen einen leistungsstarken Baustein dar, erfordern jedoch noch eine sorgfältige Systemforschung, um die oben genannten Einschränkungen sowie die Zentralisierung, Skalierung und Fehlertoleranz des Anbieters zu beseitigen.
Vertrauenswürdige Ausführungsumgebungen (TEEs) wie Intel SGX und AWS Nitro Enclaves bieten isolierte Umgebungen für die Ausführung sensibler Berechnungen und die Speicherung vertraulicher Daten. TEEs stellen sicher, dass selbst privilegierte Systemprozesse nicht auf Code und Daten innerhalb des TEE zugreifen oder diese manipulieren können. Dadurch können dezentrale Apps und Organisationen Berechnungen an nicht vertrauenswürdige Cloud-Hosts von Drittanbietern auslagern, ohne sich um Datenschutz oder Integrität sorgen zu müssen.
Die Lösung dieser Herausforderungen wird die Anwendbarkeit von TEEs für dezentrale Anwendungen erheblich erweitern, die eine hohe Integrität, Vertraulichkeit und Zensurresistenz erfordern und gleichzeitig Berechnungen und Speicherung in nicht vertrauenswürdige Clouds auslagern. TEEs sind ein leistungsstarkes Grundelement, aber eine durchdachte gemeinsame Systemgestaltung ist weiterhin erforderlich, um ihre Einschränkungen zu überwinden.
Bei der Bewertung von Coprozessoren ist das Sicherheitsmodell und der Grad der Sicherheit, die für verschiedene Arten von Berechnungen erforderlich sind, ein wichtiger Gesichtspunkt. Bestimmte sensible Berechnungen, wie zum Beispiel Matching-Bestellungen, erfordern maximale Sicherheit und minimale Vertrauensannahmen. Für diese bieten Coprozessoren, die wissensfreie Beweise verwenden, wie ZK-Coprozessoren, starke Garantien, da Ergebnisse ohne Vertrauen in den Betreiber überprüft werden können.
ZK-Coprozessoren könnten jedoch Nachteile in Bezug auf Effizienz und Flexibilität haben. Andere Ansätze wie MPC oder vertrauenswürdige Hardware können akzeptable Kompromisse für weniger sensible Berechnungen wie Analysen oder Risikomodellierung sein. Sie bieten zwar schwächere Sicherheiten, ermöglichen aber eine effizientere Nutzung eines größeren Spektrums an Berechnungen. Das erforderliche Sicherheitsniveau hängt von der Risikotoleranz der Anwendungen ab. Die Teams sollten den auf dem Spiel stehenden Wert analysieren und bewerten, ob ungeprüfte, aber effiziente Coprozessoren einen vernünftigen technischen Kompromiss für bestimmte unkritische Berechnungen darstellen.
Insgesamt decken Coprozessoren ein Spektrum von Sicherheitsmodellen ab, und Teams sollten Lösungen an die Sicherheitsanforderungen bestimmter Aufgaben anpassen. Das Ökosystem steckt noch in den Kinderschuhen, daher werden weitere Fortschritte bei der skalierbaren, überprüfbaren Berechnung die Möglichkeiten erweitern.
Im Blog „Feedback Control as a new primitive for Defi“ erwähnen die Autoren, dass die Kontrollmechanismen für den Defi-Mechanismus langsam von einem Ende zum anderen aktualisiert werden könnten, indem sie Reinforcement Learning (RL) und DRL nutzen, wenn Berechnungen und Speicher reichlich vorhanden sind. Während RL immer noch schwierig sein könnte, könnten Anwendungen des maschinellen Lernens aufgrund überprüfbarer Berechnungen dennoch möglich sein.
Die Kreditvergabeprotokolle im vergangenen Jahr wurden auf den Prüfstand gestellt, da die Möglichkeit eines Forderungsausfalls aufgrund aggressiver Parameter für die Token-Verleihung im ansonsten liquiditätsmangelnden Bärenmarkt besteht. Modelle, die auf On-Chain-Liquidität zugreifen und ein Liquiditätsprofil für Vermögenswerte erstellen können, könnten möglicherweise Parameter dynamisch ändern.
Kreditprotokolle könnten beispielsweise von der dynamischen Steuerung der Zinssätze auf der Grundlage von Echtzeit-On-Chain-Daten profitieren. Anstatt sich auf voreingestellte Zinssatzmodelle zu verlassen, könnte ein Feedback-Kontrollsystem die Zinssätze algorithmisch auf der Grundlage aktueller Auslastungs- und Liquiditätsfaktoren anpassen.
Wenn beispielsweise die Nachfrage nach Krediten für einen Vermögenswert hoch ist und die Auslastung steigt, könnte der Controller die Zinssätze schnell erhöhen, um Anreize für das Angebot zu schaffen und die Auslastung zu stabilisieren. Umgekehrt könnten bei geringer Auslastung die Zinssätze gesenkt werden, um Anreize für die Kreditaufnahme zu schaffen. Die Controller-Parameter könnten abgestimmt werden, um Ziele wie die Maximierung des Protokollumsatzes oder die Minimierung der Volatilität zu optimieren.
Um dies umzusetzen, benötigt das Protokoll Zugriff auf Echtzeit-On-Chain-Daten wie Gesamtkreditbeträge, verfügbare Liquidität und andere Nutzungsmetriken. Die Steuerungslogik verarbeitet diese Daten dann, um optimale Zinsanpassungen zu berechnen. Die Tarifaktualisierungen könnten On-Chain über ein DAO oder Off-Chain mit Beweisüberprüfung geregelt werden.
Um dies umzusetzen, benötigt das Protokoll Zugriff auf Echtzeit-On-Chain-Daten wie Gesamtkreditbeträge, verfügbare Liquidität und andere Nutzungsmetriken. Die Steuerungslogik verarbeitet diese Daten dann, um optimale Zinsanpassungen zu berechnen. Die Tarifaktualisierungen könnten On-Chain über ein DAO oder Off-Chain mit Beweisüberprüfung geregelt werden. Obwohl die jüngste Arbeit „Attacks on Dynamic Defi Interest rate Curves“ von Chitra et al. hat gezeigt, dass dynamische Kreditvergabemodelle zu mehr MEV führen. Daher muss das Design dieser Protokolle sorgfältig geprüft werden.
Die Fülle des Zugriffs auf Blockchain-Daten führt uns zu der natürlichen Schlussfolgerung, Anwendungen für maschinelles Lernen auf diese Weise zu nutzen. Während der Nachweis von Berechnungen für Anwendungen des maschinellen Lernens möglicherweise etwas schwieriger ist, ist die überprüfbare ML-Berechnung für sich genommen ein riesiger Markt. Diese könnten auch für On-Chain-Anwendungen genutzt werden, insbesondere in einigen Sicherheitsanwendungen.
Blockchain-Daten enthalten wertvolle Signale, die maschinelle Lernmodelle nutzen könnten, um verdächtige Aktivitäten zu erkennen oder Risikomanagementsysteme zu betreiben. Aufgrund der Gaskosten und Datenschutzbedenken ist der Betrieb von ML in der Kette derzeit jedoch nicht möglich. Dies könnte wie On-Chain-Überwachungssysteme für Smart Contracts, Wallets oder Portfoliomanager zur Erkennung verdächtiger Abhebungen oder Überweisungen aussehen. Es steht eine große Menge an Profilierungsdaten für verschiedene Arten von Signalen zur Verfügung, die im Hinblick auf die Sicherheit gewonnen werden können, beispielsweise für „Ruggers“, „Hacks“ und andere böswillige Angriffe. Es kann auch für Defi-Anwendungen zur Bonitätsprüfung und Risikoprofilierung für Kreditgeber und Kreditnehmer angesichts ihrer On-Chain-Historie verwendet werden.
Zu den Herausforderungen zählen Datenqualität, Konzeptdrift und Leistungseinschränkungen von Beweissystemen. Doch durch die Kombination von ML mit überprüfbarer Off-Chain-Berechnung eröffnen Coprozessoren viele neue Möglichkeiten für Blockchain-Analysen und Risikomanagement.
Margin-Systeme für Perpetual Swaps waren den Benutzern bei zentralisierten und sogar dezentralen Börsen immer verborgen. Margin-Systeme für Derivate wie Perpetual Swaps und Optionen waren traditionell undurchsichtige Black Boxes, die von zentralisierten Börsen kontrolliert wurden.
Coprozessoren bieten die Möglichkeit, eine transparente und überprüfbare Margining-Logik für den dezentralen Handel zu implementieren. Das Versprechen, Auto-Deleveraging-Systeme auf verifizierte Weise zu implementieren, bietet den Benutzern einen höheren Vertrauensfaktor und unterscheidet sie sofort von ihren zentralisierten Gegenstücken.
Das Margining-System könnte indexierte Preis-Feeds und Positionswerte für Perpetual Swaps überwachen und Positionen liquidieren, bevor ihr Margin-Saldo negativ wird. Alle Risikoparameter wie Wartungsmargenquoten, Finanzierungsraten und Liquidationsstrafen könnten in der Kette geregelt werden.
Allerdings können die intensiven Berechnungen zur Berechnung von Margin-Salden, nicht realisierten PnL, Liquidationsbeträgen usw. auf einen Coprozessor verlagert werden. Es würde die Margin-Engine-Logik in einer vertraulichen Umgebung ausführen und Beweise generieren, die die korrekte Berechnung bestätigen.
Zu den Vorteilen des Coprozessor-Ansatzes gehören Transparenz, Überprüfbarkeit und Datenschutz. Die Margin-Engine-Logik ist keine proprietäre Blackbox mehr. Berechnungen erfolgen außerhalb der Kette, aber Benutzer können sich auf Beweise für die korrekte Ausführung verlassen. Dasselbe könnte auch für Optionen erreicht werden.
Zu den Herausforderungen gehört die effiziente Erstellung von Nachweisen für intensive Margenberechnungen. Aber insgesamt erschließen Coprozessoren neues Potenzial für dezentrale Derivateplattformen, indem sie Datenschutz mit Überprüfbarkeit kombinieren.
Coprozessoren erweitern die Möglichkeiten für Blockchain-Anwendungen erheblich, ohne die Dezentralisierung zu beeinträchtigen. Da Spitzenprojekte in diesem Bereich weiterhin Innovationen hervorbringen, sieht die Zukunft für überprüfbare Off-Chain-Berechnungen auf Ethereum und darüber hinaus rosig aus.
In einem zukünftigen Artikel werde ich auf die Sicherheitsüberlegungen dieser Lösungen eingehen, auf Vergleiche mit Rollups, wie sie in die breitere Ethereum-Anwendungslandschaft passen und ob sie ein Allheilmittel für Skalierungsprobleme sind.
Auf dem Weg zur Erschließung einer neuen Klasse von Anwendungen. Nicht die Rechenleistung, die wir brauchen, sondern die Rechenleistung, die wir verdienen.
Aufgrund der eingeschränkten Verarbeitungsfähigkeiten von Ethereum stoßen dezentrale Apps bei der Durchführung komplexer Berechnungen in der Kette auf Einschränkungen. Infolgedessen haben wir gesehen, dass viele DeFi-Protokolle Komponenten wie Auftragsbücher und Risikosysteme außerhalb der Kette verlagert haben. Dies weist auf einen Bedarf an maßgeschneiderten Rechenumgebungen hin, die auf bestimmte Aufgaben zugeschnitten sind.
Wir haben eine langsame, aber allmähliche Verlagerung vieler Defi-Apps beobachtet, die in der Kette bereitgestellt werden und Teile ihres Systems außerhalb der Kette verwalten. Dydx V4 wird sein Auftragsbuch und möglicherweise auch sein Margin-System außerhalb der Kette halten. Blur hält Teile seines Austauschs außerhalb der Kette, um eine reibungslose UX zu gewährleisten. Aevo, eine Optionsbörse, hält ihr Orderbuch und ihre Risikomaschine außerhalb der Kette. Der einfachste Grund dafür ist die Schwierigkeit, diese leistungsorientierten Systeme effizient und skalierbar in der Kette zu warten.
Die Migration von Komponenten außerhalb der Kette weist auf einen umfassenderen Bedarf hin – maßgeschneiderte (und leistungsstarke) Rechenumgebungen, die auf bestimmte Aufgaben zugeschnitten sind. Das ist jedoch noch nicht alles. In diesem Regime funktioniert der Status quo gut. Wenn ein Protokoll ein Off-Chain-System ausführt, ist es für Sie als Benutzer letztendlich undurchsichtig, darauf zu vertrauen, ob das Off-Chain-System so funktioniert, wie es versprochen hat. Überprüfbare Berechnungen machen Vertrauensannahmen überflüssig und ermöglichen es Protokollen, Off-Chain-Berechnungen durchzuführen, ohne Vertrauensfaktoren einzuführen. Das ist das Versprechen von Coprozessoren für Ethereum. Bevor wir das Coprozessor-Modell in Ethereum diskutieren, wollen wir kurz zusammenfassen, woher diese Idee stammt.
Das Konzept der Coprozessoren hat seinen Ursprung in der Computerarchitektur als Technik zur Leistungssteigerung. Herkömmliche Computer sind auf eine einzige Zentraleinheit (CPU) angewiesen, die alle Berechnungen durchführt. Allerdings wurde die CPU überlastet, da die Arbeitslasten komplexer wurden.
Zur Unterstützung wurden Coprozessoren eingeführt – spezialisierte Prozessoren, die sich bestimmten Aufgaben widmen. Beispielsweise übernehmen Grafikprozessoren (GPUs) die enormen parallelen Berechnungen, die für das 3D-Rendering erforderlich sind. Dadurch kann sich die Haupt-CPU auf die allgemeine Verarbeitung konzentrieren. Weitere gängige Coprozessoren sind kryptografische Beschleuniger für die Verschlüsselung/Entschlüsselung, Signalprozessoren für Multimedia und mathematische Coprozessoren für wissenschaftliche Berechnungen. Jeder Coprozessor verfügt über eine optimierte Architektur, um seine Nischenarbeitslast effizient auszuführen. (Obwohl man sagen könnte, dass das meiste davon durch parallele Programmierung, ala GPUs, abgedeckt wurde.)
Diese Arbeitsteilung zwischen CPU und Coprozessoren führte zu Leistungsverbesserungen um Größenordnungen. Das Coprozessor-Modell ermöglichte es Computern, immer anspruchsvollere Arbeitslasten zu bewältigen, die mit einer einzelnen Generalisten-CPU nicht möglich wären.
Ethereum kann auch als generalistische CPU-VM betrachtet werden und ist allein aufgrund der Sperrkosten, die für die Ausführung in der Kette anfallen müssten, nicht für umfangreiche Berechnungen geeignet, was sogar die Bereitstellung einer Vielzahl von Protokollen einschränkt Designer werden gezwungen, sich innerhalb der Einschränkungen des EVM etwas Neues auszudenken. Vereinfacht gesagt sind die Kosten für komplexe Anwendungen zu restriktiv. Dies hat auch dazu geführt, dass verschiedene Protokolle Teile ihres Protokolls außerhalb der Kette halten, und jedes so eingesetzte Off-Chain-Modell bringt eine gewisse Risikovorstellung mit sich. Ein Risiko der Zentralisierung und ein Risiko einfach des Vertrauens; Sie vertrauen darauf, dass das Protokoll nicht bösartig ist, was etwas im Widerspruch zum Ethos dezentraler Apps steht.
In diesem Artikel versuche ich, einige dieser Lösungen zu betrachten und einen Einblick in die Art von Anwendungen zu geben, die mithilfe dieser Infrastruktur freigeschaltet werden könnten. Ich werde auch versuchen, nach alternativen Möglichkeiten zur Auslagerung von Berechnungen zu suchen, die mit Sicherheit zu einem Eckpfeiler von Anwendungen im Kryptoraum werden werden.
Coprozessoren wie die von Axiom und RiscZero haben kürzlich eine neue Dimension möglicher Anwendungen in der Kette eröffnet, indem sie es Smart Contracts ermöglichen, umfangreiche Berechnungen auszulagern. Die Systeme bieten den Beweis, dass der Code auf eine Weise ausgeführt wurde, die jeder überprüfen kann.
Bonsai und Axiom sind insofern ähnliche Lösungen, als sie die Ausführung beliebiger Berechnungen mit Zugriff auf den On-Chain-Status außerhalb der Kette ermöglichen und „Belege“ darüber liefern, dass die Berechnung durchgeführt wurde.
Axiom ermöglicht den intelligenten Verträgen von Ethereum den Zugriff auf mehr historische On-Chain-Daten und die Durchführung komplexer Berechnungen, während gleichzeitig die Dezentralisierung und Sicherheit des Netzwerks gewahrt bleibt. Derzeit haben Verträge Zugriff auf sehr begrenzte Daten aus dem aktuellen Block, was die Arten von Anwendungen einschränkt, die erstellt werden können. Gleichzeitig würde die Ermöglichung des Vertragszugriffs auf die vollständigen historischen Archivdaten erfordern, dass alle Netzwerkknoten das vollständige Archiv speichern, was aufgrund der Speicherkosten nicht realisierbar ist und sich negativ auf die Dezentralisierung auswirken würde.
Um dieses Problem zu lösen, entwickelt Axiom ein „ZK-Coprozessor“-System. Es ermöglicht Verträgen, historische Blockchain-Daten abzufragen und Berechnungen außerhalb der Kette über das Axiom-Netzwerk durchzuführen. Axiom-Knoten greifen auf die angeforderten On-Chain-Daten zu und führen die angegebene Berechnung durch. Der Schlüssel liegt darin, einen wissensfreien Beweis dafür zu generieren, dass das Ergebnis korrekt aus gültigen On-Chain-Daten berechnet wurde. Dieser Nachweis wird in der Kette überprüft, um sicherzustellen, dass Verträge dem Ergebnis vertrauen können.
Dieser Ansatz ermöglicht Verträgen den Zugriff auf weitaus mehr Daten aus dem Kettenverlauf und die Möglichkeit, komplexe Berechnungen darauf durchzuführen, ohne die Basisschichtknoten zu belasten. Axiom geht davon aus, dass dies neue Anwendungskategorien ermöglichen wird, die auf einer nachweisbaren, objektiven Analyse historischer Blockchain-Aktivitäten basieren. Sie haben bereits die Mainnet-Funktionalität für das Lesen grundlegender Daten eingeführt und planen, sie in naher Zukunft auf den vollständigen Zugriff auf Archivdaten und die ZK-Überprüfung der Vertragsansichtsfunktionen auszuweiten. Ihre längerfristige Vision sind noch fortschrittlichere ZK-Berechnungen, die über die EVM-Fähigkeiten hinausgehen.
Durch die Erstellung von Beweisen für die korrekte Off-Chain-Ausführung erschließt Axiom neue Kategorien von Blockchain-Anwendungen.
Risc Zero hat eine universelle Zero-Knowledge-Virtual-Machine (zkVM) entwickelt, die es ermöglicht, beliebige Programme, die in Sprachen wie Rust, C/C++ und Go geschrieben wurden, ohne Wissen zu testen.
Mit der zkVM können Entwickler beliebigen Rust-Code ohne Kenntnisse testen, ohne benutzerdefinierte Schaltkreise entwerfen zu müssen. Ziel ist es, die Entwicklung von Zero-Knowledge-Anwendungen zugänglicher zu machen. Die zkVM generiert eine Empfangsbestätigung, die bestätigt, dass das Programm korrekt ausgeführt wurde, ohne private Eingaben oder Logik preiszugeben. Dadurch können intensive Berechnungen außerhalb der Kette durchgeführt werden, wobei die Nachweisbelege die korrekte Ausführung in der Kette bestätigen. Rust-Kisten funktionieren in dieser zkVM, es gibt jedoch einige Einschränkungen bei Systemaufrufen. Eine Funktion namens Fortsetzungen ermöglicht die Aufteilung großer Berechnungen in Segmente, die unabhängig voneinander bewiesen werden können. Dies ermöglicht eine parallele Prüfung, wodurch Beschränkungen der Rechengröße aufgehoben werden, und ermöglicht das Anhalten/Fortsetzen von zkVM-Programmen. Fortsetzungen haben neue Anwendungsfälle wie vollständig homomorphe Verschlüsselung, EVM und WASM in der zkVM ermöglicht.
Bonsai ist ein Off-Chain-Zero-Knowledge-Beweisdienst, der von Risc Zero entwickelt wurde, um die Verwendung ihrer universellen zkVM für Ethereum- und Blockchain-Anwendungen zu ermöglichen. Es bietet eine Brücke zwischen On-Chain-Smart-Contracts und Off-Chain-Berechnungen in zkVM.
Der von Bonsai ermöglichte Workflow ist wie folgt:
Der Entwickler schreibt einen Smart Contract, der den Relay-Vertrag von Bonsai aufruft, um eine Off-Chain-Berechnung anzufordern
Bonsai überwacht diese On-Chain-Anfragen und führt das entsprechende in Rust geschriebene zkVM-Programm aus
Das zkVM-Programm läuft in der Infrastruktur von Bonsai, führt die intensive oder private Berechnung außerhalb der Kette durch und generiert dann den Nachweis, dass es korrekt ausgeführt wurde.
Die Nachweisergebnisse, sogenannte „Receipts“, werden von Bonsai über den Relay-Vertrag wieder in der Kette gepostet.
Der Smart Contract des Entwicklers erhält die Ergebnisse in einer Callback-Funktion
Dadurch kann rechenintensive oder sensible Logik außerhalb der Kette erfolgen und gleichzeitig die korrekte Ausführung über zk-Proofs in der Kette validiert werden. Der Smart Contract muss lediglich die Anforderung von Berechnungen und die Verarbeitung der Ergebnisse bewältigen.
Bonsai abstrahiert die Komplexität des Kompilierens von Rust-Code in zkVM-Bytecode, des Hochladens von Programmen, der Ausführung in der VM und der Rückgabe von Beweisen. Entwickler können sich auf das Schreiben ihrer Programmlogik konzentrieren. Diese Infrastruktur ermöglicht somit die Ausführung allgemeiner Berechnungen außerhalb der Kette, während sensible Daten und Logik privat bleiben.
Bonsai ermöglicht Entwicklern die unkomplizierte Erstellung von Blockchain-Anwendungen mit Off-Chain-Computing, ohne dass Fachkenntnisse in der zugrunde liegenden zkVM-Kryptografie und -Infrastruktur erforderlich sind. Einfach ausgedrückt ermöglicht Bonsai Entwicklern die einfache Integration von Off-Chain-Berechnungen ohne ZK-Expertise.
Ist ein ZK-Coprozessor die einzige Möglichkeit, eine überprüfbare Off-Chain-Berechnung zu erreichen? Welche anderen Anwendungen gibt es, um Berechnungen auf vertrauenswürdige und sichere Weise auszulagern? Während die Meinungen über die Sicherheitseigenschaften, die Effizienz und die Implementierung unterschiedlich sind, werden sie in verschiedenen Bereichen der Kryptowährung untersucht und werden langsam in den Vordergrund rücken.
Alternativen wie MPC und TEEs bieten andere Ansätze für überprüfbare Off-Chain-Berechnungen. MPC ermöglicht die gemeinsame Datenverarbeitung sensibler Daten, während TEEs hardwarebasierte sichere Enklaven bieten. Beide stellen Kompromisse dar, können aber Alternativen für ZK-Coprozessoren sein.
Secure Multi-Party Computing (MPC) ermöglicht es mehreren Parteien, gemeinsam eine Funktion über ihre Eingaben zu berechnen und diese Eingaben gleichzeitig privat zu halten. Es ermöglicht die Zusammenarbeit an sensiblen Daten und gewährleistet so die Privatsphäre aller Teilnehmer. Wenn die meisten Parteien unehrlich sind, ist es jedoch unmöglich, im MPC, bei dem entweder alle Parteien den Output erfahren oder keiner davon erfährt, Fairness zu erreichen. Mit anderen Worten: Datenschutz- und Integritätsgarantien verschwinden, wenn alle Knoten beschädigt sind. Die Blockchain-Technologie kann dazu beitragen, MPC-Protokolle gerechter zu machen.
Stellen Sie sich drei Freunde vor, die den Durchschnitt ihrer Gehälter wissen möchten, ohne sich gegenseitig ihre Gehälter preiszugeben. Sie könnten Secure MPC verwenden, um dies zu erreichen.
Angenommen, die Freunde sind Alice, Bob und Eve:
Alice nimmt ihr Gehalt, addiert eine Zufallszahl dazu und teilt Bob das Ergebnis mit.
Bob addiert sein Gehalt und eine weitere Zufallszahl zu der Zahl, die er von Alice erhalten hat, und teilt Eve dann das Ergebnis mit.
Eve addiert ihr Gehalt zur Zahl von Bob, subtrahiert dann alle zuvor hinzugefügten Zufallszahlen und dividiert das Ergebnis durch drei, um den Durchschnitt zu ermitteln.
Die endgültige Zahl ist der Durchschnitt ihrer Gehälter; Niemand hat etwas über die Gehälter der anderen erfahren. Eine Nuance, die hier beachtet werden sollte, ist, dass, obwohl niemand das genaue Gehalt des anderen kennt, wenn der Durchschnitt niedriger ist als Eves Gehalt, Eve daraus schließen könnte, dass das Gehalt eines der anderen beiden niedriger ist als ihres.
Die Blockchain stellt ein manipulationssicheres öffentliches Hauptbuch bereit, das es den Parteien ermöglicht, Informationen zu veröffentlichen. Durch die Verwendung von Zeugenverschlüsselung können Parteien die Ausgabe eines unfairen MPC-Protokolls verschlüsseln. Sie posten Token im Hauptbuch, die das Extrahieren eines Entschlüsselungsschlüssels ermöglichen. Da das Hauptbuch öffentlich ist, können alle Parteien gleichzeitig auf den Entschlüsselungsschlüssel zugreifen. Dies ermöglicht ein faires Entschlüsselungsprotokoll, bei dem entweder alle Parteien die Ausgabe entschlüsseln oder keine.
In „MPC als Blockchain-Vertraulichkeitsschicht“ spricht Andrew Miller darüber, wie MPC bei der Berechnung privater Daten helfen könnte. Das öffentlich überprüfbare MPC verwendet wissensfreie Beweise, um die Integrität trotz vollständiger Knotenbeschädigung aufrechtzuerhalten. Kunden würden Eingaben vornehmen, um die Gültigkeit zu beweisen. Die MPC-Knoten generieren Beweise für die korrekte Berechnung. Letztendlich überprüfen die Prüfer die Eingaben, Ausgaben und die Übereinstimmung der Beweise. Diese Prüfung verursacht nur einen minimalen Mehraufwand, der über die Standard-MPC-Kosten hinausgeht. Beweise sind mit SNARKs mit einem universellen Aufbau prägnant. Es bleiben jedoch Fragen zu Leistungsoptimierungen, Programmiermodellen und der praktischen Bereitstellung offen.
Sensible Daten wie persönliche Informationen, Finanzdaten usw. müssen bei der Speicherung oder Übertragung sowie bei der Verwendung und Verarbeitung geschützt werden. Herkömmliche Verschlüsselungsmethoden schützen Daten im Ruhezustand und während der Übertragung, jedoch nicht, wenn Daten aktiv genutzt werden. Dies stellt ein Problem dar, da Daten bei der Verarbeitung häufig in unverschlüsselter Form vorliegen und somit anfällig für Angriffe sind.
Vertrauenswürdige Ausführungsumgebungen (oder sichere Enklaven) sind isolierte Umgebungen, in denen Daten verschlüsselt werden können, in denen jedoch weiterhin Berechnungen durchgeführt werden können. Die Kernidee besteht darin, die Daten und Berechnungen zu isolieren, sodass selbst privilegierte Systemprozesse nicht darauf zugreifen können. Trusted Execution Environments (TEEs) sind sichere Bereiche innerhalb eines Prozessors, die hardwarebasierte Sicherheitsfunktionen zum Schutz sensibler Daten und Codes bereitstellen. Sie isolieren bestimmte Software vom Rest des Systems und stellen so sicher, dass die Daten im TEE nicht manipuliert werden können, selbst durch das Betriebssystem oder andere auf dem Gerät ausgeführte Software.
Durch TEEs bleiben sensible Daten auch während der Nutzung geschützt. Dies ermöglicht Anwendungen wie datenschutzschützende soziale Netzwerke, Finanzdienstleistungen, Gesundheitswesen usw. Es gibt einige Einschränkungen in Bezug auf Effizienz und Vertrauensannahmen, aber Enklaven sind eine leistungsstarke Technologie mit vielen potenziellen Einsatzmöglichkeiten, insbesondere in Kombination mit Blockchain-Netzwerken zum Aufbau robuster, unzensierbarer Systeme. Die Kompromisse in Bezug auf Vertrauen können für viele kommerzielle und gemeinnützige Anwendungen akzeptabel sein, bei denen ein strenger Datenschutz erforderlich ist.
Mit vertrauenswürdigen Ausführungsumgebungen (Trusted Execution Environments, TEEs) können Sie Berechnungen an einen nicht vertrauenswürdigen Cloud-Drittanbieter auslagern und gleichzeitig Ihre Daten vertraulich und den Betrieb vor Manipulationen schützen. Dies ist äußerst nützlich für dezentrale Anwendungen und Organisationen, die den Komfort und die Kosteneinsparungen der Cloud nutzen möchten, ohne auf Datenschutz oder Kontrolle zu verzichten. Aber TEEs lösen nicht alle Probleme auf magische Weise – es müssen noch einige praktische Herausforderungen gemeistert werden, bevor die meisten Entwickler sie problemlos verwenden können.
Sie stellen einen leistungsstarken Baustein dar, erfordern jedoch noch eine sorgfältige Systemforschung, um die oben genannten Einschränkungen sowie die Zentralisierung, Skalierung und Fehlertoleranz des Anbieters zu beseitigen.
Vertrauenswürdige Ausführungsumgebungen (TEEs) wie Intel SGX und AWS Nitro Enclaves bieten isolierte Umgebungen für die Ausführung sensibler Berechnungen und die Speicherung vertraulicher Daten. TEEs stellen sicher, dass selbst privilegierte Systemprozesse nicht auf Code und Daten innerhalb des TEE zugreifen oder diese manipulieren können. Dadurch können dezentrale Apps und Organisationen Berechnungen an nicht vertrauenswürdige Cloud-Hosts von Drittanbietern auslagern, ohne sich um Datenschutz oder Integrität sorgen zu müssen.
Die Lösung dieser Herausforderungen wird die Anwendbarkeit von TEEs für dezentrale Anwendungen erheblich erweitern, die eine hohe Integrität, Vertraulichkeit und Zensurresistenz erfordern und gleichzeitig Berechnungen und Speicherung in nicht vertrauenswürdige Clouds auslagern. TEEs sind ein leistungsstarkes Grundelement, aber eine durchdachte gemeinsame Systemgestaltung ist weiterhin erforderlich, um ihre Einschränkungen zu überwinden.
Bei der Bewertung von Coprozessoren ist das Sicherheitsmodell und der Grad der Sicherheit, die für verschiedene Arten von Berechnungen erforderlich sind, ein wichtiger Gesichtspunkt. Bestimmte sensible Berechnungen, wie zum Beispiel Matching-Bestellungen, erfordern maximale Sicherheit und minimale Vertrauensannahmen. Für diese bieten Coprozessoren, die wissensfreie Beweise verwenden, wie ZK-Coprozessoren, starke Garantien, da Ergebnisse ohne Vertrauen in den Betreiber überprüft werden können.
ZK-Coprozessoren könnten jedoch Nachteile in Bezug auf Effizienz und Flexibilität haben. Andere Ansätze wie MPC oder vertrauenswürdige Hardware können akzeptable Kompromisse für weniger sensible Berechnungen wie Analysen oder Risikomodellierung sein. Sie bieten zwar schwächere Sicherheiten, ermöglichen aber eine effizientere Nutzung eines größeren Spektrums an Berechnungen. Das erforderliche Sicherheitsniveau hängt von der Risikotoleranz der Anwendungen ab. Die Teams sollten den auf dem Spiel stehenden Wert analysieren und bewerten, ob ungeprüfte, aber effiziente Coprozessoren einen vernünftigen technischen Kompromiss für bestimmte unkritische Berechnungen darstellen.
Insgesamt decken Coprozessoren ein Spektrum von Sicherheitsmodellen ab, und Teams sollten Lösungen an die Sicherheitsanforderungen bestimmter Aufgaben anpassen. Das Ökosystem steckt noch in den Kinderschuhen, daher werden weitere Fortschritte bei der skalierbaren, überprüfbaren Berechnung die Möglichkeiten erweitern.
Im Blog „Feedback Control as a new primitive for Defi“ erwähnen die Autoren, dass die Kontrollmechanismen für den Defi-Mechanismus langsam von einem Ende zum anderen aktualisiert werden könnten, indem sie Reinforcement Learning (RL) und DRL nutzen, wenn Berechnungen und Speicher reichlich vorhanden sind. Während RL immer noch schwierig sein könnte, könnten Anwendungen des maschinellen Lernens aufgrund überprüfbarer Berechnungen dennoch möglich sein.
Die Kreditvergabeprotokolle im vergangenen Jahr wurden auf den Prüfstand gestellt, da die Möglichkeit eines Forderungsausfalls aufgrund aggressiver Parameter für die Token-Verleihung im ansonsten liquiditätsmangelnden Bärenmarkt besteht. Modelle, die auf On-Chain-Liquidität zugreifen und ein Liquiditätsprofil für Vermögenswerte erstellen können, könnten möglicherweise Parameter dynamisch ändern.
Kreditprotokolle könnten beispielsweise von der dynamischen Steuerung der Zinssätze auf der Grundlage von Echtzeit-On-Chain-Daten profitieren. Anstatt sich auf voreingestellte Zinssatzmodelle zu verlassen, könnte ein Feedback-Kontrollsystem die Zinssätze algorithmisch auf der Grundlage aktueller Auslastungs- und Liquiditätsfaktoren anpassen.
Wenn beispielsweise die Nachfrage nach Krediten für einen Vermögenswert hoch ist und die Auslastung steigt, könnte der Controller die Zinssätze schnell erhöhen, um Anreize für das Angebot zu schaffen und die Auslastung zu stabilisieren. Umgekehrt könnten bei geringer Auslastung die Zinssätze gesenkt werden, um Anreize für die Kreditaufnahme zu schaffen. Die Controller-Parameter könnten abgestimmt werden, um Ziele wie die Maximierung des Protokollumsatzes oder die Minimierung der Volatilität zu optimieren.
Um dies umzusetzen, benötigt das Protokoll Zugriff auf Echtzeit-On-Chain-Daten wie Gesamtkreditbeträge, verfügbare Liquidität und andere Nutzungsmetriken. Die Steuerungslogik verarbeitet diese Daten dann, um optimale Zinsanpassungen zu berechnen. Die Tarifaktualisierungen könnten On-Chain über ein DAO oder Off-Chain mit Beweisüberprüfung geregelt werden.
Um dies umzusetzen, benötigt das Protokoll Zugriff auf Echtzeit-On-Chain-Daten wie Gesamtkreditbeträge, verfügbare Liquidität und andere Nutzungsmetriken. Die Steuerungslogik verarbeitet diese Daten dann, um optimale Zinsanpassungen zu berechnen. Die Tarifaktualisierungen könnten On-Chain über ein DAO oder Off-Chain mit Beweisüberprüfung geregelt werden. Obwohl die jüngste Arbeit „Attacks on Dynamic Defi Interest rate Curves“ von Chitra et al. hat gezeigt, dass dynamische Kreditvergabemodelle zu mehr MEV führen. Daher muss das Design dieser Protokolle sorgfältig geprüft werden.
Die Fülle des Zugriffs auf Blockchain-Daten führt uns zu der natürlichen Schlussfolgerung, Anwendungen für maschinelles Lernen auf diese Weise zu nutzen. Während der Nachweis von Berechnungen für Anwendungen des maschinellen Lernens möglicherweise etwas schwieriger ist, ist die überprüfbare ML-Berechnung für sich genommen ein riesiger Markt. Diese könnten auch für On-Chain-Anwendungen genutzt werden, insbesondere in einigen Sicherheitsanwendungen.
Blockchain-Daten enthalten wertvolle Signale, die maschinelle Lernmodelle nutzen könnten, um verdächtige Aktivitäten zu erkennen oder Risikomanagementsysteme zu betreiben. Aufgrund der Gaskosten und Datenschutzbedenken ist der Betrieb von ML in der Kette derzeit jedoch nicht möglich. Dies könnte wie On-Chain-Überwachungssysteme für Smart Contracts, Wallets oder Portfoliomanager zur Erkennung verdächtiger Abhebungen oder Überweisungen aussehen. Es steht eine große Menge an Profilierungsdaten für verschiedene Arten von Signalen zur Verfügung, die im Hinblick auf die Sicherheit gewonnen werden können, beispielsweise für „Ruggers“, „Hacks“ und andere böswillige Angriffe. Es kann auch für Defi-Anwendungen zur Bonitätsprüfung und Risikoprofilierung für Kreditgeber und Kreditnehmer angesichts ihrer On-Chain-Historie verwendet werden.
Zu den Herausforderungen zählen Datenqualität, Konzeptdrift und Leistungseinschränkungen von Beweissystemen. Doch durch die Kombination von ML mit überprüfbarer Off-Chain-Berechnung eröffnen Coprozessoren viele neue Möglichkeiten für Blockchain-Analysen und Risikomanagement.
Margin-Systeme für Perpetual Swaps waren den Benutzern bei zentralisierten und sogar dezentralen Börsen immer verborgen. Margin-Systeme für Derivate wie Perpetual Swaps und Optionen waren traditionell undurchsichtige Black Boxes, die von zentralisierten Börsen kontrolliert wurden.
Coprozessoren bieten die Möglichkeit, eine transparente und überprüfbare Margining-Logik für den dezentralen Handel zu implementieren. Das Versprechen, Auto-Deleveraging-Systeme auf verifizierte Weise zu implementieren, bietet den Benutzern einen höheren Vertrauensfaktor und unterscheidet sie sofort von ihren zentralisierten Gegenstücken.
Das Margining-System könnte indexierte Preis-Feeds und Positionswerte für Perpetual Swaps überwachen und Positionen liquidieren, bevor ihr Margin-Saldo negativ wird. Alle Risikoparameter wie Wartungsmargenquoten, Finanzierungsraten und Liquidationsstrafen könnten in der Kette geregelt werden.
Allerdings können die intensiven Berechnungen zur Berechnung von Margin-Salden, nicht realisierten PnL, Liquidationsbeträgen usw. auf einen Coprozessor verlagert werden. Es würde die Margin-Engine-Logik in einer vertraulichen Umgebung ausführen und Beweise generieren, die die korrekte Berechnung bestätigen.
Zu den Vorteilen des Coprozessor-Ansatzes gehören Transparenz, Überprüfbarkeit und Datenschutz. Die Margin-Engine-Logik ist keine proprietäre Blackbox mehr. Berechnungen erfolgen außerhalb der Kette, aber Benutzer können sich auf Beweise für die korrekte Ausführung verlassen. Dasselbe könnte auch für Optionen erreicht werden.
Zu den Herausforderungen gehört die effiziente Erstellung von Nachweisen für intensive Margenberechnungen. Aber insgesamt erschließen Coprozessoren neues Potenzial für dezentrale Derivateplattformen, indem sie Datenschutz mit Überprüfbarkeit kombinieren.
Coprozessoren erweitern die Möglichkeiten für Blockchain-Anwendungen erheblich, ohne die Dezentralisierung zu beeinträchtigen. Da Spitzenprojekte in diesem Bereich weiterhin Innovationen hervorbringen, sieht die Zukunft für überprüfbare Off-Chain-Berechnungen auf Ethereum und darüber hinaus rosig aus.
In einem zukünftigen Artikel werde ich auf die Sicherheitsüberlegungen dieser Lösungen eingehen, auf Vergleiche mit Rollups, wie sie in die breitere Ethereum-Anwendungslandschaft passen und ob sie ein Allheilmittel für Skalierungsprobleme sind.