Zum Hauptinhalt springen

6 Posts getaggt mit "Sicherheit"

Alle Tags anzeigen

Googles Agent Payments Protocol (AP2)

· 35 Minuten Lesezeit
Dora Noda
Software Engineer

Googles Agent Payments Protocol (AP2) ist ein neu angekündigter offener Standard, der sichere, vertrauenswürdige Transaktionen ermöglichen soll, die von KI-Agenten im Auftrag von Nutzern initiiert werden. AP2 wurde in Zusammenarbeit mit über 60 Zahlungs- und Technologieunternehmen (einschließlich großer Zahlungsnetzwerke, Banken, Fintechs und Web3-Unternehmen) entwickelt und etabliert eine gemeinsame Sprache für „agentische“ Zahlungen – d. h. Käufe und Finanztransaktionen, die ein autonomer Agent (wie ein KI-Assistent oder ein LLM-basierter Agent) für einen Nutzer ausführen kann. Die Entwicklung von AP2 wird durch einen grundlegenden Wandel vorangetrieben: Traditionell gingen Online-Zahlungssysteme davon aus, dass ein Mensch direkt auf „Kaufen“ klickt, doch der Aufstieg von KI-Agenten, die nach Benutzeranweisungen handeln, bricht diese Annahme. AP2 adressiert die daraus resultierenden Herausforderungen bei Autorisierung, Authentizität und Verantwortlichkeit im KI-gesteuerten Handel, während es mit der bestehenden Zahlungsinfrastruktur kompatibel bleibt. Dieser Bericht untersucht die technische Architektur von AP2, seinen Zweck und seine Anwendungsfälle, Integrationen mit KI-Agenten und Zahlungsdienstleistern, Sicherheits- und Compliance-Aspekte, Vergleiche mit bestehenden Protokollen, Implikationen für Web3/dezentrale Systeme sowie die Branchenakzeptanz/Roadmap.

Technische Architektur: Wie AP2 funktioniert

Im Kern führt AP2 ein kryptografisch sicheres Transaktions-Framework ein, das auf verifizierbaren digitalen Berechtigungsnachweisen (VDCs) basiert – im Wesentlichen manipulationssichere, signierte Datenobjekte, die als digitale „Verträge“ dessen dienen, was der Nutzer autorisiert hat. In der AP2-Terminologie werden diese Verträge Mandate genannt, und sie bilden eine prüfbare Beweiskette für jede Transaktion. Es gibt drei primäre Arten von Mandaten in der AP2-Architektur:

  • Intent Mandate: Erfasst die ursprünglichen Anweisungen oder Bedingungen des Nutzers für einen Kauf, insbesondere für „Szenarien ohne menschliche Anwesenheit“ (bei denen der Agent später ohne den online befindlichen Nutzer handelt). Es definiert den Umfang der Autorität, den der Nutzer dem Agenten erteilt – zum Beispiel „Kaufe Konzertkarten, wenn sie unter 200 $ fallen, bis zu 2 Tickets“. Dieses Mandat wird vom Nutzer im Voraus kryptografisch signiert und dient als verifizierbarer Nachweis der Zustimmung innerhalb spezifischer Grenzen.
  • Cart Mandate: Repräsentiert die endgültigen Transaktionsdetails, die der Nutzer genehmigt hat, verwendet in „Szenarien mit menschlicher Anwesenheit“ oder zum Zeitpunkt des Bezahlvorgangs. Es umfasst die genauen Artikel oder Dienstleistungen, deren Preis und andere Einzelheiten des Kaufs. Wenn der Agent bereit ist, die Transaktion abzuschließen (z. B. nach dem Befüllen eines Warenkorbs), signiert der Händler zuerst kryptografisch den Warenkorbinhalt (garantiert die Bestelldetails und den Preis), und dann signiert der Nutzer (über sein Gerät oder die Agentenoberfläche), um ein Cart Mandate zu erstellen. Dies gewährleistet Was-Sie-sehen-ist-was-Sie-bezahlen, indem die endgültige Bestellung genau so fixiert wird, wie sie dem Nutzer präsentiert wurde.
  • Payment Mandate: Ein separater Berechtigungsnachweis, der an das Zahlungsnetzwerk (z. B. Kartennetzwerk oder Bank) gesendet wird, um zu signalisieren, dass ein KI-Agent an der Transaktion beteiligt ist. Das Payment Mandate enthält Metadaten, wie z. B. ob der Nutzer während der Autorisierung anwesend war oder nicht, und dient als Kennzeichen für Risikomanagementsysteme. Durch die Bereitstellung kryptografisch verifizierbarer Beweise der Nutzerabsicht für die akzeptierenden und ausstellenden Banken hilft dieses Mandat ihnen, den Kontext zu bewerten (z. B. einen von einem Agenten initiierten Kauf von typischem Betrug zu unterscheiden) und Compliance oder Haftung entsprechend zu verwalten.

Alle Mandate werden als verifizierbare Berechtigungsnachweise implementiert, die mit den Schlüsseln der jeweiligen Partei (Nutzer, Händler usw.) signiert sind, was einen nicht abstreitbaren Audit-Trail für jede agentengesteuerte Transaktion ergibt. In der Praxis verwendet AP2 eine rollenbasierte Architektur, um sensible Informationen zu schützen – zum Beispiel könnte ein Agent ein Intent Mandate bearbeiten, ohne jemals Rohzahlungsdetails zu sehen, die nur kontrolliert bei Bedarf offengelegt werden, wodurch die Privatsphäre gewahrt bleibt. Die kryptografische Kette von Nutzerabsicht → Händlerverpflichtung → Zahlungsautorisierung etabliert Vertrauen zwischen allen Parteien, dass die Transaktion die wahren Anweisungen des Nutzers widerspiegelt und dass sowohl der Agent als auch der Händler diese Anweisungen befolgt haben.

Transaktionsfluss: Um zu veranschaulichen, wie AP2 End-to-End funktioniert, betrachten wir ein einfaches Kaufszenario mit einem Menschen in der Schleife:

  1. Nutzeranfrage: Der Nutzer bittet seinen KI-Agenten, einen bestimmten Artikel oder eine Dienstleistung zu kaufen (z. B. „Bestelle dieses Paar Schuhe in meiner Größe“).
  2. Warenkorb-Erstellung: Der Agent kommuniziert mit den Systemen des Händlers (unter Verwendung von Standard-APIs oder über eine Agent-zu-Agent-Interaktion), um einen Warenkorb für den angegebenen Artikel zu einem bestimmten Preis zusammenzustellen.
  3. Händlergarantie: Bevor der Warenkorb dem Nutzer präsentiert wird, signiert die Händlerseite die Warenkorbdetails (Artikel, Menge, Preis usw.) kryptografisch. Dieser Schritt erstellt ein vom Händler signiertes Angebot, das die genauen Bedingungen garantiert (verhindert versteckte Änderungen oder Preismanipulationen).
  4. Nutzergenehmigung: Der Agent zeigt dem Nutzer den finalisierten Warenkorb. Der Nutzer bestätigt den Kauf, und diese Genehmigung löst zwei kryptografische Signaturen von der Nutzerseite aus: eine auf dem Cart Mandate (um den Warenkorb des Händlers unverändert zu akzeptieren) und eine auf dem Payment Mandate (um die Zahlung über den gewählten Zahlungsdienstleister zu autorisieren). Diese signierten Mandate werden dann dem Händler bzw. dem Zahlungsnetzwerk mitgeteilt.
  5. Ausführung: Ausgestattet mit dem Cart Mandate und dem Payment Mandate führen Händler und Zahlungsdienstleister die Transaktion sicher aus. Zum Beispiel übermittelt der Händler die Zahlungsanfrage zusammen mit dem Nachweis der Nutzergenehmigung an das Zahlungsnetzwerk (Kartennetzwerk, Bank usw.), das das Payment Mandate überprüfen kann. Das Ergebnis ist eine abgeschlossene Kauftransaktion mit einem kryptografischen Audit-Trail, der die Absicht des Nutzers mit der endgültigen Zahlung verknüpft.

Dieser Fluss zeigt, wie AP2 Vertrauen in jeden Schritt eines KI-gesteuerten Kaufs aufbaut. Der Händler hat einen kryptografischen Nachweis dessen, was der Nutzer genau zu welchem Preis zu kaufen zugestimmt hat, und der Emittent/die Bank hat einen Nachweis, dass der Nutzer diese Zahlung autorisiert hat, obwohl ein KI-Agent den Prozess erleichtert hat. Im Falle von Streitigkeiten oder Fehlern dienen die signierten Mandate als klare Beweismittel und helfen, die Verantwortlichkeit zu bestimmen (z. B. wenn der Agent von Anweisungen abgewichen ist oder wenn eine Belastung nicht dem entsprach, was der Nutzer genehmigt hatte). Im Wesentlichen stellt die Architektur von AP2 sicher, dass die verifizierbare Nutzerabsicht – und nicht das Vertrauen in das Verhalten des Agenten – die Grundlage der Transaktion bildet, wodurch die Mehrdeutigkeit erheblich reduziert wird.

Zweck und Anwendungsfälle für AP2

Warum AP2 benötigt wird: Der Hauptzweck von AP2 ist es, aufkommende Vertrauens- und Sicherheitsprobleme zu lösen, die entstehen, wenn KI-Agenten im Auftrag von Nutzern Geld ausgeben können. Google und seine Partner identifizierten mehrere Schlüsselfragen, die die heutige Zahlungsinfrastruktur nicht adäquat beantworten kann, wenn ein autonomer Agent involviert ist:

  • Autorisierung: Wie kann nachgewiesen werden, dass ein Nutzer dem Agenten tatsächlich die Erlaubnis erteilt hat, einen bestimmten Kauf zu tätigen? (Mit anderen Worten, sicherzustellen, dass der Agent keine Dinge ohne die informierte Zustimmung des Nutzers kauft.)
  • Authentizität: Wie kann ein Händler wissen, dass die Kaufanfrage eines Agenten echt ist und die wahre Absicht des Nutzers widerspiegelt, anstatt eines Fehlers oder einer KI-Halluzination?
  • Verantwortlichkeit: Wenn eine betrügerische oder fehlerhafte Transaktion über einen Agenten erfolgt, wer ist verantwortlich – der Nutzer, der Händler, der Zahlungsdienstleister oder der Ersteller des KI-Agenten?

Ohne eine Lösung schaffen diese Unsicherheiten eine „Vertrauenskrise“ im agentengesteuerten Handel. Die Mission von AP2 ist es, diese Lösung bereitzustellen, indem es ein einheitliches Protokoll für sichere Agententransaktionen etabliert. Durch die Einführung standardisierter Mandate und Absichtsnachweise verhindert AP2 ein fragmentiertes Ökosystem, in dem jedes Unternehmen seine eigenen Ad-hoc-Agentenzahlungsmethoden erfindet. Stattdessen kann jeder konforme KI-Agent mit jedem konformen Händler/Zahlungsdienstleister unter einem gemeinsamen Satz von Regeln und Verifizierungen interagieren. Diese Konsistenz vermeidet nicht nur Verwirrung bei Nutzern und Händlern, sondern gibt Finanzinstituten auch eine klare Möglichkeit, Risiken für von Agenten initiierte Zahlungen zu verwalten, anstatt sich mit einem Flickenteppich proprietärer Ansätze auseinanderzusetzen. Kurz gesagt, der Zweck von AP2 ist es, eine grundlegende Vertrauensschicht zu sein, die es der „Agenten-Ökonomie“ ermöglicht, zu wachsen, ohne das Zahlungsökosystem zu zerstören.

Beabsichtigte Anwendungsfälle: Durch die Lösung der oben genannten Probleme öffnet AP2 die Tür zu neuen Handelserlebnissen und Anwendungsfällen, die über das hinausgehen, was mit einem Menschen, der manuell Käufe durchklickt, möglich ist. Einige Beispiele für agentengesteuerten Handel, die AP2 unterstützt, sind:

  • Intelligenteres Einkaufen: Ein Kunde kann seinem Agenten anweisen: „Ich möchte diese Winterjacke in Grün, und ich bin bereit, bis zu 20 % über dem aktuellen Preis dafür zu zahlen“. Ausgestattet mit einem Intent Mandate, das diese Bedingungen kodiert, überwacht der Agent kontinuierlich Händler-Websites oder Datenbanken. Sobald die Jacke in Grün verfügbar ist (und innerhalb des Preisschwellenwerts), führt der Agent automatisch einen Kauf mit einer sicheren, signierten Transaktion aus – und sichert einen Verkauf, der sonst verpasst worden wäre. Die gesamte Interaktion, von der ursprünglichen Anfrage des Nutzers bis zum automatisierten Bezahlvorgang, wird durch AP2-Mandate geregelt, die sicherstellen, dass der Agent nur genau das kauft, was autorisiert wurde.
  • Personalisierte Angebote: Ein Nutzer teilt seinem Agenten mit, dass er ein bestimmtes Produkt (z. B. ein neues Fahrrad) von einem bestimmten Händler für eine bevorstehende Reise sucht. Der Agent kann dieses Interesse (innerhalb der Grenzen eines Intent Mandate) mit dem KI-Agenten des Händlers teilen, einschließlich relevanter Kontextinformationen wie dem Reisedatum. Der Händler-Agent, der die Absicht und den Kontext des Nutzers kennt, könnte mit einem maßgeschneiderten Paket oder Rabatt antworten – zum Beispiel „Fahrrad + Helm + Gepäckträger mit 15 % Rabatt, verfügbar für die nächsten 48 Stunden.“ Mit AP2 kann der Agent des Nutzers dieses maßgeschneiderte Angebot sicher annehmen und abschließen, wodurch eine einfache Anfrage zu einem wertvolleren Verkauf für den Händler wird.
  • Koordinierte Aufgaben: Ein Nutzer, der eine komplexe Aufgabe (z. B. eine Wochenendreise) plant, delegiert sie vollständig: „Buche mir einen Flug und ein Hotel für diese Daten mit einem Gesamtbudget von 700 $.“ Der Agent kann mit den Agenten mehrerer Dienstleister – Fluggesellschaften, Hotels, Reiseplattformen – interagieren, um eine Kombination zu finden, die zum Budget passt. Sobald ein passendes Flug-Hotel-Paket identifiziert ist, verwendet der Agent AP2, um mehrere Buchungen auf einmal auszuführen, jede kryptografisch signiert (z. B. die Ausstellung separater Cart Mandates für die Fluggesellschaft und das Hotel, beide unter dem Intent Mandate des Nutzers autorisiert). AP2 stellt sicher, dass alle Teile dieser koordinierten Transaktion wie genehmigt erfolgen, und ermöglicht sogar die gleichzeitige Ausführung, sodass Tickets und Reservierungen zusammen gebucht werden, ohne das Risiko, dass ein Teil mittendrin fehlschlägt.

Diese Szenarien veranschaulichen nur einige der beabsichtigten Anwendungsfälle von AP2. Im weiteren Sinne unterstützt das flexible Design von AP2 sowohl konventionelle E-Commerce-Abläufe als auch völlig neue Handelsmodelle. Zum Beispiel kann AP2 abonnementähnliche Dienste erleichtern (ein Agent hält Sie mit dem Nötigsten versorgt, indem er kauft, wenn Bedingungen erfüllt sind), ereignisgesteuerte Käufe (Kauf von Tickets oder Artikeln, sobald ein Auslöseereignis eintritt), Gruppenagentenverhandlungen (Agenten mehrerer Nutzer bündeln Mandate, um einen Gruppenrabatt auszuhandeln) und viele andere aufkommende Muster. In jedem Fall ist der gemeinsame Nenner, dass AP2 das Vertrauens-Framework – klare Nutzerautorisierung und kryptografische Prüfbarkeit – bereitstellt, das diese agentengesteuerten Transaktionen sicher ermöglicht. Durch die Handhabung der Vertrauens- und Verifizierungsschicht ermöglicht AP2 Entwicklern und Unternehmen, sich auf die Innovation neuer KI-Handelserlebnisse zu konzentrieren, ohne die Zahlungssicherheit von Grund auf neu erfinden zu müssen.

Integration mit Agenten, LLMs und Zahlungsdienstleistern

AP2 ist explizit darauf ausgelegt, sich nahtlos in KI-Agenten-Frameworks und bestehende Zahlungssysteme zu integrieren und als Brücke zwischen beiden zu fungieren. Google hat AP2 als Erweiterung seiner Agent2Agent (A2A)-Protokoll- und Model Context Protocol (MCP)-Standards positioniert. Mit anderen Worten, wenn A2A eine generische Sprache für Agenten zur Kommunikation von Aufgaben bereitstellt und MCP standardisiert, wie KI-Modelle Kontext/Tools einbeziehen, dann fügt AP2 eine Transaktionsschicht für den Handel hinzu. Die Protokolle sind komplementär: A2A handhabt die Agent-zu-Agent-Kommunikation (ermöglicht es beispielsweise einem Einkaufsagenten, mit dem Agenten eines Händlers zu sprechen), während AP2 die Agent-zu-Händler-Zahlungsautorisierung innerhalb dieser Interaktionen handhabt. Da AP2 offen und nicht-proprietär ist, soll es Framework-agnostisch sein: Entwickler können es mit Googles eigenem Agent Development Kit (ADK) oder jeder KI-Agentenbibliothek verwenden, und ebenso kann es mit verschiedenen KI-Modellen, einschließlich LLMs, zusammenarbeiten. Ein LLM-basierter Agent könnte AP2 beispielsweise nutzen, indem er die erforderlichen Mandats-Payloads (geleitet von der AP2-Spezifikation) generiert und austauscht, anstatt nur Freitext. Durch die Durchsetzung eines strukturierten Protokolls hilft AP2, die hochrangige Absicht eines KI-Agenten (die aus der Argumentation eines LLM stammen könnte) in konkrete, sichere Transaktionen umzuwandeln.

Auf der Zahlungsseite wurde AP2 in Zusammenarbeit mit traditionellen Zahlungsdienstleistern und Standards entwickelt, anstatt als Rip-and-Replace-System. Das Protokoll ist zahlungsmethodenagnostisch, was bedeutet, dass es eine Vielzahl von Zahlungswegen unterstützen kann – von Kredit-/Debitkartennetzwerken über Banküberweisungen bis hin zu digitalen Geldbörsen – als zugrunde liegende Methode zur Geldbewegung. In seiner ersten Version betont AP2 die Kompatibilität mit Kartenzahlungen, da diese im Online-Handel am häufigsten sind. Das AP2 Payment Mandate ist darauf ausgelegt, sich in den bestehenden Kartenverarbeitungsprozess einzufügen: Es liefert zusätzliche Daten an das Zahlungsnetzwerk (z. B. Visa, Mastercard, Amex) und die ausstellende Bank, dass ein KI-Agent involviert ist und ob der Nutzer anwesend war, wodurch bestehende Betrugserkennungs- und Autorisierungsprüfungen ergänzt werden. Im Wesentlichen verarbeitet AP2 die Zahlung nicht selbst; es ergänzt die Zahlungsanfrage um einen kryptografischen Nachweis der Nutzerabsicht. Dies ermöglicht es Zahlungsdienstleistern, von Agenten initiierte Transaktionen mit angemessener Vorsicht oder Geschwindigkeit zu behandeln (z. B. könnte ein Emittent einen ungewöhnlich aussehenden Kauf genehmigen, wenn er ein gültiges AP2-Mandat sieht, das beweist, dass der Nutzer es vorab genehmigt hat). Insbesondere planen Google und Partner, AP2 weiterzuentwickeln, um auch „Push“-Zahlungsmethoden zu unterstützen – wie Echtzeit-Banküberweisungen (wie Indiens UPI- oder Brasiliens PIX-Systeme) – und andere aufkommende digitale Zahlungsarten. Dies deutet darauf hin, dass die Integration von AP2 über Karten hinausgehen und sich an modernen Zahlungstrends weltweit ausrichten wird.

Für Händler und Zahlungsabwickler würde die Integration von AP2 bedeuten, die zusätzlichen Protokollnachrichten (Mandate) zu unterstützen und Signaturen zu verifizieren. Viele große Zahlungsplattformen sind bereits an der Gestaltung von AP2 beteiligt, sodass wir erwarten können, dass sie Unterstützung dafür aufbauen werden. Zum Beispiel könnten Unternehmen wie Adyen, Worldpay, Paypal, Stripe (nicht explizit im Blog genannt, aber wahrscheinlich interessiert) und andere AP2 in ihre Checkout-APIs oder SDKs integrieren, um einem Agenten zu ermöglichen, eine Zahlung auf standardisierte Weise zu initiieren. Da AP2 eine offene Spezifikation auf GitHub mit Referenzimplementierungen ist, können Zahlungsdienstleister und Technologieplattformen sofort damit experimentieren. Google hat auch einen KI-Agenten-Marktplatz erwähnt, auf dem Drittanbieter-Agenten gelistet werden können – diese Agenten werden voraussichtlich AP2 für alle Transaktionsfähigkeiten unterstützen. In der Praxis könnte ein Unternehmen, das einen KI-Verkaufsassistenten oder Beschaffungsagenten entwickelt, diesen auf diesem Marktplatz listen, und dank AP2 kann dieser Agent Käufe oder Bestellungen zuverlässig ausführen.

Schließlich profitiert die Integrationsgeschichte von AP2 von ihrer breiten Branchenunterstützung. Durch die gemeinsame Entwicklung des Protokolls mit großen Finanzinstituten und Technologieunternehmen stellte Google sicher, dass AP2 mit bestehenden Branchenregeln und Compliance-Anforderungen übereinstimmt. Die Zusammenarbeit mit Zahlungsnetzwerken (z. B. Mastercard, UnionPay), Emittenten (z. B. American Express), Fintechs (z. B. Revolut, Paypal), E-Commerce-Akteuren (z. B. Etsy) und sogar Identitäts-/Sicherheitsanbietern (z. B. Okta, Cloudflare) deutet darauf hin, dass AP2 so konzipiert ist, dass es mit minimaler Reibung in reale Systeme passt. Diese Stakeholder bringen Fachwissen in Bereichen wie KYC (Know Your Customer-Vorschriften), Betrugsprävention und Datenschutz mit, was AP2 hilft, diese Anforderungen von Anfang an zu erfüllen. Zusammenfassend lässt sich sagen, dass AP2 agentenfreundlich und zahlungsdienstleisterfreundlich aufgebaut ist: Es erweitert bestehende KI-Agentenprotokolle, um Transaktionen zu handhaben, und es schichtet sich über bestehende Zahlungsnetzwerke, um deren Infrastruktur zu nutzen und gleichzeitig notwendige Vertrauensgarantien hinzuzufügen.

Sicherheits-, Compliance- und Interoperabilitätsaspekte

Sicherheit und Vertrauen stehen im Mittelpunkt des AP2-Designs. Die Verwendung von Kryptografie (digitale Signaturen auf Mandaten) durch das Protokoll stellt sicher, dass jede kritische Aktion in einer agentischen Transaktion verifizierbar und nachvollziehbar ist. Diese Nicht-Abstreitbarkeit ist entscheidend: Weder der Nutzer noch der Händler können später leugnen, was autorisiert und vereinbart wurde, da die Mandate als sichere Aufzeichnungen dienen. Ein direkter Vorteil liegt in der Betrugsprävention und Streitbeilegung – mit AP2 wäre, wenn ein bösartiger oder fehlerhafter Agent einen nicht autorisierten Kauf versucht, das Fehlen eines gültigen vom Nutzer signierten Mandats offensichtlich, und die Transaktion kann abgelehnt oder rückgängig gemacht werden. Umgekehrt, wenn ein Nutzer behauptet „Ich habe diesen Kauf nie genehmigt“, aber ein Cart Mandate mit seiner kryptografischen Signatur existiert, haben Händler und Emittent starke Beweise, um die Belastung zu unterstützen. Diese Klarheit der Verantwortlichkeit beantwortet ein wichtiges Compliance-Anliegen für die Zahlungsbranche.

Autorisierung & Datenschutz: AP2 erzwingt einen expliziten Autorisierungsschritt (oder mehrere Schritte) vom Nutzer für agentengesteuerte Transaktionen, was mit regulatorischen Trends wie der starken Kundenauthentifizierung übereinstimmt. Das in AP2 verankerte Prinzip der Nutzerkontrolle bedeutet, dass ein Agent keine Gelder ausgeben kann, es sei denn, der Nutzer (oder eine vom Nutzer delegierte Person) hat eine verifizierbare Anweisung dazu gegeben. Selbst in vollständig autonomen Szenarien definiert der Nutzer die Regeln über ein Intent Mandate vorab. Dieser Ansatz kann als analog zur Erteilung einer Vollmacht an den Agenten für spezifische Transaktionen angesehen werden, jedoch auf digital signierte, feingranulare Weise. Aus Datenschutzsicht ist AP2 aufmerksam bezüglich der Datenweitergabe: Das Protokoll verwendet eine rollenbasierte Datenarchitektur, um sicherzustellen, dass sensible Informationen (wie Zahlungsdaten oder persönliche Details) nur an Parteien weitergegeben werden, die sie unbedingt benötigen. Zum Beispiel könnte ein Agent ein Cart Mandate an einen Händler senden, das Artikel- und Preisinformationen enthält, aber die tatsächliche Kartennummer des Nutzers könnte nur über das Payment Mandate an den Zahlungsabwickler weitergegeben werden, nicht an den Agenten oder Händler. Dies minimiert die unnötige Offenlegung von Daten und unterstützt die Einhaltung von Datenschutzgesetzen und PCI-DSS-Regeln für den Umgang mit Zahlungsdaten.

Compliance & Standards: Da AP2 unter Beteiligung etablierter Finanzunternehmen entwickelt wurde, ist es darauf ausgelegt, bestehende Compliance-Standards im Zahlungsverkehr zu erfüllen oder zu ergänzen. Das Protokoll umgeht die üblichen Zahlungsautorisierungsabläufe nicht – stattdessen ergänzt es sie um zusätzliche Beweise und Kennzeichen. Dies bedeutet, dass AP2-Transaktionen weiterhin Betrugserkennungssysteme, 3-D Secure-Prüfungen oder alle erforderlichen regulatorischen Prüfungen nutzen können, wobei die AP2-Mandate als zusätzliche Authentifizierungsfaktoren oder Kontextsignale dienen. Zum Beispiel könnte eine Bank ein Payment Mandate ähnlich einer digitalen Signatur eines Kunden auf einer Transaktion behandeln, was die Einhaltung von Anforderungen an die Nutzerzustimmung potenziell rationalisiert. Darüber hinaus erwähnen die Designer von AP2 explizit die Zusammenarbeit „im Einklang mit Branchenregeln und -standards“. Wir können daraus schließen, dass AP2 im Laufe seiner Entwicklung möglicherweise an formale Standardisierungsgremien (wie das W3C, EMVCo oder ISO) herangetragen wird, um die Übereinstimmung mit globalen Finanzstandards sicherzustellen. Google hat sich zu einer offenen, kollaborativen Weiterentwicklung von AP2, möglicherweise durch Standardisierungsorganisationen, verpflichtet. Dieser offene Prozess wird dazu beitragen, regulatorische Bedenken auszuräumen und eine breite Akzeptanz zu erreichen, ähnlich wie frühere Zahlungsstandards (EMV-Chipkarten, 3-D Secure usw.) eine branchenweite Zusammenarbeit durchliefen.

Interoperabilität: Die Vermeidung von Fragmentierung ist ein Hauptziel von AP2. Zu diesem Zweck ist das Protokoll offen veröffentlicht und für jedermann zur Implementierung oder Integration verfügbar. Es ist nicht an Google Cloud-Dienste gebunden – tatsächlich ist AP2 Open Source (Apache-2-lizenziert) und die Spezifikation sowie der Referenzcode befinden sich in einem öffentlichen GitHub-Repository. Dies fördert die Interoperabilität, da mehrere Anbieter AP2 übernehmen und ihre Systeme dennoch zusammenarbeiten können. Bereits wird das Interoperabilitätsprinzip hervorgehoben: AP2 ist eine Erweiterung bestehender offener Protokolle (A2A, MCP) und nicht-proprietär, was bedeutet, dass es ein wettbewerbsorientiertes Ökosystem von Implementierungen fördert und keine Ein-Anbieter-Lösung. In der Praxis könnte ein von Unternehmen A gebauter KI-Agent eine Transaktion mit einem Händlersystem von Unternehmen B initiieren, wenn beide AP2 befolgen – keine Seite ist an eine Plattform gebunden.

Eine mögliche Sorge ist die Sicherstellung einer konsistenten Akzeptanz: Wenn einige große Akteure ein anderes Protokoll oder einen geschlossenen Ansatz wählen würden, könnte es dennoch zu Fragmentierung kommen. Angesichts der breiten Koalition hinter AP2 scheint es jedoch darauf ausgerichtet zu sein, ein De-facto-Standard zu werden. Die Einbeziehung vieler auf Identität und Sicherheit spezialisierter Unternehmen (z. B. Okta, Cloudflare, Ping Identity) in das AP2-Ökosystem Abbildung: Über 60 Unternehmen aus den Bereichen Finanzen, Technologie und Krypto arbeiten an AP2 zusammen (Teilliste der Partner). deutet darauf hin, dass Interoperabilität und Sicherheit gemeinsam angegangen werden. Diese Partner können dazu beitragen, AP2 in Identitätsverifizierungs-Workflows und Betrugspräventionstools zu integrieren, um sicherzustellen, dass eine AP2-Transaktion systemübergreifend vertrauenswürdig ist.

Aus technologischer Sicht macht die Verwendung weit verbreiteter kryptografischer Techniken (wahrscheinlich JSON-LD- oder JWT-basierte verifizierbare Berechtigungsnachweise, Public-Key-Signaturen usw.) AP2 mit bestehender Sicherheitsinfrastruktur kompatibel. Organisationen können ihre bestehende PKI (Public Key Infrastructure) verwenden, um Schlüssel zum Signieren von Mandaten zu verwalten. AP2 scheint auch die Integration mit dezentralen Identitätssystemen zu antizipieren: Google erwähnt, dass AP2 Möglichkeiten schafft, in Bereichen wie der dezentralen Identität für die Agentenautorisierung zu innovieren. Dies bedeutet, dass AP2 in Zukunft DID (Decentralized Identifier)-Standards oder dezentrale Identifikatorverifizierung nutzen könnte, um Agenten und Nutzer auf vertrauenswürdige Weise zu identifizieren. Ein solcher Ansatz würde die Interoperabilität weiter verbessern, indem er sich nicht auf einen einzigen Identitätsanbieter verlässt. Zusammenfassend lässt sich sagen, dass AP2 Sicherheit durch Kryptografie und klare Verantwortlichkeit betont, darauf abzielt, von Design her Compliance-fähig zu sein, und Interoperabilität durch seinen offenen Standardcharakter und die breite Branchenunterstützung fördert.

Vergleich mit bestehenden Protokollen

AP2 ist ein neuartiges Protokoll, das eine Lücke schließt, die bestehende Zahlungs- und Agenten-Frameworks nicht abgedeckt haben: die Ermöglichung, dass autonome Agenten Zahlungen auf sichere, standardisierte Weise durchführen können. Im Hinblick auf Agentenkommunikationsprotokolle baut AP2 auf früheren Arbeiten wie dem Agent2Agent (A2A)-Protokoll auf. A2A (Anfang 2025 als Open Source veröffentlicht) ermöglicht es verschiedenen KI-Agenten, miteinander zu kommunizieren, unabhängig von ihren zugrunde liegenden Frameworks. A2A selbst definiert jedoch nicht, wie Agenten Transaktionen oder Zahlungen durchführen sollen – es geht mehr um Aufgabenverhandlung und Datenaustausch. AP2 erweitert diese Landschaft, indem es eine Transaktionsschicht hinzufügt, die jeder Agent verwenden kann, wenn eine Konversation zu einem Kauf führt. Im Wesentlichen kann AP2 als komplementär zu A2A und MCP angesehen werden, anstatt sich zu überschneiden: A2A deckt die Aspekte Kommunikation und Zusammenarbeit ab, MCP deckt die Verwendung externer Tools/APIs ab, und AP2 deckt Zahlungen und Handel ab. Zusammen bilden sie einen Stapel von Standards für eine zukünftige „Agenten-Ökonomie“. Dieser modulare Ansatz ist in gewisser Weise analog zu Internetprotokollen: zum Beispiel HTTP für die Datenkommunikation und SSL/TLS für die Sicherheit – hier könnte A2A wie das HTTP der Agenten sein und AP2 die sichere Transaktionsschicht darüber für den Handel.

Beim Vergleich von AP2 mit traditionellen Zahlungsprotokollen und -standards gibt es sowohl Parallelen als auch Unterschiede. Traditionelle Online-Zahlungen (Kreditkarten-Checkouts, PayPal-Transaktionen usw.) beinhalten typischerweise Protokolle wie HTTPS für die sichere Übertragung und Standards wie PCI DSS für die Handhabung von Kartendaten, plus möglicherweise 3-D Secure für zusätzliche Nutzerauthentifizierung. Diese setzen einen nutzergesteuerten Ablauf voraus (Nutzer klickt und gibt möglicherweise einen Einmalcode ein). AP2 hingegen führt eine Möglichkeit ein, dass ein Dritter (der Agent) am Ablauf teilnehmen kann, ohne die Sicherheit zu untergraben. Man könnte das Mandatskonzept von AP2 mit einer Erweiterung der OAuth-ähnlichen delegierten Autorität vergleichen, aber auf Zahlungen angewendet. Bei OAuth kann ein Nutzer einer Anwendung über Tokens begrenzten Zugriff auf ein Konto gewähren; ähnlich gewährt ein Nutzer bei AP2 einem Agenten die Befugnis, unter bestimmten Bedingungen über Mandate Geld auszugeben. Der Hauptunterschied besteht darin, dass die „Tokens“ von AP2 (Mandate) spezifische, signierte Anweisungen für Finanztransaktionen sind, was feingranularer ist als bestehende Zahlungsautorisierungen.

Ein weiterer Vergleichspunkt ist, wie AP2 mit bestehenden E-Commerce-Checkout-Abläufen zusammenhängt. Zum Beispiel verwenden viele E-Commerce-Websites Protokolle wie die W3C Payment Request API oder plattformspezifische SDKs, um Zahlungen zu optimieren. Diese standardisieren hauptsächlich, wie Browser oder Apps Zahlungsinformationen von einem Nutzer sammeln, während AP2 standardisiert, wie ein Agent die Nutzerabsicht gegenüber einem Händler und Zahlungsabwickler beweisen würde. Der Fokus von AP2 auf verifizierbare Absicht und Nicht-Abstreitbarkeit unterscheidet es von einfacheren Zahlungs-APIs. Es fügt eine zusätzliche Vertrauensschicht über den Zahlungsnetzwerken hinzu. Man könnte sagen, AP2 ersetzt die Zahlungsnetzwerke (Visa, ACH, Blockchain usw.) nicht, sondern ergänzt sie. Das Protokoll unterstützt explizit alle Arten von Zahlungsmethoden (sogar Krypto), es geht also mehr darum, die Interaktion des Agenten mit diesen Systemen zu standardisieren, nicht darum, eine neue Zahlungsschiene von Grund auf neu zu schaffen.

Im Bereich der Sicherheits- und Authentifizierungsprotokolle teilt AP2 einen gewissen Geist mit Dingen wie digitalen Signaturen in EMV-Chipkarten oder der Notarisierung in digitalen Verträgen. Zum Beispiel generieren EMV-Chipkartentransaktionen Kryptogramme, um zu beweisen, dass die Karte vorhanden war; AP2 generiert kryptografische Beweise, dass der Agent des Nutzers autorisiert war. Beide zielen darauf ab, Betrug zu verhindern, aber der Umfang von AP2 ist die Agent-Nutzer-Beziehung und die Agent-Händler-Nachrichtenübermittlung, die kein bestehender Zahlungsstandard adressiert. Ein weiterer aufkommender Vergleich ist mit der Kontoabstraktion in Krypto (z. B. ERC-4337), bei der Nutzer vorprogrammierte Wallet-Aktionen autorisieren können. Krypto-Wallets können so eingestellt werden, dass sie bestimmte automatisierte Transaktionen zulassen (wie das automatische Bezahlen eines Abonnements über einen Smart Contract), aber diese sind typischerweise auf eine Blockchain-Umgebung beschränkt. AP2 hingegen zielt darauf ab, plattformübergreifend zu sein – es kann Blockchain für einige Zahlungen nutzen (durch seine Erweiterungen), funktioniert aber auch mit traditionellen Banken.

Es gibt noch kein direktes „Konkurrenz“-Protokoll zu AP2 in der Mainstream-Zahlungsbranche – es scheint der erste konzertierte Versuch eines offenen Standards für KI-Agenten-Zahlungen zu sein. Proprietäre Versuche könnten entstehen (oder sind möglicherweise bereits in einzelnen Unternehmen im Gange), aber die breite Unterstützung von AP2 verschafft ihm einen Vorteil, um der Standard zu werden. Es ist erwähnenswert, dass IBM und andere ein Agent Communication Protocol (ACP) und ähnliche Initiativen für die Agenten-Interoperabilität haben, aber diese umfassen den Zahlungsaspekt nicht in der umfassenden Weise, wie AP2 es tut. Wenn überhaupt, könnte AP2 diese Bemühungen integrieren oder nutzen (zum Beispiel könnten IBMs Agenten-Frameworks AP2 für alle Handelsaufgaben implementieren).

Zusammenfassend lässt sich sagen, dass AP2 sich dadurch auszeichnet, dass es die einzigartige Schnittstelle von KI und Zahlungen anspricht: Wo ältere Zahlungsprotokolle einen menschlichen Nutzer annahmen, nimmt AP2 einen KI-Vermittler an und füllt die daraus resultierende Vertrauenslücke. Es erweitert, anstatt zu kollidieren, bestehende Zahlungsprozesse und ergänzt bestehende Agentenprotokolle wie A2A. Zukünftig könnte AP2 zusammen mit etablierten Standards verwendet werden – zum Beispiel könnte ein AP2 Cart Mandate Hand in Hand mit einem traditionellen Zahlungsgateway-API-Aufruf funktionieren, oder ein AP2 Payment Mandate könnte an eine ISO 8583-Nachricht im Bankwesen angehängt werden. Die offene Natur von AP2 bedeutet auch, dass, falls alternative Ansätze auftauchen, AP2 diese möglicherweise durch gemeinschaftliche Zusammenarbeit aufnehmen oder sich an sie anpassen könnte. In diesem Stadium setzt AP2 einen bisher nicht existierenden Grundstein und pionierisiert effektiv eine neue Protokollschicht im KI- und Zahlungs-Stack.

Implikationen für Web3 und dezentrale Systeme

AP2 wurde von Anfang an so konzipiert, dass es Web3- und kryptowährungsbasierte Zahlungen einschließt. Das Protokoll erkennt an, dass der zukünftige Handel sowohl traditionelle Fiat-Kanäle als auch dezentrale Blockchain-Netzwerke umfassen wird. Wie bereits erwähnt, unterstützt AP2 Zahlungsarten, die von Kreditkarten und Banküberweisungen bis hin zu Stablecoins und Kryptowährungen reichen. Tatsächlich kündigte Google parallel zur Einführung von AP2 eine spezifische Erweiterung für Krypto-Zahlungen namens A2A x402 an. Diese Erweiterung, die in Zusammenarbeit mit Akteuren der Krypto-Branche wie Coinbase, der Ethereum Foundation und MetaMask entwickelt wurde, ist eine „produktionsreife Lösung für agentenbasierte Krypto-Zahlungen“. Der Name „x402“ ist eine Hommage an den HTTP 402 „Payment Required“-Statuscode, der im Web nie weit verbreitet war – die Krypto-Erweiterung von AP2 belebt effektiv den Geist von HTTP 402 für dezentrale Agenten, die sich gegenseitig On-Chain belasten oder bezahlen möchten. Praktisch passt die x402-Erweiterung das Mandatskonzept von AP2 an Blockchain-Transaktionen an. Zum Beispiel könnte ein Agent ein signiertes Intent Mandate von einem Nutzer halten und dann eine On-Chain-Zahlung (z. B. einen Stablecoin senden) ausführen, sobald die Bedingungen erfüllt sind, wobei der Nachweis des Mandats an diese On-Chain-Transaktion angehängt wird. Dies verbindet das Off-Chain-Vertrauens-Framework von AP2 mit der Trustless-Natur der Blockchain und bietet das Beste aus beiden Welten: eine On-Chain-Zahlung, der Off-Chain-Parteien (Nutzer, Händler) vertrauen können, dass sie vom Nutzer autorisiert wurde.

Die Synergie zwischen AP2 und Web3 zeigt sich in der Liste der Kollaborateure. Krypto-Börsen (Coinbase), Blockchain-Stiftungen (Ethereum Foundation), Krypto-Wallets (MetaMask) und Web3-Startups (z. B. Mysten Labs von Sui, Lightspark für Lightning Network) sind an der Entwicklung von AP2 beteiligt. Ihre Teilnahme deutet darauf hin, dass AP2 als komplementär zu dezentralen Finanzen und nicht als konkurrierend angesehen wird. Durch die Schaffung einer Standardmethode für KI-Agenten zur Interaktion mit Krypto-Zahlungen könnte AP2 die Nutzung von Krypto in KI-gesteuerten Anwendungen vorantreiben. Zum Beispiel könnte ein KI-Agent AP2 verwenden, um nahtlos zwischen der Zahlung mit einer Kreditkarte oder der Zahlung mit einem Stablecoin zu wechseln, je nach Nutzerpräferenz oder Händlerakzeptanz. Die A2A x402-Erweiterung ermöglicht es Agenten speziell, Dienste über On-Chain-Mittel zu monetarisieren oder zu bezahlen, was in dezentralen Marktplätzen der Zukunft entscheidend sein könnte. Sie deutet darauf hin, dass Agenten, die möglicherweise als autonome Wirtschaftsakteure auf der Blockchain laufen (ein Konzept, das einige als DACs oder DAOs bezeichnen), in der Lage sein könnten, Zahlungen für Dienste zu handhaben (wie das Bezahlen einer kleinen Gebühr an einen anderen Agenten für Informationen). AP2 könnte die Lingua Franca für solche Transaktionen bereitstellen und sicherstellen, dass selbst in einem dezentralen Netzwerk der Agent ein nachweisbares Mandat für sein Handeln hat.

Im Hinblick auf den Wettbewerb könnte man fragen: Machen rein dezentrale Lösungen AP2 überflüssig oder umgekehrt? Es ist wahrscheinlich, dass AP2 mit Web3-Lösungen in einem geschichteten Ansatz koexistieren wird. Dezentrale Finanzen bieten vertrauenslose Ausführung (Smart Contracts usw.), lösen aber nicht von Natur aus das Problem „Hatte eine KI die Erlaubnis eines Menschen, dies zu tun?“. AP2 adressiert genau diese Mensch-zu-KI-Vertrauensverbindung, die wichtig bleibt, auch wenn die Zahlung selbst On-Chain erfolgt. Anstatt mit Blockchain-Protokollen zu konkurrieren, kann AP2 als Brücke zwischen ihnen und der Off-Chain-Welt angesehen werden. Zum Beispiel könnte ein Smart Contract eine bestimmte Transaktion nur akzeptieren, wenn sie einen Verweis auf eine gültige AP2-Mandatssignatur enthält – etwas, das implementiert werden könnte, um Off-Chain-Absichtsnachweise mit On-Chain-Durchsetzung zu kombinieren. Umgekehrt könnten, wenn es Krypto-native Agenten-Frameworks gibt (einige Blockchain-Projekte erforschen autonome Agenten, die mit Krypto-Geldern operieren), diese ihre eigenen Methoden zur Autorisierung entwickeln. Die breite Branchenunterstützung von AP2 könnte jedoch selbst diese Projekte dazu bewegen, AP2 für Konsistenz zu übernehmen oder zu integrieren.

Ein weiterer Aspekt sind dezentrale Identität und Berechtigungsnachweise. Die Verwendung von verifizierbaren Berechtigungsnachweisen durch AP2 steht sehr im Einklang mit dem Web3-Ansatz zur Identität (z. B. DIDs und VCs, wie vom W3C standardisiert). Dies bedeutet, dass AP2 in dezentrale Identitätssysteme integriert werden könnte – zum Beispiel könnte die DID eines Nutzers verwendet werden, um ein AP2-Mandat zu signieren, das ein Händler gegen eine Blockchain oder einen Identitätshub verifizieren könnte. Die Erwähnung der Erforschung dezentraler Identität für die Agentenautorisierung bekräftigt, dass AP2 Web3-Identitätsinnovationen zur dezentralen Überprüfung von Agenten- und Nutzeridentitäten nutzen könnte, anstatt sich nur auf zentralisierte Autoritäten zu verlassen. Dies ist ein Synergiepunkt, da sowohl AP2 als auch Web3 darauf abzielen, Nutzern mehr Kontrolle und kryptografische Beweise für ihre Handlungen zu geben.

Potenzielle Konflikte könnten nur entstehen, wenn man ein vollständig dezentrales Handelsökosystem ohne Rolle für große Intermediäre vorstellt – in diesem Szenario könnte AP2 (ursprünglich von Google und Partnern vorangetrieben) zu zentralisiert oder von traditionellen Akteuren regiert sein? Es ist wichtig zu beachten, dass AP2 Open Source ist und als standardisierbar gedacht ist, also nicht proprietär für Google. Dies macht es für die Web3-Community, die offene Protokolle schätzt, schmackhafter. Wenn AP2 weit verbreitet wird, könnte es den Bedarf an separaten Web3-spezifischen Zahlungsprotokollen für Agenten reduzieren und dadurch Bemühungen vereinheitlichen. Andererseits könnten einige Blockchain-Projekte rein On-Chain-Autorisierungsmechanismen (wie Multi-Signatur-Wallets oder On-Chain-Treuhandlogik) für Agententransaktionen bevorzugen, insbesondere in Trustless-Umgebungen ohne zentrale Autoritäten. Diese könnten als alternative Ansätze angesehen werden, würden aber wahrscheinlich Nischen bleiben, es sei denn, sie können mit Off-Chain-Systemen interagieren. AP2, indem es beide Welten abdeckt, könnte tatsächlich die Web3-Akzeptanz beschleunigen, indem es Krypto einfach zu einer weiteren Zahlungsmethode macht, die ein KI-Agent nahtlos nutzen kann. Tatsächlich bemerkte ein Partner, dass „Stablecoins eine offensichtliche Lösung für Skalierungsprobleme [für] agentische Systeme mit Legacy-Infrastruktur bieten“, was hervorhebt, dass Krypto AP2 bei der Bewältigung von Skalierungs- oder grenzüberschreitenden Szenarien ergänzen kann. Währenddessen bemerkte der Engineering Lead von Coinbase, dass die Integration der x402-Krypto-Erweiterung in AP2 „Sinn machte – es ist ein natürlicher Spielplatz für Agenten... es ist aufregend zu sehen, wie Agenten, die sich gegenseitig bezahlen, in der KI-Community Anklang finden“. Dies impliziert eine Vision, in der KI-Agenten, die über Krypto-Netzwerke Transaktionen durchführen, nicht nur eine theoretische Idee, sondern ein erwartetes Ergebnis sind, wobei AP2 als Katalysator fungiert.

Zusammenfassend lässt sich sagen, dass AP2 für Web3 hochrelevant ist: Es integriert Krypto-Zahlungen als erstklassigen Bürger und stimmt mit dezentralen Identitäts- und Berechtigungsnachweisstandards überein. Anstatt direkt mit dezentralen Zahlungsprotokollen zu konkurrieren, interagiert AP2 wahrscheinlich mit ihnen – es stellt die Autorisierungsschicht bereit, während die dezentralen Systeme die Wertübertragung handhaben. Da die Grenze zwischen traditionellen Finanzen und Krypto verschwimmt (mit Stablecoins, CBDCs usw.), könnte ein einheitliches Protokoll wie AP2 als universeller Adapter zwischen KI-Agenten und jeder Form von Geld, zentralisiert oder dezentralisiert, dienen.

Branchenakzeptanz, Partnerschaften und Roadmap

Eine der größten Stärken von AP2 ist die umfassende Branchenunterstützung, die es bereits in diesem frühen Stadium genießt. Google Cloud kündigte an, dass es „mit einer vielfältigen Gruppe von mehr als 60 Organisationen“ an AP2 zusammenarbeitet. Dazu gehören große Kreditkartennetzwerke (z. B. Mastercard, American Express, JCB, UnionPay), führende Fintech- und Zahlungsabwickler (PayPal, Worldpay, Adyen, Checkout.com, Stripes Konkurrenten), E-Commerce- und Online-Marktplätze (Etsy, Shopify (über Partner wie Stripe oder andere), Lazada, Zalora), Unternehmenstechnologieunternehmen (Salesforce, ServiceNow, Oracle möglicherweise über Partner, Dell, Red Hat), Identitäts- und Sicherheitsfirmen (Okta, Ping Identity, Cloudflare), Beratungsfirmen (Deloitte, Accenture) und Krypto-/Web3-Organisationen (Coinbase, Ethereum Foundation, MetaMask, Mysten Labs, Lightspark) und andere. Eine so breite Palette von Teilnehmern ist ein starker Indikator für das Brancheninteresse und die wahrscheinliche Akzeptanz. Viele dieser Partner haben öffentlich ihre Unterstützung bekundet. Zum Beispiel betonte der Co-CEO von Adyen die Notwendigkeit eines „gemeinsamen Regelwerks“ für den agentischen Handel und sieht AP2 als natürliche Erweiterung ihrer Mission, Händler mit neuen Zahlungsbausteinen zu unterstützen. Der EVP von American Express erklärte, dass AP2 wichtig sei für „die nächste Generation digitaler Zahlungen“, bei der Vertrauen und Verantwortlichkeit von größter Bedeutung sind. Das Team von Coinbase ist, wie bereits erwähnt, begeistert von der Integration von Krypto-Zahlungen in AP2. Dieser Chor der Unterstützung zeigt, dass viele in der Branche AP2 als den wahrscheinlichen Standard für KI-gesteuerte Zahlungen ansehen und daran interessiert sind, es so zu gestalten, dass es ihren Anforderungen entspricht.

Aus Akzeptanzsicht befindet sich AP2 derzeit im Spezifikations- und frühen Implementierungsstadium (angekündigt im September 2025). Die vollständige technische Spezifikation, Dokumentation und einige Referenzimplementierungen (in Sprachen wie Python) sind auf dem GitHub-Repository des Projekts für Entwickler zum Experimentieren verfügbar. Google hat auch angedeutet, dass AP2 in seine Produkte und Dienste für Agenten integriert wird. Ein bemerkenswertes Beispiel ist der bereits erwähnte KI-Agenten-Marktplatz: Dies ist eine Plattform, auf der Drittanbieter-KI-Agenten Nutzern angeboten werden können (wahrscheinlich Teil von Googles generativem KI-Ökosystem). Google sagt, dass viele Partner, die Agenten entwickeln, diese auf dem Marktplatz mit „neuen, transaktionsfähigen Erfahrungen, die durch AP2 ermöglicht werden“, zur Verfügung stellen werden. Dies impliziert, dass AP2, wenn der Marktplatz startet oder wächst, das Rückgrat für jeden Agenten sein wird, der eine Transaktion durchführen muss, sei es der autonome Kauf von Software vom Google Cloud Marketplace oder ein Agent, der Waren/Dienstleistungen für einen Nutzer kauft. Unternehmensanwendungsfälle wie autonome Beschaffung (ein Agent kauft von einem anderen im Auftrag eines Unternehmens) und automatische Lizenzskalierung wurden ausdrücklich als Bereiche genannt, die AP2 bald erleichtern könnte.

Im Hinblick auf eine Roadmap geben die AP2-Dokumentation und Googles Ankündigung einige klare Hinweise:

  • Kurzfristig: Fortsetzung der offenen Entwicklung des Protokolls mit Community-Input. Das GitHub-Repository wird mit zusätzlichen Referenzimplementierungen und Verbesserungen aktualisiert, sobald reale Tests stattfinden. Wir können erwarten, dass Bibliotheken/SDKs entstehen, die die Integration von AP2 in Agentenanwendungen erleichtern. Auch könnten erste Pilotprogramme oder Machbarkeitsnachweise von den Partnerunternehmen durchgeführt werden. Da viele große Zahlungsunternehmen beteiligt sind, könnten sie AP2 in kontrollierten Umgebungen testen (z. B. eine AP2-fähige Checkout-Option in einer kleinen Benutzer-Beta).
  • Standards und Governance: Google hat sich verpflichtet, AP2 in ein offenes Governance-Modell zu überführen, möglicherweise über Standardisierungsgremien. Dies könnte bedeuten, AP2 Organisationen wie der Linux Foundation (wie es beim A2A-Protokoll geschehen ist) vorzulegen oder ein Konsortium zu bilden, um es zu pflegen. Die Linux Foundation, W3C oder sogar Gremien wie ISO/TC68 (Finanzdienstleistungen) könnten für die Formalisierung von AP2 in Frage kommen. Eine offene Governance würde der Branche die Gewissheit geben, dass AP2 nicht unter der Kontrolle eines einzelnen Unternehmens steht und neutral und inklusiv bleiben wird.
  • Funktionserweiterung: Technisch umfasst die Roadmap die Erweiterung der Unterstützung auf weitere Zahlungsarten und Anwendungsfälle. Wie in der Spezifikation erwähnt, wird sich der Fokus nach Karten auf „Push“-Zahlungen wie Banküberweisungen und lokale Echtzeit-Zahlungssysteme sowie digitale Währungen verlagern. Dies bedeutet, dass AP2 darlegen wird, wie ein Intent/Cart/Payment Mandate beispielsweise für eine direkte Banküberweisung oder eine Krypto-Wallet-Überweisung funktioniert, wo der Ablauf etwas anders ist als bei Kartenzahlungen. Die A2A x402-Erweiterung ist eine solche Erweiterung für Krypto; ähnlich könnten wir eine Erweiterung für Open-Banking-APIs oder eine für B2B-Rechnungsszenarien sehen.
  • Sicherheits- und Compliance-Verbesserungen: Sobald reale Transaktionen über AP2 laufen, wird es eine genaue Prüfung durch Regulierungsbehörden und Sicherheitsforscher geben. Der offene Prozess wird wahrscheinlich iterativ daran arbeiten, Mandate noch robuster zu machen (z. B. Sicherstellung der Standardisierung von Mandatsformaten, möglicherweise unter Verwendung des W3C Verifiable Credentials-Formats usw.). Die Integration mit Identitätslösungen (möglicherweise unter Nutzung von Biometrie für die Nutzerunterschrift von Mandaten oder die Verknüpfung von Mandaten mit digitalen Identitäts-Wallets) könnte Teil der Roadmap sein, um das Vertrauen zu stärken.
  • Ökosystem-Tools: Ein aufkommendes Ökosystem ist wahrscheinlich. Bereits jetzt bemerken Startups Lücken – zum Beispiel erwähnt die Vellum.ai-Analyse ein Startup namens Autumn, das „Billing-Infrastruktur für KI“ aufbaut, im Wesentlichen Tools auf Basis von Stripe, um komplexe Preisgestaltung für KI-Dienste zu handhaben. Wenn AP2 an Fahrt gewinnt, können wir mehr Tools wie agenten-fokussierte Zahlungsgateways, Mandatsverwaltungs-Dashboards, Agenten-Identitätsverifizierungsdienste usw. erwarten. Googles Beteiligung bedeutet, dass AP2 auch in seine Cloud-Produkte integriert werden könnte – stellen Sie sich AP2-Unterstützung in Dialogflow oder Vertex AI Agents Tools vor, die es einem Agenten mit einem Klick ermöglichen, Transaktionen abzuwickeln (wobei alle notwendigen Schlüssel und Zertifikate in Google Cloud verwaltet werden).

Insgesamt erinnert die Entwicklung von AP2 an andere große Industriestandards: ein anfänglicher Start mit einem starken Sponsor (Google), eine breite Branchenkoalition, Open-Source-Referenzcode, gefolgt von iterativer Verbesserung und schrittweiser Akzeptanz in realen Produkten. Die Tatsache, dass AP2 alle Akteure einlädt, „diese Zukunft mit uns zu gestalten“, unterstreicht, dass die Roadmap auf Zusammenarbeit basiert. Wenn der Schwung anhält, könnte AP2 in wenigen Jahren so alltäglich werden wie Protokolle wie OAuth oder OpenID Connect heute in ihren Bereichen – eine unsichtbare, aber kritische Schicht, die Funktionalität über Dienste hinweg ermöglicht.

Fazit

AP2 (Agents/Agent Payments Protocol) stellt einen bedeutenden Schritt in eine Zukunft dar, in der KI-Agenten so zuverlässig und sicher Transaktionen durchführen können wie Menschen. Technisch führt es einen cleveren Mechanismus von verifizierbaren Mandaten und Berechtigungsnachweisen ein, der Vertrauen in agentengesteuerte Transaktionen schafft und sicherstellt, dass die Nutzerabsicht explizit und durchsetzbar ist. Seine offene, erweiterbare Architektur ermöglicht die Integration sowohl in die aufstrebenden KI-Agenten-Frameworks als auch in die etablierte Finanzinfrastruktur. Durch die Adressierung der Kernanliegen Autorisierung, Authentizität und Verantwortlichkeit legt AP2 den Grundstein dafür, dass der KI-gesteuerte Handel florieren kann, ohne Sicherheit oder Nutzerkontrolle zu opfern.

Die Einführung von AP2 kann als Schaffung einer neuen Grundlage – ähnlich wie frühe Internetprotokolle das Web ermöglichten – für das, was manche als „Agenten-Ökonomie“ bezeichnen, angesehen werden. Es ebnet den Weg für unzählige Innovationen: persönliche Einkaufsagenten, automatische Schnäppchenfinder-Bots, autonome Lieferkettenagenten und mehr, die alle unter einem gemeinsamen Vertrauens-Framework agieren. Wichtig ist, dass das inklusive Design von AP2 (das alles von Kreditkarten bis Krypto umfasst) es an der Schnittstelle von traditionellen Finanzen und Web3 positioniert und diese Welten möglicherweise durch ein gemeinsames agentenvermitteltes Protokoll überbrückt.

Die bisherige Branchenreaktion war sehr positiv, wobei eine breite Koalition signalisiert, dass AP2 wahrscheinlich ein weit verbreiteter Standard werden wird. Der Erfolg von AP2 wird von der fortgesetzten Zusammenarbeit und realen Tests abhängen, aber seine Aussichten sind angesichts des klaren Bedarfs, den es adressiert, stark. Im weiteren Sinne veranschaulicht AP2, wie sich Technologie entwickelt: Eine neue Fähigkeit (KI-Agenten) entstand, die alte Annahmen brach, und die Lösung bestand darin, einen neuen offenen Standard zu entwickeln, um diese Fähigkeit zu berücksichtigen. Indem Google und seine Partner jetzt in ein offenes, sicherheitsorientiertes Protokoll investieren, bauen sie effektiv die Vertrauensarchitektur auf, die für die nächste Ära des Handels erforderlich ist. Wie das Sprichwort sagt: „Der beste Weg, die Zukunft vorherzusagen, ist, sie zu bauen“ – AP2 ist eine Wette auf eine Zukunft, in der KI-Agenten nahtlos Transaktionen für uns abwickeln, und es konstruiert aktiv das Vertrauen und die Regeln, die notwendig sind, um diese Zukunft praktikabel zu machen.

Quellen:

  • Google Cloud Blog – „KI-Handel mit dem neuen Agent Payments Protocol (AP2) vorantreiben“ (16. September 2025)
  • AP2 GitHub Dokumentation – „Agent Payments Protocol Spezifikation und Übersicht“
  • Vellum AI Blog – „Googles AP2: Ein neues Protokoll für KI-Agenten-Zahlungen“ (Analyse)
  • Medium Artikel – „Google Agent Payments Protocol (AP2)“ (Zusammenfassung von Tahir, September 2025)
  • Partnerzitate zu AP2 (Google Cloud Blog)
  • A2A x402 Erweiterung (AP2 Krypto-Zahlungserweiterung) – GitHub README

Verwahrung digitaler Assets für latenzarme, sichere Handelsausführung in großem Maßstab

· 11 Minuten Lesezeit
Dora Noda
Software Engineer

Wie man einen Verwahrungs- und Ausführungs-Stack entwirft, der mit Marktgeschwindigkeit arbeitet, ohne Kompromisse bei Risiko, Audit oder Compliance einzugehen.


Zusammenfassung

Verwahrung und Handel können nicht länger in getrennten Welten existieren. Auf den heutigen Märkten für digitale Assets ist die sichere Aufbewahrung von Kundenvermögen nur die halbe Miete. Wenn Sie Trades nicht in Millisekunden ausführen können, wenn sich die Preise bewegen, lassen Sie Renditen liegen und setzen Kunden vermeidbaren Risiken wie Maximal Extractable Value (MEV), Gegenparteiausfällen und operativen Engpässen aus. Ein moderner Verwahrungs- und Ausführungs-Stack muss modernste Sicherheit mit Hochleistungs-Engineering verbinden. Das bedeutet die Integration von Technologien wie Multi-Party Computation (MPC) und Hardware Security Modules (HSMs) für das Signieren, die Verwendung von Policy Engines und privatem Transaktions-Routing zur Minderung von Front-Running sowie die Nutzung einer Aktiv/Aktiv-Infrastruktur mit Off-Exchange-Settlement, um das Venue-Risiko zu reduzieren und die Kapitaleffizienz zu steigern. Entscheidend ist, dass Compliance kein nachträglicher Zusatz sein darf; Funktionen wie Travel Rule-Datenflüsse, unveränderliche Audit-Logs und Kontrollen, die auf Frameworks wie SOC 2 abgebildet sind, müssen direkt in die Transaktionspipeline integriert werden.


Warum „Verwahrungsgeschwindigkeit“ jetzt wichtig ist

Historisch gesehen optimierten Verwahrer digitaler Assets auf ein primäres Ziel: die Schlüssel nicht zu verlieren. Obwohl dies weiterhin fundamental ist, haben sich die Anforderungen weiterentwickelt. Heute sind beste Ausführung und Marktintegrität gleichermaßen unverzichtbar. Wenn Ihre Trades durch öffentliche Mempools laufen, können raffinierte Akteure sie sehen, neu anordnen oder „sandwichen“, um auf Ihre Kosten Gewinne zu erzielen. Dies ist MEV in Aktion und beeinflusst direkt die Ausführungsqualität. Die Geheimhaltung sensibler Orderströme durch die Verwendung von privaten Transaktions-Relays ist eine wirksame Methode, um dieses Risiko zu reduzieren.

Gleichzeitig ist das Venue-Risiko ein anhaltendes Problem. Die Konzentration großer Guthaben auf einer einzigen Börse birgt ein erhebliches Gegenparteirisiko. Off-Exchange-Settlement-Netzwerke bieten eine Lösung, die es Unternehmen ermöglicht, mit von der Börse bereitgestelltem Kredit zu handeln, während ihre Assets in getrennter, insolvenzgeschützter Verwahrung verbleiben. Dieses Modell verbessert sowohl die Sicherheit als auch die Kapitaleffizienz erheblich.

Auch die Regulierungsbehörden schließen die Lücken. Die Durchsetzung der Travel Rule der Financial Action Task Force (FATF) und Empfehlungen von Gremien wie IOSCO und dem Financial Stability Board drängen die Märkte für digitale Assets zu einem „gleiches Risiko, gleiche Regeln“-Framework. Dies bedeutet, dass Verwahrungsplattformen von Grund auf mit konformen Datenflüssen und auditierbaren Kontrollen aufgebaut werden müssen.


Designziele (Was „gut“ aussieht)

Ein Hochleistungs-Verwahrungs-Stack sollte auf einigen Kern-Designprinzipien basieren:

  • Latenz, die Sie budgetieren können: Jede Millisekunde von der Client-Absicht bis zur Netzwerkübertragung muss gemessen, verwaltet und mit strengen Service Level Objectives (SLOs) durchgesetzt werden.
  • MEV-resistente Ausführung: Sensible Orders sollten standardmäßig über private Kanäle geleitet werden. Die Exposition gegenüber dem öffentlichen Mempool sollte eine bewusste Entscheidung sein, kein unvermeidlicher Standard.
  • Schlüsselmaterial mit echten Garantien: Private Schlüssel dürfen niemals ihre geschützten Grenzen verlassen, egal ob sie über MPC-Shards verteilt, in HSMs gespeichert oder in Trusted Execution Environments (TEEs) isoliert sind. Schlüsselrotation, Quorum-Durchsetzung und robuste Wiederherstellungsverfahren sind Grundvoraussetzungen.
  • Aktiv/Aktiv-Zuverlässigkeit: Das System muss ausfallsicher sein. Dies erfordert Multi-Region- und Multi-Provider-Redundanz sowohl für RPC-Nodes als auch für Signer, ergänzt durch automatisierte Schutzschalter und Not-Aus-Schalter für Venue- und Netzwerkvorfälle.
  • Compliance-by-Construction: Compliance darf kein nachträglicher Gedanke sein. Die Architektur muss integrierte Hooks für Travel Rule-Daten, AML/KYT-Prüfungen und unveränderliche Audit-Trails aufweisen, wobei alle Kontrollen direkt auf anerkannte Frameworks wie die SOC 2 Trust Services Criteria abgebildet sind.

Eine Referenzarchitektur

Dieses Diagramm veranschaulicht eine übergeordnete Architektur für eine Verwahrungs- und Ausführungsplattform, die diese Ziele erfüllt.

  • Die Policy & Risk Engine ist der zentrale Gatekeeper für jede Anweisung. Sie bewertet alles – Travel Rule-Payloads, Geschwindigkeitsbegrenzungen, Adress-Risikobewertungen und Signer-Quorum-Anforderungen – bevor auf Schlüsselmaterial zugegriffen wird.
  • Der Signer Orchestrator leitet Signieranfragen intelligent an die am besten geeignete Steuerungsebene für das Asset und die Policy weiter. Dies könnte sein:
    • MPC (Multi-Party Computation) unter Verwendung von Schwellenwert-Signaturschemata (wie t-of-n ECDSA/EdDSA), um Vertrauen auf mehrere Parteien oder Geräte zu verteilen.
    • HSMs (Hardware Security Modules) für hardwaregestützte Schlüsselverwahrung mit deterministischen Backup- und Rotationsrichtlinien.
    • Trusted Execution Environments (z. B. AWS Nitro Enclaves) zur Isolierung von Signaturcode und direkten Bindung von Schlüsseln an attestierte, gemessene Software.
  • Der Execution Router sendet Transaktionen auf dem optimalen Pfad. Er bevorzugt die private Transaktionsübermittlung für große oder informationssensible Orders, um Front-Running zu vermeiden. Bei Bedarf greift er auf die öffentliche Übermittlung zurück und nutzt dabei Multi-Provider RPC Failover, um auch bei Netzwerkstörungen eine hohe Verfügbarkeit zu gewährleisten.
  • Die Observability Layer bietet eine Echtzeitansicht des Systemzustands. Sie überwacht den Mempool und neue Blöcke über Abonnements, gleicht ausgeführte Trades mit internen Aufzeichnungen ab und speichert unveränderliche Audit-Datensätze für jede Entscheidung, Signatur und Übertragung.

Sicherheitsbausteine (und warum sie wichtig sind)

  • Schwellenwert-Signaturen (MPC): Diese Technologie verteilt die Kontrolle über einen privaten Schlüssel, sodass keine einzelne Maschine – oder Person – Gelder unilateral bewegen kann. Moderne MPC-Protokolle können schnelle, bösartig sichere Signaturen implementieren, die für Latenzbudgets in der Produktion geeignet sind.
  • HSMs und FIPS-Konformität: HSMs erzwingen Schlüsselgrenzen mit manipulationssicherer Hardware und dokumentierten Sicherheitsrichtlinien. Die Ausrichtung an Standards wie FIPS 140-3 und NIST SP 800-57 bietet auditierbare, weithin verstandene Sicherheitsgarantien.
  • Attestierte TEEs: Trusted Execution Environments binden Schlüssel an spezifischen, gemessenen Code, der in isolierten Enklaven läuft. Mit einem Key Management Service (KMS) können Sie Richtlinien erstellen, die Schlüsselmaterial nur für diese attestierten Workloads freigeben, wodurch sichergestellt wird, dass nur genehmigter Code signieren kann.
  • Private Relays für MEV-Schutz: Diese Dienste ermöglichen es Ihnen, sensible Transaktionen direkt an Block-Builder oder Validatoren zu senden, wodurch der öffentliche Mempool umgangen wird. Dies reduziert das Risiko von Front-Running und anderen Formen von MEV drastisch.
  • Off-Exchange Settlement: Dieses Modell ermöglicht es Ihnen, Sicherheiten in getrennter Verwahrung zu halten, während Sie an zentralisierten Venues handeln. Es begrenzt das Gegenparteirisiko, beschleunigt die Nettoabwicklung und setzt Kapital frei.
  • Kontrollen, die auf SOC 2/ISO abgebildet sind: Die Dokumentation und Prüfung Ihrer operativen Kontrollen anhand anerkannter Frameworks ermöglicht es Kunden, Auditoren und Partnern, Ihre Sicherheits- und Compliance-Haltung zu vertrauen – und unabhängig zu überprüfen.

Latenz-Playbook: Wohin die Millisekunden gehen

Um eine latenzarme Ausführung zu erreichen, müssen Sie jeden Schritt des Transaktionslebenszyklus optimieren:

  • Absicht → Policy-Entscheidung: Halten Sie die Logik zur Policy-Bewertung im Speicher „warm“. Cachen Sie Know-Your-Transaction (KYT)- und Allowlist-Daten mit kurzen, begrenzten Time-to-Live (TTL)-Werten und berechnen Sie Signer-Quoren, wo immer möglich, vor.
  • Signieren: Verwenden Sie persistente MPC-Sitzungen und HSM-Schlüssel-Handles, um den Overhead von Kaltstarts zu vermeiden. Für TEEs fixieren Sie die Enklaven, wärmen Sie deren Attestierungspfade auf und verwenden Sie Sitzungsschlüssel wieder, wo dies sicher ist.
  • Broadcast: Bevorzugen Sie persistente WebSocket-Verbindungen zu RPC-Nodes gegenüber HTTP. Platzieren Sie Ihre Ausführungsdienste in denselben Regionen wie Ihre primären RPC-Anbieter. Wenn die Latenzspitzen auftreten, wiederholen Sie idempotent und streuen Sie Broadcasts über mehrere Anbieter.
  • Bestätigung: Anstatt den Transaktionsstatus abzufragen, abonnieren Sie Receipts und Ereignisse direkt vom Netzwerk. Streamen Sie diese Statusänderungen in eine Abgleich-Pipeline für sofortiges Benutzerfeedback und interne Buchhaltung.

Legen Sie strenge SLOs für jeden Schritt fest (z. B. Policy-Prüfung <20ms, Signieren <50–100ms, Broadcast <50ms unter normaler Last) und setzen Sie diese mit Fehlerbudgets und automatischem Failover durch, wenn die p95- oder p99-Latenzen sich verschlechtern.


Risiko & Compliance by Design

Ein moderner Verwahrungs-Stack muss Compliance als integralen Bestandteil des Systems behandeln, nicht als Zusatz.

  • Travel Rule Orchestrierung: Generieren und validieren Sie Absender- und Empfängerdaten in-line mit jeder Überweisungsanweisung. Blockieren oder umleiten Sie Transaktionen, die unbekannte Virtual Asset Service Providers (VASPs) betreffen, automatisch und protokollieren Sie kryptografische Belege jedes Datenaustauschs zu Prüfzwecken.
  • Adressrisiko & Allowlists: Integrieren Sie On-Chain-Analysen und Sanktionsprüflisten direkt in die Policy Engine. Erzwingen Sie eine Deny-by-Default-Haltung, bei der Übertragungen nur an explizit allowlistete Adressen oder unter spezifischen Policy-Ausnahmen erlaubt sind.
  • Unveränderliches Audit: Hashen Sie jede Anfrage, Genehmigung, Signatur und Übertragung in ein nur-anhängendes Ledger. Dies erzeugt einen manipulationssicheren Audit-Trail, der an ein SIEM für die Echtzeit-Bedrohungserkennung gestreamt und Prüfern für die Kontrollevaluation zur Verfügung gestellt werden kann.
  • Kontroll-Framework: Ordnen Sie jede technische und operative Kontrolle den SOC 2 Trust Services Criteria (Sicherheit, Verfügbarkeit, Verarbeitungsintegrität, Vertraulichkeit und Datenschutz) zu und implementieren Sie ein Programm zur kontinuierlichen Prüfung und Validierung.

Off-Exchange Settlement: Sicherere Venue-Konnektivität

Ein Verwahrungs-Stack, der für institutionelle Skalierung gebaut ist, sollte die Exposition gegenüber Börsen aktiv minimieren. Off-Exchange Settlement-Netzwerke sind ein wichtiger Wegbereiter dafür. Sie ermöglichen es einem Unternehmen, Assets in seiner eigenen getrennten Verwahrung zu halten, während eine Börse diese Sicherheiten spiegelt, um sofortigen Handel zu ermöglichen. Die endgültige Abwicklung erfolgt in einem festen Rhythmus mit Delivery versus Payment (DvP)-ähnlichen Garantien.

Dieses Design reduziert den „Hot Wallet“-Fußabdruck und das damit verbundene Gegenparteirisiko drastisch, während es gleichzeitig die für den aktiven Handel erforderliche Geschwindigkeit beibehält. Es verbessert auch die Kapitaleffizienz, da Sie nicht länger ungenutzte Guthaben über mehrere Venues hinweg überfinanzieren müssen, und es vereinfacht das operationelle Risikomanagement, indem Sicherheiten getrennt und vollständig auditierbar gehalten werden.


Kontroll-Checkliste (Zum Kopieren/Einfügen in Ihr Runbook)

  • Schlüsselverwahrung
    • MPC unter Verwendung eines t-of-n-Schwellenwerts über unabhängige Vertrauensdomänen (z. B. Multi-Cloud, On-Premise, HSMs).
    • Verwenden Sie FIPS-validierte Module, wo machbar; pflegen Sie Pläne für die vierteljährliche Schlüsselrotation und die vorfallgesteuerte Neuschlüsselung.
  • Policy & Genehmigungen
    • Implementieren Sie eine dynamische Policy Engine mit Geschwindigkeitsbegrenzungen, Verhaltensheuristiken und Geschäftszeitenbeschränkungen.
    • Erfordern Sie das Vier-Augen-Prinzip für risikoreiche Operationen.
    • Setzen Sie Adress-Allowlists und Travel Rule-Prüfungen vor jeder Signieroperation durch.
  • Ausführungshärtung
    • Verwenden Sie standardmäßig private Transaktions-Relays für große oder sensible Orders.
    • Nutzen Sie zwei RPC-Anbieter mit gesundheitsbasierter Absicherung und robustem Replay-Schutz.
  • Überwachung & Reaktion
    • Implementieren Sie Echtzeit-Anomalieerkennung für Intent-Raten, Gaspreis-Ausreißer und fehlgeschlagene Transaktionsinklusion.
    • Pflegen Sie einen Ein-Klick-Not-Aus-Schalter, um alle Signer pro Asset oder pro Venue einzufrieren.
  • Compliance & Audit
    • Führen Sie ein unveränderliches Ereignisprotokoll für alle Systemaktionen.
    • Führen Sie kontinuierliche, SOC 2-konforme Kontrollprüfungen durch.
    • Stellen Sie eine robuste Aufbewahrung aller Travel Rule-Nachweise sicher.

Implementierungshinweise

  • Menschen & Prozesse zuerst: Technologie kann keine mehrdeutigen Autorisierungsrichtlinien oder unklare On-Call-Verantwortlichkeiten beheben. Definieren Sie klar, wer berechtigt ist, Policies zu ändern, Signer-Code zu promoten, Schlüssel zu rotieren und Ausnahmen zu genehmigen.
  • Komplexität minimieren, wo immer möglich: Jede neue Blockchain, Bridge oder Venue, die Sie integrieren, erhöht das nicht-lineare Betriebsrisiko. Fügen Sie sie bewusst hinzu, mit klarer Testabdeckung, Überwachung und Rollback-Plänen.
  • Testen Sie wie ein Angreifer: Führen Sie regelmäßig Chaos-Engineering-Übungen durch. Simulieren Sie Signer-Verlust, Enklaven-Attestierungsfehler, blockierte Mempools, Venue-API-Drosselung und fehlerhafte Travel Rule-Daten, um die Widerstandsfähigkeit Ihres Systems zu gewährleisten.
  • Beweisen Sie es: Verfolgen Sie die KPIs, die Ihren Kunden wirklich wichtig sind:
    • Zeit bis zum Broadcast und Zeit bis zur ersten Bestätigung (p95/p99).
    • Der Prozentsatz der Transaktionen, die über MEV-sichere Routen im Vergleich zum öffentlichen Mempool übermittelt werden.
    • Venue-Auslastung und Gewinne bei der Kapitaleffizienz durch die Nutzung von Off-Exchange Settlement.
    • Metriken zur Kontrolleffektivität, wie der Prozentsatz der Übertragungen mit vollständigen Travel Rule-Daten und die Rate, mit der Audit-Feststellungen geschlossen werden.

Fazit

Eine Verwahrungsplattform, die institutionellem Fluss würdig ist, führt schnell aus, beweist ihre Kontrollen und begrenzt Gegenpartei- und Informationsrisiken – alles gleichzeitig. Dies erfordert einen tief integrierten Stack, der auf MEV-bewusstem Routing, hardwaregestütztem oder MPC-basiertem Signieren, Aktiv/Aktiv-Infrastruktur und Off-Exchange Settlement basiert, der Assets sicher hält, während er globalen Liquiditätszugang ermöglicht. Indem Sie diese Komponenten in eine einzige, gemessene Pipeline integrieren, liefern Sie das Eine, was institutionelle Kunden am meisten schätzen: Sicherheit mit Geschwindigkeit.

Cross-Chain-Messaging und geteilte Liquidität: Sicherheitsmodelle von LayerZero v2, Hyperlane und IBC 3.0

· 51 Minuten Lesezeit
Dora Noda
Software Engineer

Interoperabilitätsprotokolle wie LayerZero v2, Hyperlane und IBC 3.0 entwickeln sich zu kritischer Infrastruktur für ein Multi-Chain-DeFi-Ökosystem. Jedes verfolgt einen anderen Ansatz für Cross-Chain-Messaging und geteilte Liquidität, mit unterschiedlichen Sicherheitsmodellen:

  • LayerZero v2 – ein Proof-Aggregationsmodell unter Verwendung von Decentralized Verifier Networks (DVNs)
  • Hyperlane – ein modulares Framework, das oft ein Multisig-Validator-Komitee verwendet
  • IBC 3.0 – ein Light-Client-Protokoll mit vertrauensminimierten Relayern im Cosmos-Ökosystem

Dieser Bericht analysiert die Sicherheitsmechanismen jedes Protokolls, vergleicht die Vor- und Nachteile von Light Clients vs. Multisigs vs. Proof-Aggregation und untersucht deren Auswirkungen auf DeFi-Komponierbarkeit und Liquidität. Wir überprüfen auch aktuelle Implementierungen, Bedrohungsmodelle und Adoptionsraten und schließen mit einem Ausblick darauf, wie diese Designentscheidungen die langfristige Lebensfähigkeit von Multi-Chain-DeFi beeinflussen.

Sicherheitsmechanismen führender Cross-Chain-Protokolle

LayerZero v2: Proof-Aggregation mit Decentralized Verifier Networks (DVNs)

LayerZero v2 ist ein Omnichain-Messaging-Protokoll, das eine modulare, anwendungs konfigurierbare Sicherheitsebene betont. Die Kernidee ist, Anwendungen die Möglichkeit zu geben, Nachrichten mit einem oder mehreren unabhängigen Decentralized Verifier Networks (DVNs) zu sichern, die gemeinsam Cross-Chain-Nachrichten bestätigen. Im Proof-Aggregationsmodell von LayerZero ist jedes DVN im Wesentlichen eine Reihe von Verifizierern, die eine Nachricht unabhängig validieren können (z. B. durch Überprüfung eines Block-Proofs oder einer Signatur). Eine Anwendung kann aggregierte Proofs von mehreren DVNs verlangen, bevor sie eine Nachricht akzeptiert, wodurch ein Schwellenwert-„Sicherheits-Stack“ gebildet wird.

Standardmäßig bietet LayerZero einige DVNs sofort einsatzbereit an – zum Beispiel ein von LayerZero Labs betriebenes DVN, das eine 2-von-3-Multisig-Validierung verwendet, und ein von Google Cloud betriebenes DVN. Entscheidend ist jedoch, dass Entwickler DVNs kombinieren können: z. B. könnte eine „1 von 3 von 5“-Konfiguration bedeuten, dass ein bestimmtes DVN signieren muss, plus 2 von 5 anderen. Diese Flexibilität ermöglicht die Kombination verschiedener Verifizierungsmethoden (Light Clients, zkProofs, Oracles usw.) in einem aggregierten Proof. Im Grunde verallgemeinert LayerZero v2 das Ultra-Light-Node-Modell von v1 (das auf einem Relayer + einem Oracle basierte) zu einer X-von-Y-von-N-Multisig-Aggregation über DVNs. Der LayerZero Endpoint-Vertrag einer Anwendung auf jeder Chain liefert eine Nachricht nur dann aus, wenn das erforderliche DVN-Quorum gültige Bestätigungen für diese Nachricht geschrieben hat.

Sicherheitsmerkmale: Der Ansatz von LayerZero ist in dem Maße vertrauensminimiert, als mindestens ein DVN im erforderlichen Satz ehrlich ist (oder ein zk-Proof gültig ist usw.). Indem LayerZero Anwendungen erlaubt, ihr eigenes DVN als erforderlichen Signierer zu betreiben, ermöglicht es sogar, dass eine App jede Nachricht veto einlegt, es sei denn, sie wird vom Verifizierer des App-Teams genehmigt. Dies kann die Sicherheit erheblich erhöhen (auf Kosten der Zentralisierung), indem sichergestellt wird, dass keine Cross-Chain-Nachricht ohne die Signatur der App ausgeführt wird. Andererseits können Entwickler ein dezentraleres DVN-Quorum (z. B. 5 von 15 unabhängigen Netzwerken) für eine stärkere Vertrauensverteilung wählen. LayerZero nennt dies „anwendungseigene Sicherheit“: Jede App wählt den Kompromiss zwischen Sicherheit, Kosten und Leistung, indem sie ihre DVNs konfiguriert. Alle DVN-Bestätigungen werden letztendlich On-Chain von unveränderlichen LayerZero Endpoint-Verträgen verifiziert, wodurch eine genehmigungslose Transportschicht erhalten bleibt. Der Nachteil ist, dass die Sicherheit nur so stark ist wie die gewählten DVNs – wenn die konfigurierten DVNs kolludieren oder kompromittiert werden, könnten sie eine betrügerische Cross-Chain-Nachricht genehmigen. Daher liegt die Last bei jeder Anwendung, robuste DVNs auszuwählen oder ein höheres Sicherheitsrisiko einzugehen.

Hyperlane: Multisig-Validator-Modell mit modularen ISMs

Hyperlane ist ein Interoperabilitäts-Framework, das sich auf ein On-Chain-Interchain Security Module (ISM) konzentriert, das Nachrichten verifiziert, bevor sie auf der Ziel-Chain zugestellt werden. In der einfachsten (und standardmäßigen) Konfiguration verwendet Hyperlanes ISM einen Multisignatur-Validator-Satz: Ein Komitee von Off-Chain-Validatoren signiert Bestätigungen (oft einen Merkle-Root aller ausgehenden Nachrichten) von der Quell-Chain, und ein Schwellenwert von Signaturen ist am Ziel erforderlich. Mit anderen Worten, Hyperlane verlässt sich auf ein genehmigtes Validator-Quorum, um zu bestätigen, dass „Nachricht X tatsächlich auf Chain A gesendet wurde“, analog zum Konsens einer Blockchain, aber auf Brücken-Ebene. Zum Beispiel verwendet Wormhole 19 Guardians mit einer 13-von-19-Multisig – Hyperlanes Ansatz ist im Geiste ähnlich (obwohl Hyperlane sich von Wormhole unterscheidet).

Ein Hauptmerkmal ist, dass Hyperlane keinen einzigen festgeschriebenen Validator-Satz auf Protokollebene hat. Stattdessen kann jeder einen Validator betreiben, und verschiedene Anwendungen können ISM-Verträge mit unterschiedlichen Validator-Listen und Schwellenwerten bereitstellen. Das Hyperlane-Protokoll bietet Standard-ISM-Bereitstellungen (mit einem Satz von Validatoren, die das Team bootstrapped hat), aber Entwickler können den Validator-Satz oder sogar das Sicherheitsmodell für ihre App frei anpassen. Tatsächlich unterstützt Hyperlane mehrere Arten von ISMs, einschließlich eines Aggregation ISM, das mehrere Verifizierungsmethoden kombiniert, und eines Routing ISM, das ein ISM basierend auf Nachrichtenparametern auswählt. Zum Beispiel könnte eine App sowohl eine Hyperlane-Multisig als auch eine externe Brücke (wie Wormhole oder Axelar) verlangen, um zu signieren – wodurch eine höhere Sicherheitsstufe durch Redundanz erreicht wird.

Sicherheitsmerkmale: Die grundlegende Sicherheit von Hyperlanes Multisig-Modell beruht auf der Ehrlichkeit einer Mehrheit seiner Validatoren. Wenn der Schwellenwert (z. B. 5 von 8) der Validatoren kolludieren, könnten sie eine betrügerische Nachricht signieren, sodass die Vertrauensannahme ungefähr N-von-M-Multisig-Vertrauen ist. Hyperlane begegnet diesem Risiko durch die Integration mit EigenLayer Restaking, wodurch ein Economic Security Module (ESM) geschaffen wird, das Validatoren dazu verpflichtet, gestaktes ETH zu hinterlegen, das bei Fehlverhalten geslasht werden kann. Dieser „Actively Validated Service (AVS)“ bedeutet, dass, wenn ein Hyperlane-Validator eine ungültige Nachricht signiert (eine, die nicht tatsächlich in der Historie der Quell-Chain enthalten ist), jeder einen Proof auf Ethereum vorlegen kann, um den Stake dieses Validators zu slashen. Dies stärkt das Sicherheitsmodell erheblich, indem Betrug wirtschaftlich unattraktiv gemacht wird – Hyperlanes Cross-Chain-Nachrichten werden durch das wirtschaftliche Gewicht von Ethereum gesichert, nicht nur durch den sozialen Ruf der Validatoren. Ein Kompromiss ist jedoch, dass die Abhängigkeit von Ethereum für das Slashing eine Abhängigkeit von Ethereums Liveness einführt und davon ausgeht, dass Betrugs-Proofs rechtzeitig eingereicht werden können. In Bezug auf die Liveness warnt Hyperlane, dass die Nachrichtenzustellung zum Erliegen kommen kann, wenn nicht genügend Validatoren online sind, um den Schwellenwert zu erreichen. Das Protokoll mindert dies, indem es eine flexible Schwellenwertkonfiguration ermöglicht – z. B. die Verwendung eines größeren Validator-Satzes, damit gelegentliche Ausfallzeiten das Netzwerk nicht zum Stillstand bringen. Insgesamt bietet Hyperlanes modulares Multisig-Ansatz Flexibilität und Upgradefähigkeit (Apps wählen ihre eigene Sicherheit oder kombinieren mehrere Quellen) auf Kosten des zusätzlichen Vertrauens in einen Validator-Satz. Dies ist ein schwächeres Vertrauensmodell als ein echter Light Client, aber mit jüngsten Innovationen (wie Restaked Collateral und Slashing) kann es in der Praxis ähnliche Sicherheitsgarantien erreichen, während es einfacher über viele Chains hinweg bereitgestellt werden kann.

IBC 3.0: Light Clients mit vertrauensminimierten Relayern

Das Inter-Blockchain Communication (IBC)-Protokoll, das im Cosmos-Ökosystem weit verbreitet ist, verfolgt einen grundlegend anderen Ansatz: Es verwendet On-Chain-Light Clients, um Cross-Chain-Zustände zu verifizieren, anstatt einen neuen Validator-Satz einzuführen. In IBC stellt jedes Chain-Paar eine Verbindung her, bei der Chain B einen Light Client von Chain A (und umgekehrt) hält. Dieser Light Client ist im Wesentlichen eine vereinfachte Replik des Konsenses der anderen Chain (z. B. Verfolgung von Validator-Satz-Signaturen oder Block-Hashes). Wenn Chain A eine Nachricht (ein IBC-Paket) an Chain B sendet, übermittelt ein Relayer (ein Off-Chain-Akteur) einen Proof (Merkle-Proof des Pakets und des neuesten Block-Headers) an Chain B. Das IBC-Modul von Chain B verwendet dann den On-Chain-Light Client, um zu verifizieren, dass der Proof gemäß den Konsensregeln von Chain A gültig ist. Wenn der Proof stimmt (d. h. das Paket wurde in einem finalisierten Block auf A committet), wird die Nachricht akzeptiert und an das Zielmodul auf B zugestellt. Im Wesentlichen vertraut Chain B direkt dem Konsens von Chain A, nicht einem Vermittler – deshalb wird IBC oft als vertrauensminimierte Interoperabilität bezeichnet.

IBC 3.0 bezieht sich auf die neueste Entwicklung dieses Protokolls (ca. 2025), die Leistungs- und Funktionsverbesserungen einführt: paralleles Relaying für geringere Latenz, benutzerdefinierte Kanaltypen für spezialisierte Anwendungsfälle und Interchain Queries zum Lesen von Remote-Zuständen. Bemerkenswerterweise ändert keiner davon das Kern-Light-Client-Sicherheitsmodell – sie verbessern Geschwindigkeit und Funktionalität. Zum Beispiel bedeutet paralleles Relaying, dass mehrere Relayer Pakete gleichzeitig transportieren können, um Engpässe zu vermeiden, was die Liveness verbessert, ohne die Sicherheit zu opfern. Interchain Queries (ICQ) ermöglichen es einem Vertrag auf Chain A, Chain B um Daten zu bitten (mit einem Proof), die dann vom Light Client von A für B verifiziert werden. Dies erweitert die Fähigkeiten von IBC über Token-Transfers hinaus auf einen allgemeineren Cross-Chain-Datenzugriff, der immer noch durch verifizierte Light-Client-Proofs untermauert wird.

Sicherheitsmerkmale: Die Sicherheitsgarantie von IBC ist so stark wie die Integrität der Quell-Chain. Wenn Chain A eine ehrliche Mehrheit (oder den konfigurierten Konsens-Schwellenwert) hat und der Light Client von Chain B für A aktuell ist, dann muss jedes akzeptierte Paket von einem gültigen Block auf A stammen. Es ist nicht notwendig, Brücken-Validatoren oder Oracles zu vertrauen – die einzigen Vertrauensannahmen sind der native Konsens der beiden Chains und einige Parameter wie die Vertrauensperiode des Light Clients (nach der alte Header ablaufen). Relayer in IBC müssen nicht vertraut werden; sie können keine gültigen Header oder Pakete fälschen, da diese die Verifizierung nicht bestehen würden. Im schlimmsten Fall kann ein bösartiger oder Offline-Relayer Nachrichten zensieren oder verzögern, aber jeder kann einen Relayer betreiben, sodass die Liveness schließlich erreicht wird, wenn mindestens ein ehrlicher Relayer existiert. Dies ist ein sehr starkes Sicherheitsmodell: effektiv standardmäßig dezentralisiert und genehmigungslos, was die Eigenschaften der Chains selbst widerspiegelt. Die Kompromisse liegen in Kosten und Komplexität – das Betreiben eines Light Clients (insbesondere einer High-Throughput-Chain) auf einer anderen Chain kann ressourcenintensiv sein (Speichern von Validator-Satz-Änderungen, Verifizieren von Signaturen usw.). Für Cosmos SDK-Chains, die Tendermint/BFT verwenden, sind diese Kosten überschaubar und IBC ist sehr effizient; aber die Integration heterogener Chains (wie Ethereum oder Solana) erfordert komplexe Client-Implementierungen oder neue Kryptographie. Tatsächlich war die Überbrückung von Nicht-Cosmos-Chains über IBC langsamer – Projekte wie Polymer und Composable arbeiten an Light Clients oder zk-Proofs, um IBC auf Ethereum und andere auszudehnen. Die Verbesserungen von IBC 3.0 (z. B. optimierte Light Clients, Unterstützung für verschiedene Verifizierungsmethoden) zielen darauf ab, diese Kosten zu senken. Zusammenfassend bietet das Light-Client-Modell von IBC die stärksten Vertrauensgarantien (überhaupt keine externen Validatoren) und eine solide Liveness (angesichts mehrerer Relayer), auf Kosten einer höheren Implementierungskomplexität und Einschränkungen, dass alle teilnehmenden Chains das IBC-Protokoll unterstützen müssen.

Vergleich von Light Clients, Multisigs und Proof-Aggregation

Jedes Sicherheitsmodell – Light Clients (IBC), Validator-Multisigs (Hyperlane) und aggregierte Proofs (LayerZero) – hat unterschiedliche Vor- und Nachteile. Im Folgenden vergleichen wir sie anhand wichtiger Dimensionen:

Sicherheitsgarantien

  • Light Clients (IBC): Bietet höchste Sicherheit, indem die On-Chain-Verifizierung an den Konsens der Quell-Chain gebunden wird. Es gibt keine neue Vertrauensebene; wenn Sie der Quell-Blockchain (z. B. Cosmos Hub oder Ethereum) vertrauen, keine Blöcke doppelt zu produzieren, vertrauen Sie den Nachrichten, die sie sendet. Dies minimiert zusätzliche Vertrauensannahmen und Angriffsflächen. Wenn jedoch der Validator-Satz der Quell-Chain korrumpiert ist (z. B. >⅓ in Tendermint oder >½ in einer PoS-Chain werden bösartig), kann der Light Client mit einem betrügerischen Header gefüttert werden. In der Praxis werden IBC-Kanäle normalerweise zwischen wirtschaftlich sicheren Chains eingerichtet, und Light Clients können Parameter (wie Vertrauensperiode und Blockfinalitätsanforderungen) haben, um Risiken zu mindern. Insgesamt ist die Vertrauensminimierung der stärkste Vorteil des Light-Client-Modells – es gibt einen kryptographischen Proof der Gültigkeit für jede Nachricht.

  • Multisig-Validatoren (Hyperlane & ähnliche Brücken): Die Sicherheit hängt von der Ehrlichkeit einer Reihe von Off-Chain-Signierern ab. Ein typischer Schwellenwert (z. B. ⅔ der Validatoren) muss jede Cross-Chain-Nachricht oder jeden Status-Checkpoint abzeichnen. Der Vorteil ist, dass dies mit ausreichend seriösen oder wirtschaftlich gestakten Validatoren angemessen sicher gemacht werden kann. Zum Beispiel müssen Wormholes 19 Guardians oder Hyperlanes Standardkomitee kollektiv kolludieren, um das System zu kompromittieren. Der Nachteil ist, dass dies eine neue Vertrauensannahme einführt: Benutzer müssen dem Komitee der Brücke zusätzlich zu den Chains vertrauen. Dies hat sich bei einigen Hacks als Schwachstelle erwiesen (z. B. wenn private Schlüssel gestohlen werden oder wenn Insider kolludieren). Initiativen wie Hyperlanes Restaked-ETH-Collateral fügen diesem Modell wirtschaftliche Sicherheit hinzu – Validatoren, die ungültige Daten signieren, können automatisch auf Ethereum geslasht werden. Dies rückt Multisig-Brücken näher an die Sicherheit einer Blockchain heran (durch finanzielle Bestrafung von Betrug), ist aber immer noch nicht so vertrauensminimiert wie ein Light Client. Kurz gesagt, Multisigs sind schwächer in Bezug auf Vertrauensgarantien: Man verlässt sich auf eine Mehrheit einer kleinen Gruppe, obwohl Slashing und Audits das Vertrauen stärken können.

  • Proof-Aggregation (LayerZero v2): Dies ist gewissermaßen ein Mittelweg. Wenn eine Anwendung ihren Security Stack so konfiguriert, dass er einen Light-Client-DVN oder einen zk-Proof-DVN enthält, kann die Garantie für diese Prüfungen das IBC-Niveau erreichen (Mathematik und Chain-Konsens). Wenn sie ein komitee-basiertes DVN verwendet (wie LayerZeros 2-von-3-Standard oder einen Axelar-Adapter), erbt sie die Vertrauensannahmen dieses Multisigs. Die Stärke von LayerZeros Modell ist, dass Sie mehrere Verifizierer unabhängig kombinieren können. Zum Beispiel könnte die Anforderung, dass sowohl „ein zk-Proof gültig ist“ als auch „Chainlink Oracle sagt, der Block-Header ist X“ als auch „unser eigener Validator signiert ab“, die Angriffsmöglichkeiten dramatisch reduzieren (ein Angreifer müsste alle auf einmal brechen). Indem LayerZero einer App erlaubt, ihr eigenes DVN vorzuschreiben, stellt es außerdem sicher, dass keine Nachricht ohne die Zustimmung der App ausgeführt wird, wenn dies so konfiguriert ist. Die Schwäche ist, dass, wenn Entwickler eine laxe Sicherheitskonfiguration wählen (für günstigere Gebühren oder Geschwindigkeit), sie die Sicherheit untergraben könnten – z. B. die Verwendung eines einzelnen DVNs, das von einer unbekannten Partei betrieben wird, wäre ähnlich wie das Vertrauen in einen einzelnen Validator. LayerZero selbst ist meinungsunabhängig und überlässt diese Entscheidungen den App-Entwicklern, was bedeutet, dass die Sicherheit nur so gut ist wie die gewählten DVNs. Zusammenfassend kann Proof-Aggregation sehr starke Sicherheit bieten (sogar höher als ein einzelner Light Client, indem mehrere unabhängige Proofs erforderlich sind), ermöglicht aber auch schwache Setups, wenn falsch konfiguriert. Es ist flexibel: Eine App kann die Sicherheit für hochwertige Transaktionen erhöhen (z. B. mehrere große DVNs erfordern) und für geringwertige Transaktionen reduzieren.

Liveness und Verfügbarkeit

  • Light Clients (IBC): Die Liveness hängt von Relayern und der Aktualisierung des Light Clients ab. Positiv ist, dass jeder einen Relayer betreiben kann, sodass das System nicht von einem bestimmten Satz von Nodes abhängt – wenn ein Relayer stoppt, kann ein anderer die Arbeit übernehmen. IBC 3.0s paralleles Relaying verbessert die Verfügbarkeit weiter, indem nicht alle Pakete über einen Pfad serialisiert werden. In der Praxis waren IBC-Verbindungen sehr zuverlässig, aber es gibt Szenarien, in denen die Liveness leiden kann: z. B. wenn kein Relayer lange Zeit ein Update postet, könnte ein Light Client ablaufen (z. B. wenn die Vertrauensperiode ohne Verlängerung abläuft) und dann der Kanal aus Sicherheitsgründen geschlossen werden. Solche Fälle sind jedoch selten und werden durch aktive Relayer-Netzwerke gemindert. Eine weitere Liveness-Überlegung: IBC-Pakete unterliegen der Finalität der Quell-Chain – z. B. das Warten von 1-2 Blöcken in Tendermint (einige Sekunden) ist Standard. Insgesamt bietet IBC hohe Verfügbarkeit, solange mindestens ein aktiver Relayer vorhanden ist, und die Latenz ist typischerweise gering (Sekunden) für finalisierte Blöcke. Es gibt kein Konzept eines Quorums von Validatoren, die offline gehen, wie bei Multisig; die Finalität des Konsenses der Blockchain selbst ist der Hauptlatenzfaktor.

  • Multisig-Validatoren (Hyperlane): Die Liveness kann eine Schwäche sein, wenn der Validator-Satz klein ist. Wenn zum Beispiel eine Brücke eine 5-von-8-Multisig hat und 4 Validatoren offline oder unerreichbar sind, stoppt das Cross-Chain-Messaging, weil der Schwellenwert nicht erreicht werden kann. Die Hyperlane-Dokumentation weist darauf hin, dass die Ausfallzeit von Validatoren die Nachrichtenzustellung stoppen kann, abhängig vom konfigurierten Schwellenwert. Dies ist teilweise der Grund, warum ein größeres Komitee oder ein niedrigerer Schwellenwert (mit Sicherheitskompromiss) gewählt werden könnte, um die Betriebszeit zu verbessern. Hyperlanes Design ermöglicht die Bereitstellung neuer Validatoren oder den Wechsel des ISM bei Bedarf, aber solche Änderungen könnten Koordination/Governance erfordern. Der Vorteil von Multisig-Brücken ist typischerweise eine schnelle Bestätigung, sobald Schwellenwert-Signaturen gesammelt wurden – es muss nicht auf die Blockfinalität einer Quell-Chain auf der Ziel-Chain gewartet werden, da die Multisig-Bestätigung die Finalität ist. In der Praxis signieren und relayen viele Multisig-Brücken Nachrichten innerhalb von Sekunden. Die Latenz kann also für einige Chains vergleichbar oder sogar geringer sein als bei Light Clients. Der Engpass ist, wenn Validatoren langsam oder geografisch verteilt sind oder wenn manuelle Schritte erforderlich sind. Zusammenfassend können Multisig-Modelle meistens sehr live und latenzarm sein, aber sie haben ein Liveness-Risiko, das sich im Validator-Satz konzentriert – wenn zu viele Validatoren abstürzen oder eine Netzwerkpartition unter ihnen auftritt, ist die Brücke effektiv ausgefallen.

  • Proof-Aggregation (LayerZero): Die Liveness hängt hier von der Verfügbarkeit jedes DVN und des Relayers ab. Eine Nachricht muss Signaturen/Proofs von den erforderlichen DVNs sammeln und dann an die Ziel-Chain weitergeleitet werden. Der schöne Aspekt ist, dass DVNs unabhängig voneinander arbeiten – wenn ein DVN (aus einem Satz) ausgefallen ist und nicht erforderlich ist (nur Teil eines „M von N“), kann die Nachricht trotzdem fortgesetzt werden, solange der Schwellenwert erreicht ist. LayerZeros Modell erlaubt explizit die Konfiguration von Quoren, um einige DVN-Ausfälle zu tolerieren. Zum Beispiel kann ein „2 von 5“-DVN-Satz 3 DVNs, die offline sind, handhaben, ohne das Protokoll zu stoppen. Da außerdem jeder die endgültige Executor/Relayer-Rolle übernehmen kann, gibt es keinen Single Point of Failure für die Nachrichtenzustellung – wenn der primäre Relayer ausfällt, kann ein Benutzer oder eine andere Partei den Vertrag mit den Proofs aufrufen (dies ist analog zum genehmigungslosen Relayer-Konzept in IBC). Somit strebt LayerZero v2 Zensurresistenz und Liveness an, indem es das System nicht an einen Mittelsmann bindet. Wenn jedoch erforderliche DVNs Teil des Sicherheits-Stacks sind (z. B. eine App verlangt, dass ihr eigenes DVN immer signiert), dann ist dieses DVN eine Liveness-Abhängigkeit: Wenn es offline geht, pausieren Nachrichten, bis es wieder online ist oder die Sicherheitsrichtlinie geändert wird. Im Allgemeinen kann Proof-Aggregation so konfiguriert werden, dass sie robust ist (mit redundanten DVNs und Relaying durch jede Partei), sodass es unwahrscheinlich ist, dass alle Verifizierer gleichzeitig ausfallen. Der Kompromiss ist, dass die Kontaktaufnahme mit mehreren DVNs etwas mehr Latenz verursachen könnte (z. B. Warten auf mehrere Signaturen) im Vergleich zu einem einzelnen schnelleren Multisig. Aber diese DVNs könnten parallel laufen, und viele DVNs (wie ein Oracle-Netzwerk oder ein Light Client) können schnell reagieren. Daher kann LayerZero hohe Liveness und geringe Latenz erreichen, aber die genaue Leistung hängt davon ab, wie die DVNs eingerichtet sind (einige könnten auf einige Blockbestätigungen auf der Quell-Chain warten usw., was aus Sicherheitsgründen zu Verzögerungen führen könnte).

Kosten und Komplexität

  • Light Clients (IBC): Dieser Ansatz ist tendenziell komplex in der Implementierung, aber günstig in der Nutzung, sobald er auf kompatiblen Chains eingerichtet ist. Die Komplexität liegt in der korrekten Implementierung eines Light Clients für jeden Blockchain-Typ – im Wesentlichen kodieren Sie die Konsensregeln von Chain A in einen Smart Contract auf Chain B. Für Cosmos SDK-Chains mit ähnlichem Konsens war dies unkompliziert, aber die Erweiterung von IBC über Cosmos hinaus erforderte umfangreiche Ingenieursarbeit (z. B. den Bau eines Light Clients für Polkadots GRANDPA-Finalität oder Pläne für Ethereum Light Clients mit zk-Proofs). Diese Implementierungen sind nicht trivial und müssen hochsicher sein. Es gibt auch einen On-Chain-Speicher-Overhead: Der Light Client muss aktuelle Validator-Satz- oder State-Root-Informationen für die andere Chain speichern. Dies kann die State-Größe und die Kosten für die Proof-Verifizierung On-Chain erhöhen. Infolgedessen wäre das direkte Ausführen von IBC auf, sagen wir, Ethereum Mainnet (Verifizieren von Cosmos-Headern) gasmäßig teuer – ein Grund, warum Projekte wie Polymer ein Ethereum-Rollup erstellen, um diese Light Clients Off-Mainnet zu hosten. Innerhalb des Cosmos-Ökosystems sind IBC-Transaktionen sehr effizient (oft nur wenige Cent Gas), da die Light-Client-Verifizierung (ed25519-Signaturen, Merkle-Proofs) auf Protokollebene gut optimiert ist. Die Nutzung von IBC ist für Benutzer relativ kostengünstig, und Relayer zahlen nur normale Transaktionsgebühren auf Ziel-Chains (sie können über ICS-29-Middleware mit Gebühren incentiviert werden). Zusammenfassend sind die Kosten von IBC in der Entwicklungskomplexität vorab investiert, aber einmal in Betrieb, bietet es einen nativen, gebühreneffizienten Transport. Die vielen verbundenen Cosmos-Chains (über 100 Zonen) teilen eine gemeinsame Implementierung, was hilft, die Komplexität durch Standardisierung zu verwalten.

  • Multisig-Brücken (Hyperlane/Wormhole/etc.): Die Implementierungskomplexität ist hier oft geringer – die Kern-Brückenverträge müssen hauptsächlich eine Reihe von Signaturen gegen gespeicherte öffentliche Schlüssel verifizieren. Diese Logik ist einfacher als ein vollständiger Light Client. Die Off-Chain-Validator-Software führt zwar operationelle Komplexität ein (Server, die Chain-Ereignisse beobachten, einen Merkle-Baum von Nachrichten pflegen, die Sammlung von Signaturen koordinieren usw.), aber dies wird von den Brückenbetreibern verwaltet und Off-Chain gehalten. On-Chain-Kosten: Das Verifizieren einiger Signaturen (z. B. 2 oder 5 ECDSA-Signaturen) ist nicht zu teuer, aber es ist sicherlich mehr Gas als eine einzelne Schwellenwert-Signatur oder eine Hash-Prüfung. Einige Brücken verwenden aggregierte Signaturschemata (z. B. BLS), um die On-Chain-Kosten auf 1 Signaturverifizierung zu reduzieren. Im Allgemeinen ist die Multisig-Verifizierung auf Ethereum oder ähnlichen Chains mäßig kostspielig (jede ECDSA-Signaturprüfung kostet ~3000 Gas). Wenn eine Brücke 10 Signaturen erfordert, sind das ~30.000 Gas allein für die Verifizierung, plus jegliche Speicherung eines neuen Merkle-Roots usw. Dies ist in der Regel akzeptabel, da Cross-Chain-Transfers hochwertige Operationen sind, aber es kann sich summieren. Aus Entwickler-/Benutzersicht ist die Interaktion mit einer Multisig-Brücke unkompliziert: Sie zahlen ein oder rufen eine Sendefunktion auf, und der Rest wird Off-Chain von den Validatoren/Relayern erledigt, dann wird ein Proof eingereicht. Für App-Entwickler gibt es minimale Komplexität, da sie nur die API/den Vertrag der Brücke integrieren. Eine Komplexitätsüberlegung ist das Hinzufügen neuer Chains – jeder Validator muss einen Node oder Indexer für jede neue Chain betreiben, um Nachrichten zu beobachten, was ein Koordinationsproblem sein kann (dies wurde als Engpass für die Expansion in einigen Multisig-Designs festgestellt). Hyperlanes Antwort sind genehmigungslose Validatoren (jeder kann für eine Chain beitreten, wenn das ISM sie enthält), aber die Anwendung, die das ISM bereitstellt, muss diese Schlüssel zunächst einrichten. Insgesamt sind Multisig-Modelle einfacher über heterogene Chains hinweg zu bootstrappen (keine Notwendigkeit für einen maßgeschneiderten Light Client pro Chain), was sie schneller auf den Markt bringt, aber sie verursachen operationelle Komplexität Off-Chain und moderate On-Chain-Verifizierungskosten.

  • Proof-Aggregation (LayerZero): Die Komplexität liegt hier in der Koordination vieler möglicher Verifizierungsmethoden. LayerZero bietet eine standardisierte Schnittstelle (die Endpoint- & MessageLib-Verträge) und erwartet, dass DVNs einer bestimmten Verifizierungs-API entsprechen. Aus Sicht einer Anwendung ist die Verwendung von LayerZero recht einfach (man ruft einfach lzSend auf und implementiert lzReceive-Callbacks), aber unter der Haube passiert viel. Jedes DVN kann seine eigene Off-Chain-Infrastruktur haben (einige DVNs sind im Wesentlichen selbst Mini-Brücken, wie ein Axelar-Netzwerk oder ein Chainlink-Oracle-Dienst). Das Protokoll selbst ist komplex, da es disparate Proof-Typen sicher aggregieren muss – z. B. könnte ein DVN einen EVM-Block-Proof liefern, ein anderer einen SNARK, ein anderer eine Signatur usw., und der Vertrag muss jeden der Reihe nach verifizieren. Der Vorteil ist, dass ein Großteil dieser Komplexität durch LayerZeros Framework abstrahiert wird. Die Kosten hängen davon ab, wie viele und welche Art von Proofs erforderlich sind: Das Verifizieren eines SNARKs kann teuer sein (On-Chain-zk-Proof-Verifizierung kann Hunderttausende von Gas kosten), während das Verifizieren einiger Signaturen billiger ist. LayerZero lässt die App entscheiden, wie viel sie für die Sicherheit pro Nachricht bezahlen möchte. Es gibt auch ein Konzept der Bezahlung von DVNs für ihre Arbeit – die Nachrichtennutzlast enthält eine Gebühr für DVN-Dienste. Zum Beispiel kann eine App Gebühren anfügen, die DVNs und Executoren dazu anregen, die Nachricht umgehend zu verarbeiten. Dies fügt eine Kostendimension hinzu: Eine sicherere Konfiguration (mit vielen DVNs oder teuren Proofs) kostet mehr an Gebühren, während ein einfaches 1-von-1-DVN (wie ein einzelner Relayer) sehr billig, aber weniger sicher sein könnte. Upgradefähigkeit und Governance sind ebenfalls Teil der Komplexität: Da Apps ihren Sicherheits-Stack ändern können, muss es einen Governance-Prozess oder einen Admin-Schlüssel geben, um dies zu tun – was selbst ein Vertrauens-/Komplexitätspunkt ist, der verwaltet werden muss. Zusammenfassend ist die Proof-Aggregation über LayerZero hochflexibel, aber unter der Haube komplex. Die Kosten pro Nachricht können durch die Wahl effizienter DVNs optimiert werden (z. B. durch die Verwendung eines optimierten Ultra-Light-Clients oder die Nutzung der Skaleneffekte eines bestehenden Oracle-Netzwerks). Viele Entwickler werden die Plug-and-Play-Natur (mit bereitgestellten Standardeinstellungen) ansprechend finden – z. B. einfach den Standard-DVN-Satz zur Vereinfachung verwenden – aber das kann wiederum zu suboptimalen Vertrauensannahmen führen, wenn es nicht verstanden wird.

Upgradefähigkeit und Governance

  • Light Clients (IBC): IBC-Verbindungen und Clients können über On-Chain-Governance-Vorschläge auf den teilnehmenden Chains aktualisiert werden (insbesondere wenn der Light Client eine Korrektur oder ein Update für einen Hardfork in der Quell-Chain benötigt). Das Upgrade des IBC-Protokolls selbst (z. B. von IBC 2.0 auf 3.0-Funktionen) erfordert ebenfalls die Annahme neuer Softwareversionen durch die Chain-Governance. Dies bedeutet, dass IBC einen bewussten Upgrade-Pfad hat – Änderungen sind langsam und erfordern Konsens, aber das steht im Einklang mit seinem sicherheitsorientierten Ansatz. Es gibt keine einzelne Entität, die einen Schalter umlegen kann; die Governance jeder Chain muss Änderungen an Clients oder Parametern genehmigen. Das Positive ist, dass dies einseitige Änderungen verhindert, die Schwachstellen einführen könnten. Das Negative ist weniger Agilität – z. B. könnte es bei einem Fehler in einem Light Client koordinierte Governance-Abstimmungen über viele Chains hinweg erfordern, um ihn zu patchen (obwohl es Notfall-Koordinationsmechanismen gibt). Aus dApp-Sicht hat IBC keine „App-Level-Governance“ – es ist eine von der Chain bereitgestellte Infrastruktur. Anwendungen verwenden einfach IBC-Module (wie Token-Transfer oder Interchain-Accounts) und verlassen sich auf die Sicherheit der Chain. Die Governance und Upgrades erfolgen also auf Blockchain-Ebene (Hub- und Zonen-Governance). Ein interessantes neues IBC-Feature sind benutzerdefinierte Kanäle und Routing (z. B. Hubs wie Polymer oder Nexus), die das Umschalten der zugrunde liegenden Verifizierungsmethoden ohne Unterbrechung der Apps ermöglichen können. Aber im Großen und Ganzen ist IBC stabil und standardisiert – Upgradefähigkeit ist möglich, aber selten, was zu seiner Zuverlässigkeit beiträgt.

  • Multisig-Brücken (Hyperlane/Wormhole): Diese Systeme verfügen oft über einen Admin- oder Governance-Mechanismus, um Verträge zu aktualisieren, Validator-Sätze zu ändern oder Parameter zu modifizieren. Zum Beispiel könnte das Hinzufügen eines neuen Validators zum Satz oder das Rotieren von Schlüsseln eine Multisig des Brückenbesitzers oder eine DAO-Abstimmung erfordern. Da Hyperlane genehmigungslos ist, könnte jeder Benutzer sein eigenes ISM mit einem benutzerdefinierten Validator-Satz bereitstellen, aber wenn der Standard verwendet wird, kontrolliert wahrscheinlich das Hyperlane-Team oder die Community die Updates. Upgradefähigkeit ist ein zweischneidiges Schwert: Einerseits einfach zu aktualisieren/verbessern, andererseits kann es ein Zentralisierungsrisiko darstellen (wenn ein privilegierter Schlüssel die Brückenverträge aktualisieren kann, könnte dieser Schlüssel theoretisch die Brücke rug-pullen). Ein gut geführtes Protokoll wird dies einschränken (z. B. Time-Lock-Upgrades oder die Verwendung einer dezentralen Governance). Hyperlanes Philosophie ist Modularität – so könnte eine App sogar eine fehlerhafte Komponente umgehen, indem sie ISMs wechselt usw. Dies gibt Entwicklern die Möglichkeit, auf Bedrohungen zu reagieren (z. B. wenn ein Satz von Validatoren als kompromittiert verdächtigt wird, könnte eine App schnell zu einem anderen Sicherheitsmodell wechseln). Der Governance-Overhead besteht darin, dass Apps ihr Sicherheitsmodell selbst bestimmen und möglicherweise Schlüssel für ihre eigenen Validatoren verwalten oder auf Updates des Hyperlane-Kernprotokolls achten müssen. Zusammenfassend sind Multisig-basierte Systeme leichter aktualisierbar (die Verträge sind oft aktualisierbar und die Komitees konfigurierbar), was gut für schnelle Verbesserungen und das Hinzufügen neuer Chains ist, aber es erfordert Vertrauen in den Governance-Prozess. Viele Brücken-Exploits in der Vergangenheit sind durch kompromittierte Upgrade-Schlüssel oder fehlerhafte Governance aufgetreten, daher muss dieser Bereich sorgfältig behandelt werden. Positiv ist, dass das Hinzufügen der Unterstützung für eine neue Chain so einfach sein könnte wie das Bereitstellen der Verträge und das Veranlassen der Validatoren, Nodes dafür zu betreiben – keine grundlegende Protokolländerung erforderlich.

  • Proof-Aggregation (LayerZero): LayerZero bewirbt eine unveränderliche Transportschicht (die Endpoint-Verträge sind nicht aktualisierbar), aber die Verifizierungsmodule (Message Libraries und DVN-Adapter) sind nur zum Anhängen und konfigurierbar. In der Praxis bedeutet dies, dass der LayerZero-Kernvertrag auf jeder Chain fest bleibt (eine stabile Schnittstelle bereitstellt), während neue DVNs oder Verifizierungsoptionen im Laufe der Zeit hinzugefügt werden können, ohne den Kern zu ändern. Anwendungsentwickler haben die Kontrolle über ihren Security Stack: Sie können DVNs hinzufügen oder entfernen, die Bestätigungsblocktiefe ändern usw. Dies ist eine Form der Upgradefähigkeit auf App-Ebene. Wenn beispielsweise ein bestimmtes DVN veraltet ist oder ein neues, besseres entsteht (wie ein schnellerer zk-Client), kann das App-Team dies in seine Konfiguration integrieren – was die dApp zukunftssicher macht. Der Vorteil ist offensichtlich: Apps sind nicht an die Sicherheitstechnologie von gestern gebunden; sie können sich (mit entsprechender Vorsicht) an neue Entwicklungen anpassen. Dies wirft jedoch Governance-Fragen auf: Wer innerhalb der App entscheidet, den DVN-Satz zu ändern? Idealerweise, wenn die App dezentralisiert ist, würden Änderungen durch Governance gehen oder hartkodiert sein, wenn sie Unveränderlichkeit wünschen. Wenn ein einzelner Admin den Sicherheits-Stack ändern kann, ist das ein Vertrauenspunkt (er könnte die Sicherheitsanforderungen in einem bösartigen Upgrade reduzieren). LayerZeros eigene Anleitung ermutigt dazu, eine robuste Governance für solche Änderungen einzurichten oder bestimmte Aspekte bei Bedarf sogar unveränderlich zu machen. Ein weiterer Governance-Aspekt ist das Gebührenmanagement – die Bezahlung von DVNs und Relayern könnte angepasst werden, und falsch ausgerichtete Anreize könnten die Leistung beeinträchtigen (obwohl standardmäßig Marktkräfte die Gebühren anpassen sollten). Zusammenfassend ist LayerZeros Modell hochgradig erweiterbar und aktualisierbar in Bezug auf das Hinzufügen neuer Verifizierungsmethoden (was großartig für die langfristige Interoperabilität ist), doch die Verantwortung liegt bei jeder Anwendung, diese Upgrades verantwortungsvoll zu verwalten. Die Basisverträge von LayerZero sind unveränderlich, um sicherzustellen, dass die Transportschicht nicht rug-pulled oder zensiert werden kann, was Vertrauen schafft, dass die Messaging-Pipeline selbst durch Upgrades intakt bleibt.

Um den Vergleich zusammenzufassen, hebt die folgende Tabelle die wichtigsten Unterschiede hervor:

AspektIBC (Light Clients)Hyperlane (Multisig)LayerZero v2 (Aggregation)
VertrauensmodellVertraut dem Konsens der Quell-Chain (kein zusätzliches Vertrauen).Vertraut einem Komitee von Brücken-Validatoren (z. B. Multisig-Schwellenwert). Slashing kann das Risiko mindern.Vertrauen hängt von den gewählten DVNs ab. Kann Light Client oder Multisig emulieren oder mischen (vertraut mindestens einem der gewählten Verifizierer).
SicherheitHöchste – kryptographischer Proof der Gültigkeit über Light Client. Angriffe erfordern Kompromittierung der Quell-Chain oder des Light Clients.Stark, wenn das Komitee eine ehrliche Mehrheit hat, aber schwächer als Light Client. Komitee-Kollusion oder Schlüsselkompromittierung ist die Hauptbedrohung.Potenziell sehr hoch – kann mehrere unabhängige Proofs erfordern (z. B. zk + Multisig + Oracle). Aber konfigurierbare Sicherheit bedeutet, dass sie nur so stark ist wie die schwächsten gewählten DVNs.
LivenessSehr gut, solange mindestens ein Relayer aktiv ist. Parallele Relayer und schnelle Finalitäts-Chains ermöglichen nahezu Echtzeit-Zustellung.Gut unter normalen Bedingungen (schnelle Signaturen). Aber abhängig von der Betriebszeit der Validatoren. Ausfall des Schwellenwert-Quorums = Stillstand. Expansion auf neue Chains erfordert Komitee-Unterstützung.Sehr gut; mehrere DVNs bieten Redundanz, und jeder Benutzer kann Transaktionen relayen. Erforderliche DVNs können bei Fehlkonfiguration Single Points of Failure sein. Latenz kann angepasst werden (z. B. Warten auf Bestätigungen vs. Geschwindigkeit).
KostenAnfängliche Komplexität bei der Implementierung von Clients. On-Chain-Verifizierung des Konsenses (Signaturen, Merkle-Proofs), aber in Cosmos optimiert. Geringe Kosten pro Nachricht in IBC-nativen Umgebungen; potenziell teuer auf nicht-nativen Chains ohne spezielle Lösungen.Geringere Entwicklungskomplexität für Kernverträge. On-Chain-Kosten skalieren mit der Anzahl der Signaturen pro Nachricht. Off-Chain-Betriebskosten für Validatoren (Nodes auf jeder Chain). Möglicherweise höhere Gasgebühren als Light Client bei vielen Signaturen, aber oft überschaubar.Moderat bis hoch in der Komplexität. Kosten pro Nachricht variieren: jeder DVN-Proof (Signatur oder SNARK) erhöht die Verifizierungs-Gasgebühren. Apps zahlen DVN-Gebühren für den Dienst. Kosten können durch die Wahl weniger oder günstigerer Proofs für geringwertige Nachrichten optimiert werden.
UpgradefähigkeitProtokoll entwickelt sich über Chain-Governance (langsam, konservativ). Light-Client-Updates erfordern Koordination, aber Standardisierung hält es stabil. Das Hinzufügen neuer Chains erfordert das Erstellen/Genehmigen neuer Client-Typen.Flexibel – Validator-Sätze und ISMs können über Governance oder Admin geändert werden. Einfacher, neue Chains schnell zu integrieren. Risiko, wenn Upgrade-Schlüssel oder Governance kompromittiert werden. Typischerweise aktualisierbare Verträge (erfordert Vertrauen in Administratoren).Hochgradig modular – neue DVNs/Verifizierungsmethoden können hinzugefügt werden, ohne den Kern zu ändern. Apps können die Sicherheitskonfiguration bei Bedarf ändern. Kern-Endpoints unveränderlich (keine zentralen Upgrades), aber App-Level-Governance für Sicherheitsänderungen erforderlich, um Missbrauch zu vermeiden.

Auswirkungen auf Komponierbarkeit und geteilte Liquidität in DeFi

Cross-Chain-Messaging ermöglicht leistungsstarke neue Muster für die Komponierbarkeit – die Fähigkeit von DeFi-Verträgen auf verschiedenen Chains, miteinander zu interagieren – und ermöglicht geteilte Liquidität – das Pooling von Assets über Chains hinweg, als ob sie sich in einem Markt befänden. Die oben diskutierten Sicherheitsmodelle beeinflussen, wie zuversichtlich und nahtlos Protokolle Cross-Chain-Funktionen nutzen können. Im Folgenden untersuchen wir, wie jeder Ansatz Multi-Chain-DeFi unterstützt, mit realen Beispielen:

  • Omnichain-DeFi über LayerZero (Stargate, Radiant, Tapioca): LayerZeros generisches Messaging und der Omnichain Fungible Token (OFT)-Standard sind darauf ausgelegt, Liquiditätssilos aufzubrechen. Zum Beispiel verwendet Stargate Finance LayerZero, um einen einheitlichen Liquiditätspool für native Asset-Bridging zu implementieren – anstatt fragmentierter Pools auf jeder Chain greifen Stargate-Verträge auf allen Chains auf einen gemeinsamen Pool zu, und LayerZero-Nachrichten handhaben die Sperr-/Freigabe-Logik über Chains hinweg. Dies führte zu einem monatlichen Volumen von über 800 Millionen US-Dollar in Stargates Brücken, was eine signifikante geteilte Liquidität demonstriert. Indem sie sich auf LayerZeros Sicherheit verlassen (wobei Stargate vermutlich einen robusten DVN-Satz verwendet), können Benutzer Assets mit hoher Zuversicht in die Nachrichtenauthentizität übertragen. Radiant Capital ist ein weiteres Beispiel – ein Cross-Chain-Lending-Protokoll, bei dem Benutzer auf einer Chain einzahlen und auf einer anderen leihen können. Es nutzt LayerZero-Nachrichten, um den Kontostand über Chains hinweg zu koordinieren und so effektiv einen Lending-Markt über mehrere Netzwerke hinweg zu schaffen. Ähnlich verwendet Tapioca (ein Omnichain-Geldmarkt) LayerZero v2 und betreibt sogar sein eigenes DVN als erforderlichen Verifizierer, um seine Nachrichten zu sichern. Diese Beispiele zeigen, dass LayerZero mit flexibler Sicherheit komplexe Cross-Chain-Operationen wie Kreditprüfungen, Kollateralbewegungen und Liquidationen über Chains hinweg unterstützen kann. Die Komponierbarkeit ergibt sich aus LayerZeros „OApp“-Standard (Omnichain Application), der es Entwicklern ermöglicht, denselben Vertrag auf vielen Chains bereitzustellen und diese über Messaging zu koordinieren. Ein Benutzer interagiert mit der Instanz jeder Chain und erlebt die Anwendung als ein einheitliches System. Das Sicherheitsmodell ermöglicht eine Feinabstimmung: z. B. könnten große Transfers oder Liquidationen mehr DVN-Signaturen erfordern (aus Sicherheitsgründen), während kleine Aktionen schnellere/günstigere Pfade durchlaufen. Diese Flexibilität stellt sicher, dass weder Sicherheit noch UX eine Einheitslösung sein müssen. In der Praxis hat LayerZeros Modell die geteilte Liquidität erheblich verbessert, was durch Dutzende von Projekten belegt wird, die OFT für Token verwenden (sodass ein Token „Omnichain“ existieren kann, anstatt als separate Wrapped Assets). Zum Beispiel können Stablecoins und Governance-Token OFT verwenden, um eine einzige Gesamtversorgung über alle Chains hinweg aufrechtzuerhalten – wodurch Liquiditätsfragmentierung und Arbitrage-Probleme vermieden werden, die frühere Wrapped Tokens plagten. Insgesamt hat LayerZero durch die Bereitstellung einer zuverlässigen Messaging-Schicht und die Möglichkeit für Apps, das Vertrauensmodell zu kontrollieren, neue Multi-Chain-DeFi-Designs katalysiert, die mehrere Chains als ein Ökosystem behandeln. Der Kompromiss ist, dass Benutzer und Projekte die Vertrauensannahme jeder Omnichain-App verstehen müssen (da sie sich unterscheiden können). Aber Standards wie OFT und weit verbreitete Standard-DVNs tragen dazu bei, dies einheitlicher zu gestalten.

  • Interchain-Accounts und -Dienste in IBC (Cosmos DeFi): In der Cosmos-Welt hat IBC eine reiche Vielfalt an Cross-Chain-Funktionalität ermöglicht, die über Token-Transfers hinausgeht. Ein Flaggschiff-Feature sind Interchain Accounts (ICA), die es einer Blockchain (oder einem Benutzer auf Chain A) ermöglichen, ein Konto auf Chain B zu kontrollieren, als ob es lokal wäre. Dies geschieht über IBC-Pakete, die Transaktionen übertragen. Zum Beispiel kann der Cosmos Hub ein Interchain-Konto auf Osmosis verwenden, um Token im Namen eines Benutzers zu staken oder zu swappen – alles vom Hub aus initiiert. Ein konkreter DeFi-Anwendungsfall ist Strides Liquid Staking-Protokoll: Stride (eine Chain) empfängt Token wie ATOM von Benutzern und staket diese ATOM über ICA remote auf dem Cosmos Hub und gibt dann stATOM (liquid gestakte ATOM) an die Benutzer zurück. Der gesamte Fluss ist vertrauenslos und automatisiert über IBC – Strides Modul steuert ein Konto auf dem Hub, das Delegate- und Undelegate-Transaktionen ausführt, wobei Bestätigungen und Timeouts die Sicherheit gewährleisten. Dies demonstriert Cross-Chain-Komponierbarkeit: zwei souveräne Chains führen einen gemeinsamen Workflow (hier staken, dort Token minten) nahtlos aus. Ein weiteres Beispiel ist Osmosis (eine DEX-Chain), die IBC verwendet, um Assets von über 95 verbundenen Chains anzuziehen. Benutzer aus jeder Zone können auf Osmosis swappen, indem sie ihre Token über IBC senden. Dank der hohen Sicherheit von IBC behandeln Osmosis und andere IBC-Token zuversichtlich als echt (ohne vertrauenswürdige Verwahrer zu benötigen). Dies hat dazu geführt, dass Osmosis zu einer der größten Interchain-DEXes geworden ist, mit einem täglichen IBC-Transfervolumen, das Berichten zufolge das vieler Brückensysteme übersteigt. Darüber hinaus kann mit Interchain Queries (ICQ) in IBC 3.0 ein Smart Contract auf einer Chain Daten (wie Preise, Zinssätze oder Positionen) von einer anderen Chain auf vertrauensminimierte Weise abrufen. Dies könnte beispielsweise einen Interchain-Yield-Aggregator ermöglichen, der Yield-Raten auf mehreren Zonen abfragt und Assets entsprechend neu zuweist, alles über IBC-Nachrichten. Die Hauptauswirkung des IBC-Light-Client-Modells auf die Komponierbarkeit ist Vertrauen und Neutralität: Chains bleiben souverän, können aber ohne Angst vor einem Drittanbieter-Brückenrisiko interagieren. Projekte wie Composable Finance und Polymer erweitern IBC sogar auf Nicht-Cosmos-Ökosysteme (Polkadot, Ethereum), um diese Fähigkeiten zu nutzen. Das Ergebnis könnte eine Zukunft sein, in der jede Chain, die einen IBC-Client-Standard annimmt, sich in ein „universelles Internet der Blockchains“ einklinken kann. Geteilte Liquidität in Cosmos ist bereits signifikant – z. B. verlassen sich der native DEX des Cosmos Hub (Gravity DEX) und andere auf IBC, um Liquidität aus verschiedenen Zonen zu bündeln. Eine Einschränkung bisher ist jedoch, dass Cosmos DeFi meist asynchron ist: Sie initiieren auf einer Chain, das Ergebnis erfolgt auf einer anderen mit einer leichten Verzögerung (Sekunden). Dies ist für Dinge wie Trades und Staking in Ordnung, aber komplexere synchrone Komponierbarkeit (wie Flash Loans über Chains hinweg) bleibt aufgrund der grundlegenden Latenz außerhalb des Rahmens. Dennoch ist das Spektrum des durch IBC ermöglichten Cross-Chain-DeFi breit: Multi-Chain-Yield-Farming (Gelder dorthin bewegen, wo der Yield am höchsten ist), Cross-Chain-Governance (eine Chain stimmt ab, um Aktionen auf einer anderen über Governance-Pakete auszuführen) und sogar Interchain Security, bei der eine Consumer-Chain den Validator-Satz einer Provider-Chain nutzt (durch IBC-Validierungspakete). Zusammenfassend haben die sicheren Kanäle von IBC eine Interchain-Wirtschaft in Cosmos gefördert – eine, in der Projekte sich auf separaten Chains spezialisieren und dennoch fließend über vertrauensminimierte Nachrichten zusammenarbeiten können. Die geteilte Liquidität zeigt sich in Dingen wie dem Fluss von Assets zu Osmosis und dem Aufkommen von Cosmos-nativen Stablecoins, die sich frei zwischen den Zonen bewegen.

  • Hybride und andere Multi-Chain-Ansätze (Hyperlane und darüber hinaus): Hyperlanes Vision der genehmigungslosen Konnektivität hat zu Konzepten wie Warp Routes für das Bridging von Assets und Interchain-dApps geführt, die verschiedene Ökosysteme umfassen. Zum Beispiel könnte eine Warp Route es einem ERC-20-Token auf Ethereum ermöglichen, zu einem Solana-Programm teleportiert zu werden, wobei Hyperlanes Nachrichtenschicht im Hintergrund verwendet wird. Eine konkrete benutzerorientierte Implementierung ist Hyperlanes Nexus-Brücke, die eine Benutzeroberfläche für die Übertragung von Assets zwischen vielen Chains über Hyperlanes Infrastruktur bietet. Durch die Verwendung eines modularen Sicherheitsmodells kann Hyperlane die Sicherheit pro Route anpassen: Ein kleiner Transfer könnte über einen einfachen, schnellen Pfad gehen (nur Hyperlane-Validatoren signieren), während ein großer Transfer ein aggregiertes ISM erfordern könnte (Hyperlane + Wormhole + Axelar bestätigen alle). Dies stellt sicher, dass hochwertige Liquiditätsbewegungen durch mehrere Brücken gesichert sind – was das Vertrauen erhöht, z. B. 10 Millionen US-Dollar eines Assets Cross-Chain zu bewegen (es würde die Kompromittierung mehrerer Netzwerke erfordern, um es zu stehlen), auf Kosten höherer Komplexität/Gebühren. In Bezug auf die Komponierbarkeit ermöglicht Hyperlane das, was sie „Vertragsinteroperabilität“ nennen – ein Smart Contract auf Chain A kann eine Funktion auf Chain B aufrufen, als ob sie lokal wäre, sobald Nachrichten zugestellt werden. Entwickler integrieren das Hyperlane SDK, um diese Cross-Chain-Aufrufe einfach zu versenden. Ein Beispiel könnte ein Cross-Chain-DEX-Aggregator sein, der teilweise auf Ethereum und teilweise auf der BNB Chain läuft und Hyperlane-Nachrichten verwendet, um zwischen den beiden zu arbitragieren. Da Hyperlane EVM- und Nicht-EVM-Chains unterstützt (sogar frühe Arbeiten an CosmWasm- und MoveVM-Integration), strebt es an, „jede Chain, jede VM“ zu verbinden. Diese breite Reichweite kann die geteilte Liquidität erhöhen, indem Ökosysteme überbrückt werden, die sonst nicht einfach verbunden werden können. Die tatsächliche Akzeptanz von Hyperlane im großen DeFi-Bereich wächst jedoch noch. Es hat noch nicht das Volumen von Wormhole oder LayerZero im Bridging, aber seine genehmigungslose Natur hat Experimente angezogen. Zum Beispiel haben einige Appchain-Teams Hyperlane verwendet, um ihre Chain schnell mit Ethereum zu verbinden, da sie ihren eigenen Validator-Satz einrichten und nicht auf komplexe Light-Client-Lösungen warten mussten. Wenn Restaking (EigenLayer) wächst, könnte Hyperlane mehr Akzeptanz finden, indem es Ethereum-ähnliche Sicherheit für jedes Rollup mit relativ geringer Latenz bietet. Dies könnte neue Multi-Chain-Kompositionen beschleunigen – z. B. ein Optimism-Rollup und ein Polygon-zk-Rollup, die Nachrichten über Hyperlane AVS austauschen, wobei jede Nachricht durch geslashtes ETH abgesichert ist, wenn sie betrügerisch ist. Die Auswirkung auf die Komponierbarkeit ist, dass selbst Ökosysteme ohne gemeinsamen Standard (wie Ethereum und ein beliebiges L2) einen Brückenvertrag erhalten können, dem beide Seiten vertrauen (weil er wirtschaftlich gesichert ist). Im Laufe der Zeit könnte dies ein Netz miteinander verbundener DeFi-Apps hervorbringen, bei denen die Komponierbarkeit vom Entwickler „eingestellt“ wird (indem er wählt, welche Sicherheitsmodule für welche Aufrufe verwendet werden sollen).

In all diesen Fällen ist das Zusammenspiel zwischen Sicherheitsmodell und Komponierbarkeit offensichtlich. Projekte werden große Liquiditätspools nur dann Cross-Chain-Systemen anvertrauen, wenn die Sicherheit felsenfest ist – daher der Drang zu vertrauensminimierten oder wirtschaftlich gesicherten Designs. Gleichzeitig beeinflussen die einfache Integration (Entwicklererfahrung) und Flexibilität, wie kreativ Teams bei der Nutzung mehrerer Chains sein können. LayerZero und Hyperlane konzentrieren sich auf Einfachheit für Entwickler (einfach ein SDK importieren und vertraute Sende-/Empfangsaufrufe verwenden), während IBC, da es auf niedrigerer Ebene angesiedelt ist, mehr Verständnis für Module erfordert und eher von Chain-Entwicklern als von Anwendungsentwicklern gehandhabt werden könnte. Dennoch streben alle drei eine Zukunft an, in der Benutzer mit Multi-Chain-dApps interagieren, ohne wissen zu müssen, auf welcher Chain sie sich befinden – die App greift nahtlos auf Liquidität und Funktionalität von überall her zu. Zum Beispiel könnte ein Benutzer einer Lending-App auf Chain A einzahlen und nicht einmal merken, dass die Ausleihe aus einem Pool auf Chain B erfolgte – alles abgedeckt durch Cross-Chain-Nachrichten und ordnungsgemäße Validierung.

Implementierungen, Bedrohungsmodelle und Adoption in der Praxis

Es ist wichtig zu beurteilen, wie sich diese Protokolle unter realen Bedingungen bewähren – ihre aktuellen Implementierungen, bekannten Bedrohungsvektoren und Adoptionsraten:

  • LayerZero v2 in Produktion: LayerZero v1 (mit dem 2-Entitäten-Oracle+Relayer-Modell) erlangte eine signifikante Akzeptanz und sicherte bis Mitte 2024 über 50 Milliarden US-Dollar an Transfervolumen und mehr als 134 Millionen Cross-Chain-Nachrichten. Es ist in über 60 Blockchains integriert, hauptsächlich EVM-Chains, aber auch Nicht-EVM-Chains wie Aptos, und experimentelle Unterstützung für Solana steht bevor. LayerZero v2 wurde Anfang 2024 eingeführt und führte DVNs und modulare Sicherheit ein. Bereits große Plattformen wie Radiant Capital, SushiXSwap, Stargate, PancakeSwap und andere haben begonnen, auf v2 zu migrieren oder darauf aufzubauen, um dessen Flexibilität zu nutzen. Eine bemerkenswerte Integration ist das Flare Network (ein Layer1, das sich auf Daten konzentriert), das LayerZero v2 übernommen hat, um sich gleichzeitig mit 75 Chains zu verbinden. Flare wurde von der Möglichkeit angezogen, die Sicherheit anzupassen: z. B. die Verwendung eines einzelnen schnellen DVN für geringwertige Nachrichten und die Anforderung mehrerer DVNs für hochwertige Nachrichten. Dies zeigt, dass Anwendungen in der Produktion tatsächlich den „Mix-and-Match“-Sicherheitsansatz als Verkaufsargument nutzen. Sicherheit und Audits: LayerZeros Verträge sind unveränderlich und wurden auditiert (v1 hatte mehrere Audits, v2 ebenfalls). Die Hauptbedrohung in v1 war die Oracle-Relayer-Kollusion – wenn die beiden Off-Chain-Parteien kolludierten, könnten sie eine Nachricht fälschen. In v2 wird diese Bedrohung auf die DVN-Kollusion verallgemeinert. Wenn alle DVNs, auf die eine App angewiesen ist, von einer Entität kompromittiert werden, könnte eine gefälschte Nachricht durchrutschen. LayerZeros Antwort ist, App-spezifische DVNs zu fördern (damit ein Angreifer auch das App-Team kompromittieren müsste) und die Vielfalt der Verifizierer zu erhöhen (was Kollusion erschwert). Ein weiteres potenzielles Problem ist die Fehlkonfiguration oder der Missbrauch von Upgrades – wenn ein App-Besitzer bösartig zu einem trivialen Security Stack wechselt (wie einem 1-von-1-DVN, das von ihm selbst kontrolliert wird), könnte er die Sicherheit umgehen, um seine eigenen Benutzer auszunutzen. Dies ist eher ein Governance-Risiko als ein Protokollfehler, und Communities müssen wachsam bleiben, wie die Sicherheit einer Omnichain-App eingerichtet ist (vorzugsweise mit Multi-Sig oder Community-Zustimmung für Änderungen). In Bezug auf die Adoption hat LayerZero derzeit wohl die größte Nutzung unter den Messaging-Protokollen in DeFi: Es treibt das Bridging für Stargate, Circles CCTP-Integration (für USDC-Transfers), Sushis Cross-Chain-Swap, viele NFT-Brücken und unzählige OFT-Token an (Projekte, die LayerZero wählen, um ihren Token auf mehreren Chains verfügbar zu machen). Die Netzwerkeffekte sind stark – je mehr Chains LayerZero-Endpoints integrieren, desto einfacher wird es für neue Chains, dem „Omnichain“-Netzwerk beizutreten. LayerZero Labs selbst betreibt ein DVN, und die Community (einschließlich Anbieter wie Google Cloud, Polyhedra für zk-Proofs usw.) hat bis 2024 über 15 DVNs gestartet. Bisher gab es keinen größeren Exploit des LayerZero-Kernprotokolls, was ein positives Zeichen ist (obwohl einige Hacks auf Anwendungsebene oder Benutzerfehler aufgetreten sind, wie bei jeder Technologie). Das Design des Protokolls, die Transportschicht einfach zu halten (im Wesentlichen nur Nachrichten zu speichern und Proofs zu verlangen), minimiert On-Chain-Schwachstellen und verlagert die meisten Komplexität Off-Chain auf die DVNs.

  • Hyperlane in Produktion: Hyperlane (ehemals Abacus) ist auf zahlreichen Chains live, darunter Ethereum, mehrere L2s (Optimism, Arbitrum, zkSync usw.), Cosmos-Chains wie Osmosis über ein Cosmos-SDK-Modul und sogar MoveVM-Chains (es ist in seiner Unterstützung recht breit aufgestellt). Seine Akzeptanz hinkt jedoch den etablierten Anbietern wie LayerZero und Wormhole in Bezug auf das Volumen hinterher. Hyperlane wird oft im Kontext einer „souveränen Brückenlösung“ erwähnt – d. h. ein Projekt kann Hyperlane bereitstellen, um eine eigene Brücke mit benutzerdefinierter Sicherheit zu haben. Zum Beispiel haben einige Appchain-Teams Hyperlane verwendet, um ihre Chain mit Ethereum zu verbinden, ohne sich auf eine geteilte Brücke zu verlassen. Eine bemerkenswerte Entwicklung ist der Mitte 2024 gestartete Hyperlane Active Validation Service (AVS), der eine der ersten Anwendungen des Ethereum-Restakings ist. Dabei staken Validatoren (viele davon Top-EigenLayer-Betreiber) ETH, um Hyperlane-Nachrichten zu sichern, wobei der Fokus zunächst auf schnellem Cross-Rollup-Messaging liegt. Dies sichert derzeit die Interoperabilität zwischen Ethereum L2-Rollups mit guten Ergebnissen – im Wesentlichen bietet es eine nahezu sofortige Nachrichtenübermittlung (schneller als das Warten auf optimistische Rollup-7-Tage-Exits) mit wirtschaftlicher Sicherheit, die an Ethereum gebunden ist. In Bezug auf das Bedrohungsmodell könnte Hyperlanes ursprünglicher Multisig-Ansatz angegriffen werden, wenn genügend Schlüssel von Validatoren kompromittiert werden (wie bei jeder Multisig-Brücke). Hyperlane hatte einen früheren Sicherheitsvorfall: Im August 2022, während eines frühen Testnetzes oder Starts, gab es einen Exploit, bei dem ein Angreifer den Deployer-Schlüssel einer Hyperlane-Token-Brücke auf einer Chain kapern und Token prägen konnte (Verlust von etwa 700.000 US-Dollar). Dies war kein Versagen des Multisigs selbst, sondern der operativen Sicherheit bei der Bereitstellung – es verdeutlichte die Risiken von Upgradefähigkeit und Schlüsselmanagement. Das Team erstattete Verluste und verbesserte Prozesse. Dies unterstreicht, dass Governance-Schlüssel Teil des Bedrohungsmodells sind – die Sicherung der Admin-Kontrollen ist ebenso wichtig wie die Validatoren. Mit AVS verschiebt sich das Bedrohungsmodell in einen EigenLayer-Kontext: Wenn jemand ein falsches Slashing verursachen oder trotz Fehlverhaltens ein Slashing vermeiden könnte, wäre das ein Problem; aber EigenLayers Protokoll handhabt die Slashing-Logik auf Ethereum, die robust ist, vorausgesetzt, die Betrugs-Proofs werden korrekt eingereicht. Hyperlanes aktuelle Akzeptanz wächst im Rollup-Bereich und bei einigen App-spezifischen Chains. Es mag noch nicht die Milliarden-Dollar-Flüsse einiger Konkurrenten verarbeiten, aber es erobert eine Nische, in der Entwickler volle Kontrolle und einfache Erweiterbarkeit wünschen. Das modulare ISM-Design bedeutet, dass wir kreative Sicherheits-Setups sehen könnten: z. B. könnte eine DAO nicht nur Hyperlane-Signaturen, sondern auch einen Time-Lock oder eine zweite Brückensignatur für jede Admin-Nachricht usw. verlangen. Hyperlanes genehmigungsloses Ethos (jeder kann einen Validator betreiben oder auf einer neuen Chain bereitstellen) könnte sich langfristig als mächtig erweisen, aber es bedeutet auch, dass das Ökosystem reifen muss (z. B. mehr Drittanbieter-Validatoren, die sich dem Standard-Satz anschließen, um ihn zu dezentralisieren; Stand 2025 ist unklar, wie dezentral der aktive Validator-Satz in der Praxis ist). Insgesamt ist Hyperlanes Trajektorie eine der Verbesserung der Sicherheit (mit Restaking) und Benutzerfreundlichkeit, aber es muss Widerstandsfähigkeit demonstrieren und große Liquidität anziehen, um das gleiche Maß an Community-Vertrauen wie IBC oder sogar LayerZero zu gewinnen.

  • IBC 3.0 und Cosmos Interop in Produktion: IBC ist seit 2021 live und im Cosmos-Ökosystem extrem kampferprobt. Bis 2025 verbindet es über 115 Zonen (einschließlich Cosmos Hub, Osmosis, Juno, Cronos, Axelar, Kujira usw.) mit Millionen von Transaktionen pro Monat und Multi-Milliarden-Dollar-Token-Flüssen. Es hatte beeindruckenderweise keine größeren Sicherheitsausfälle auf Protokollebene. Es gab einen bemerkenswerten IBC-bezogenen Vorfall: Im Oktober 2022 wurde eine kritische Schwachstelle im IBC-Code (die alle v2.0-Implementierungen betraf) entdeckt, die es einem Angreifer ermöglicht hätte, Wert von vielen IBC-verbundenen Chains abzuziehen. Sie wurde jedoch heimlich über koordinierte Upgrades behoben, bevor sie öffentlich bekannt gegeben wurde, und es kam zu keinem Exploit. Dies war ein Weckruf, dass selbst formal verifizierte Protokolle Fehler haben können. Seitdem wurde IBC weiter auditiert und gehärtet. Das Bedrohungsmodell für IBC betrifft hauptsächlich die Chain-Sicherheit: Wenn eine verbundene Chain feindselig ist oder einen 51%-Angriff erleidet, könnte sie versuchen, ungültige Daten an den Light Client eines Gegenübers zu senden. Minderungsmaßnahmen umfassen die Verwendung von Governance, um Verbindungen zu unsicheren Chains zu stoppen oder zu schließen (die Cosmos Hub Governance kann beispielsweise abstimmen, Client-Updates für eine bestimmte Chain abzuschalten, wenn sie als fehlerhaft erkannt wird). Außerdem haben IBC-Clients oft eine Angleichung der Unbonding-Periode oder Vertrauensperiode – z. B. akzeptiert ein Tendermint Light Client kein Validator-Satz-Update, das älter ist als die Unbonding-Periode (um Long-Range-Angriffe zu verhindern). Ein weiteres mögliches Problem ist die Relayer-Zensur – wenn kein Relayer Pakete zustellt, könnten Gelder in Timeouts stecken bleiben; aber da das Relaying genehmigungslos und oft incentiviert ist, ist dies typischerweise vorübergehend. Mit den Interchain Queries und neuen Funktionen von IBC 3.0 sehen wir eine Akzeptanz in Dingen wie Cross-Chain-DeX-Aggregatoren (z. B. Skip Protocol, das ICQ verwendet, um Preisdaten über Chains hinweg zu sammeln) und Cross-Chain-Governance (z. B. Cosmos Hub, das Interchain-Accounts verwendet, um Neutron, eine Consumer-Chain, zu verwalten). Die Adoption über Cosmos hinaus ist ebenfalls eine Geschichte: Projekte wie Polymer und Astria (ein Interop-Hub für Rollups) bringen IBC effektiv über ein Hub/Spoke-Modell zu Ethereum-Rollups, und Polkadots Parachains haben IBC erfolgreich genutzt, um sich mit Cosmos-Chains zu verbinden (z. B. die Centauri-Brücke zwischen Cosmos und Polkadot, gebaut von Composable Finance, verwendet IBC im Hintergrund mit einem GRANDPA-Light-Client auf der Cosmos-Seite). Es gibt sogar eine IBC-Solidity-Implementierung, die von Polymer und DataChain in Arbeit ist und es Ethereum-Smart-Contracts ermöglichen würde, IBC-Pakete zu verifizieren (unter Verwendung eines Light Clients oder von Validity Proofs). Wenn diese Bemühungen erfolgreich sind, könnte dies die Nutzung von IBC über Cosmos hinaus dramatisch erweitern und sein vertrauensminimiertes Modell in direkten Wettbewerb mit den stärker zentralisierten Brücken auf diesen Chains bringen. In Bezug auf die geteilte Liquidität war Cosmos' größte Einschränkung das Fehlen eines nativen Stablecoins oder einer tiefen Liquiditäts-DEX auf Augenhöhe mit Ethereum – das ändert sich mit dem Aufkommen von Cosmos-nativen Stablecoins (wie IST, CMST) und der Verbindung von Assets wie USDC (Axelar und Gravity Bridge brachten USDC, und jetzt startet Circle native USDC auf Cosmos über Noble). Wenn die Liquidität tiefer wird, könnte die Kombination aus hoher Sicherheit und nahtlosen IBC-Transfers Cosmos zu einem Knotenpunkt für den Multi-Chain-DeFi-Handel machen – tatsächlich stellte der Blockchain Capital-Bericht fest, dass IBC Anfang 2024 bereits mehr Volumen als LayerZero oder Wormhole abwickelte, wenn auch hauptsächlich aufgrund des Cosmos-zu-Cosmos-Verkehrs (was auf eine sehr aktive Interchain-Wirtschaft hindeutet). Zukünftig besteht die größte Herausforderung und Chance von IBC darin, auf heterogene Chains zu expandieren, ohne sein Sicherheits-Ethos zu opfern.

Zusammenfassend lässt sich sagen, dass jedes Protokoll Fortschritte macht: LayerZero integriert sich schnell in viele Chains und Anwendungen, priorisiert Flexibilität und Entwicklerakzeptanz und mindert Risiken, indem es Apps ermöglicht, Teil ihrer eigenen Sicherheit zu sein. Hyperlane innoviert mit Restaking und Modularität, um der einfachste Weg zu sein, neue Chains mit konfigurierbarer Sicherheit zu verbinden, obwohl es noch Vertrauen und Nutzung aufbauen muss. IBC ist der Goldstandard in Bezug auf Vertrauenslosigkeit in seinem Bereich, entwickelt sich nun schneller (IBC 3.0) und hofft, seinen Bereich über Cosmos hinaus auszudehnen, gestützt durch eine starke Erfolgsbilanz. Benutzer und Projekte tun gut daran, die Reife und Sicherheitsvorfälle jedes Protokolls zu berücksichtigen: IBC hat Jahre stabilen Betriebs (und enormes Volumen), ist aber auf bestimmte Ökosysteme beschränkt; LayerZero hat schnell an Nutzung gewonnen, erfordert aber das Verständnis benutzerdefinierter Sicherheitseinstellungen; Hyperlane ist in der Ausführung neuer, aber vielversprechend in seiner Vision, mit sorgfältigen Schritten in Richtung wirtschaftlicher Sicherheit.

Fazit und Ausblick: Interoperabilitätsarchitektur für die Multi-Chain-Zukunft

Die langfristige Lebensfähigkeit und Interoperabilität der Multi-Chain-DeFi-Landschaft wird wahrscheinlich durch das Nebeneinander und sogar die Ergänzung aller drei Sicherheitsmodelle geprägt sein. Jeder Ansatz hat klare Stärken, und anstatt einer Einheitslösung könnten wir einen Stack sehen, bei dem das Light-Client-Modell (IBC) die höchste Zusicherungsgrundlage für Schlüsselrouten (insbesondere zwischen großen Chains) bietet, während Proof-aggregierte Systeme (LayerZero) universelle Konnektivität mit anpassbarem Vertrauen bereitstellen und Multisig-Modelle (Hyperlane und andere) Nischenbedürfnisse bedienen oder neue Ökosysteme schnell bootstrappen.

Kompromiss zwischen Sicherheit und Konnektivität: Light Clients wie IBC bieten das, was einem „Blockchain-Internet“ am nächsten kommt – eine neutrale, standardisierte Transportschicht, ähnlich wie TCP/IP. Sie stellen sicher, dass Interoperabilität keine neuen Schwachstellen einführt, was für die langfristige Nachhaltigkeit entscheidend ist. Sie erfordern jedoch eine breite Einigung über Standards und erhebliche technische Anstrengungen pro Chain, was die Geschwindigkeit, mit der neue Verbindungen hergestellt werden können, verlangsamt. LayerZero und Hyperlane hingegen priorisieren sofortige Konnektivität und Flexibilität und erkennen an, dass nicht jede Chain dasselbe Protokoll implementieren wird. Sie zielen darauf ab, „beliebig zu beliebig“ zu verbinden, auch wenn dies bedeutet, vorübergehend etwas mehr Vertrauen zu akzeptieren. Im Laufe der Zeit können wir erwarten, dass sich die Lücke schließt: LayerZero kann vertrauensminimiertere DVNs integrieren (sogar IBC selbst könnte in ein DVN eingewickelt werden), und Hyperlane kann wirtschaftliche Mechanismen nutzen, um die Sicherheit der nativen Verifizierung zu erreichen. Tatsächlich sieht das Polymer-Projekt vor, dass IBC und LayerZero keine Konkurrenten sein müssen, sondern geschichtet werden können – zum Beispiel könnte LayerZero einen IBC Light Client als eines seiner DVNs verwenden, wenn verfügbar. Eine solche gegenseitige Befruchtung ist wahrscheinlich, wenn der Bereich reift.

Komponierbarkeit und vereinheitlichte Liquidität: Aus der Sicht eines DeFi-Benutzers ist das ultimative Ziel, dass Liquidität Chain-agnostisch wird. Wir sehen bereits Schritte: Mit Omnichain-Token (OFTs) müssen Sie sich keine Sorgen machen, auf welcher Chain Ihre Token-Version ist, und mit Cross-Chain-Geldmärkten können Sie auf jeder Chain gegen Kollateral auf einer anderen leihen. Die architektonischen Entscheidungen beeinflussen direkt das Vertrauen der Benutzer in diese Systeme. Wenn ein Brücken-Hack auftritt (wie es historisch bei einigen Multisig-Brücken der Fall war), bricht dies das Vertrauen und damit die Liquidität – Benutzer ziehen sich an sicherere Orte zurück oder verlangen Risikoprämien. Daher werden Protokolle, die konsequent Sicherheit demonstrieren, die größten Liquiditätspools untermauern. Cosmos' Interchain Security und IBC haben einen Weg gezeigt: Mehrere Orderbücher und AMMs über Zonen hinweg bilden im Wesentlichen einen großen Markt, weil Transfers vertrauenslos und schnell sind. LayerZeros Stargate zeigte einen anderen: Ein vereinheitlichter Liquiditätspool kann die Transfers vieler Chains bedienen, aber es erforderte, dass Benutzer LayerZeros Sicherheitsannahme (Oracle+Relayer oder DVNs) vertrauen. Da LayerZero v2 jedem Pool ermöglicht, noch höhere Sicherheit einzustellen (z. B. die Verwendung mehrerer großer Validator-Netzwerke zur Verifizierung jedes Transfers), reduziert es die Vertrauenslücke. Die langfristige Lebensfähigkeit von Multi-Chain-DeFi hängt wahrscheinlich davon ab, dass Interoperabilitätsprotokolle unsichtbar und dennoch zuverlässig sind – ähnlich wie Internetnutzer nicht über TCP/IP nachdenken, sollten Krypto-Nutzer sich keine Sorgen machen müssen, welche Brücke oder welches Messaging-System eine dApp verwendet. Das wird geschehen, wenn Sicherheitsmodelle robust genug sind, dass Ausfälle äußerst selten sind und wenn es eine gewisse Konvergenz oder Komponierbarkeit zwischen diesen Interoperabilitätsnetzwerken gibt.

Interoperabilität der Interoperabilität: Es ist denkbar, dass wir in einigen Jahren nicht mehr von LayerZero vs. Hyperlane vs. IBC als getrennten Bereichen sprechen werden, sondern von einem geschichteten System. Zum Beispiel könnte ein Ethereum-Rollup über Polymer eine IBC-Verbindung zu einem Cosmos-Hub haben, und dieser Cosmos-Hub könnte auch einen LayerZero-Endpoint haben, der es ermöglicht, Nachrichten vom Rollup über einen sicheren IBC-Kanal in LayerZeros Netzwerk zu übertragen. Hyperlane könnte sogar als Fallback oder Aggregation fungieren: Eine App könnte sowohl einen IBC-Proof als auch eine Hyperlane AVS-Signatur für ultimative Sicherheit verlangen. Diese Art der Aggregation von Sicherheit über Protokolle hinweg könnte selbst die fortschrittlichsten Bedrohungsmodelle adressieren (es ist viel schwieriger, gleichzeitig einen IBC Light Client und eine unabhängige Restaked-Multisig usw. zu untergraben). Solche Kombinationen würden natürlich Komplexität und Kosten erhöhen, sodass sie für hochwertige Kontexte reserviert wären.

Governance und Dezentralisierung: Jedes Modell legt unterschiedliche Macht in die Hände verschiedener Akteure – IBC in die Hände der Chain-Governance, LayerZero in die Hände der App-Entwickler (und indirekt der von ihnen gewählten DVN-Betreiber) und Hyperlane in die Hände der Brücken-Validatoren und möglicherweise Restaker. Die langfristige interoperable Landschaft muss sicherstellen, dass keine einzelne Partei oder kein Kartell Cross-Chain-Transaktionen dominieren kann. Dies ist ein Risiko, zum Beispiel wenn ein Protokoll allgegenwärtig wird, aber von einer kleinen Gruppe von Akteuren kontrolliert wird; es könnte zu einem Engpass werden (analog zu zentralisierten Internetdienstanbietern). Der Weg, dies zu mindern, besteht darin, die Messaging-Netzwerke selbst zu dezentralisieren (mehr Relayer, mehr DVNs, mehr Validatoren – alle genehmigungslos beizutreten) und alternative Pfade zu haben. In dieser Hinsicht hat IBC den Vorteil, ein offener Standard mit vielen unabhängigen Teams zu sein, und LayerZero und Hyperlane bewegen sich beide darauf zu, die Beteiligung Dritter zu erhöhen (z. B. kann jeder ein LayerZero DVN oder einen Hyperlane Validator betreiben). Es ist wahrscheinlich, dass Wettbewerb und offene Beteiligung diese Dienste ehrlich halten werden, ähnlich wie Miner/Validatoren in L1s die Basisschicht dezentral halten. Der Markt wird auch mit den Füßen abstimmen: Wenn sich eine Lösung als unsicher oder zu zentralisiert erweist, können Entwickler zu einer anderen migrieren (insbesondere wenn Brückenstandards selbst interoperabler werden).

Zusammenfassend lässt sich sagen, dass die Sicherheitsarchitekturen von LayerZero v2, Hyperlane und IBC 3.0 jeweils dazu beitragen, die Vision von Multi-Chain-DeFi Wirklichkeit werden zu lassen, jedoch mit unterschiedlichen Philosophien. Light Clients priorisieren Vertrauenslosigkeit und Neutralität, Multisigs priorisieren Pragmatismus und einfache Integration, und aggregierte Ansätze priorisieren Anpassung und Adaptierbarkeit. Die Multi-Chain-DeFi-Landschaft der Zukunft wird wahrscheinlich eine Kombination dieser nutzen: kritische Infrastruktur und hochwertige Transfers, die durch vertrauensminimierte oder wirtschaftlich gesicherte Methoden gesichert sind, und flexible Middleware, um sich mit der langen Reihe neuer Chains und Apps zu verbinden. Mit diesen Elementen werden Benutzer vereinheitlichte Liquidität und Cross-Chain-Komponierbarkeit mit der gleichen Zuversicht und Leichtigkeit genießen, als würden sie eine einzige Chain verwenden. Der Weg nach vorne ist einer der Konvergenz – nicht unbedingt der Protokolle selbst, sondern der Ergebnisse: eine Welt, in der Interoperabilität sicher, nahtlos und Standard ist. Dies zu erreichen, erfordert weiterhin rigorose Ingenieursarbeit (um Exploits zu vermeiden), kollaborative Governance (um Standards wie IBC oder universelle Vertragsschnittstellen festzulegen) und vielleicht am wichtigsten, einen iterativen Sicherheitsansatz, der das Beste aus allen Welten vereint: Mathematik, wirtschaftliche Anreize und intelligentes Design. Der Endzustand könnte die oft zitierte Analogie wirklich erfüllen: Blockchains, die wie Netzwerke im Internet miteinander verbunden sind, wobei Protokolle wie LayerZero, Hyperlane und IBC die Omnichain-Autobahn bilden, auf der DeFi auf absehbare Zeit fahren wird.

Quellen:

  • LayerZero v2 Architektur und DVN-Sicherheit – LayerZero V2 Deep Dive; Flare x LayerZero V2 announcement
  • Hyperlane Multisig und modulares ISM – Hyperlane Docs: Validators; Tiger Research on Hyperlane; Hyperlane restaking (AVS) announcement
  • IBC 3.0 Light Clients und Funktionen – IBC Protocol Overview; 3Commas Cosmos 2025 (IBC 3.0)
  • Vergleich der Vertrauensannahmen – Nosleepjohn (Hyperlane) on bridge tradeoffs; IBC vs bridges (Polymer blog)
  • DeFi-Beispiele (Stargate, ICA, etc.) – Flare blog on LayerZero (Stargate volume); IBC use cases (Stride liquid staking); LayerZero Medium (OFT and OApp standards); Hyperlane use cases
  • Adoption und Statistiken – Flare x LayerZero (cross-chain messages, volume); Range.org on IBC volume; Blockchain Capital on IBC vs bridges; LayerZero blog (15+ DVNs); IBC testimonials (Osmosis, etc.).

Das Kopieren-Einfügen-Verbrechen: Wie eine einfache Gewohnheit Millionen aus Krypto-Wallets abzieht

· 5 Minuten Lesezeit
Dora Noda
Software Engineer

Wenn Sie Krypto senden, wie sieht Ihre Routine aus? Für die meisten von uns beinhaltet sie das Kopieren der Empfängeradresse aus unserer Transaktionshistorie. Schließlich kann sich niemand eine 40-stellige Zeichenfolge wie 0x1A2b...8f9E merken. Es ist eine bequeme Abkürzung, die wir alle nutzen.

Doch was, wenn diese Bequemlichkeit eine sorgfältig ausgelegte Falle ist?

Ein verheerend effektiver Betrug namens Blockchain-Adressvergiftung nutzt genau diese Gewohnheit aus. Jüngste Forschungen der Carnegie Mellon University haben das schockierende Ausmaß dieser Bedrohung aufgedeckt. Allein in zwei Jahren haben Betrüger auf den Netzwerken Ethereum und Binance Smart Chain (BSC) über 270 Millionen Angriffsversuche unternommen, 17 Millionen Opfer ins Visier genommen und erfolgreich mindestens 83,8 Millionen US-Dollar gestohlen.

Dies ist keine Nischenbedrohung; es ist eine der größten und erfolgreichsten Krypto-Phishing-Maschen, die heute aktiv sind. So funktioniert dieser Betrug und das können Sie tun, um sich zu schützen.


So funktioniert die Täuschung 🤔

Adressvergiftung ist ein Spiel der visuellen Täuschung. Die Strategie des Angreifers ist einfach, aber brillant:

  1. Eine ähnlich aussehende Adresse generieren: Der Angreifer identifiziert eine häufig von Ihnen verwendete Adresse, an die Sie Gelder senden. Anschließend nutzen sie leistungsstarke Computer, um eine neue Krypto-Adresse zu generieren, die die exakt gleichen Start- und Endzeichen aufweist. Da die meisten Wallets und Block-Explorer Adressen zur Anzeige kürzen (z. B. 0x1A2b...8f9E), sieht ihre betrügerische Adresse auf den ersten Blick identisch mit der echten aus.

  2. Ihre Transaktionshistorie „vergiften“: Als Nächstes muss der Angreifer seine ähnlich aussehende Adresse in die Historie Ihrer Wallet bringen. Dies geschieht, indem er eine „Gift“-Transaktion sendet. Dies kann sein:

    • Eine winzige Überweisung: Sie senden Ihnen einen winzigen Betrag Krypto (z. B. 0,001 US-Dollar) von ihrer ähnlich aussehenden Adresse. Diese erscheint nun in Ihrer Liste der letzten Transaktionen.
    • Eine Nullwert-Überweisung: In einem raffinierteren Schachzug nutzen sie eine Funktion in vielen Token-Kontrakten aus, um eine gefälschte Überweisung ohne Wert zu erstellen, die so aussieht, als käme sie von Ihnen an ihre ähnlich aussehende Adresse. Dies lässt die gefälschte Adresse noch legitimer erscheinen, da es so aussieht, als hätten Sie bereits zuvor Gelder dorthin gesendet.
    • Eine gefälschte Token-Überweisung: Sie erstellen einen wertlosen, gefälschten Token (z. B. „USDTT“ anstelle von USDT) und fälschen eine Transaktion an ihre ähnlich aussehende Adresse, oft indem sie den Betrag einer früheren echten Transaktion nachahmen, die Sie getätigt haben.
  3. Auf den Fehler warten: Die Falle ist nun gestellt. Wenn Sie das nächste Mal einen legitimen Kontakt bezahlen möchten, durchsuchen Sie Ihre Transaktionshistorie, sehen die Adresse, die Sie für die richtige halten, kopieren sie und klicken auf Senden. Bis Sie Ihren Fehler bemerken, sind die Gelder verschwunden. Und dank der Unumkehrbarkeit der Blockchain gibt es keine Bank, die Sie anrufen könnten, und keine Möglichkeit, sie zurückzubekommen.


Ein Einblick in ein kriminelles Unternehmen 🕵️‍♂️

Dies ist nicht das Werk einzelner Hacker. Die Forschung zeigt, dass diese Angriffe von großen, organisierten und hochprofitablen kriminellen Gruppen durchgeführt werden.

Wen sie ins Visier nehmen

Angreifer verschwenden ihre Zeit nicht mit kleinen Konten. Sie zielen systematisch auf Nutzer ab, die:

  • Vermögend sind: Erhebliche Guthaben in Stablecoins halten.
  • Aktiv sind: Häufige Transaktionen durchführen.
  • Hochwertige Transaktionen durchführen: Große Geldsummen bewegen.

Ein Hardware-Wettrüsten

Das Generieren einer ähnlich aussehenden Adresse ist eine Brute-Force-Rechenaufgabe. Je mehr Zeichen Sie abgleichen möchten, desto exponentiell schwieriger wird es. Forscher fanden heraus, dass die meisten Angreifer Standard-CPUs verwenden, um mäßig überzeugende Fälschungen zu erstellen, die raffinierteste kriminelle Gruppe es jedoch auf eine andere Ebene gebracht hat.

Dieser Top-Tier-Gruppe ist es gelungen, Adressen zu generieren, die bis zu 20 Zeichen einer Zieladresse abgleichen. Diese Leistung ist mit Standardcomputern nahezu unmöglich, was die Forscher zu dem Schluss führt, dass sie massive GPU-Farmen verwenden – die gleiche Art von leistungsstarker Hardware, die für High-End-Gaming oder KI-Forschung eingesetzt wird. Dies zeigt eine erhebliche finanzielle Investition, die sie leicht von ihren Opfern zurückgewinnen. Diese organisierten Gruppen betreiben ein Geschäft, und das Geschäft boomt leider.


So schützen Sie Ihre Gelder 🛡️

Obwohl die Bedrohung raffiniert ist, sind die Abwehrmaßnahmen unkompliziert. Es geht darum, schlechte Gewohnheiten abzulegen und eine wachsamere Denkweise anzunehmen.

  1. Für jeden Nutzer (Dies ist der wichtigste Teil):

    • ÜBERPRÜFEN SIE DIE VOLLSTÄNDIGE ADRESSE. Bevor Sie auf „Bestätigen“ klicken, nehmen Sie sich fünf zusätzliche Sekunden Zeit, um die gesamte Adresse manuell Zeichen für Zeichen zu überprüfen. Werfen Sie nicht nur einen Blick auf die ersten und letzten Ziffern.
    • VERWENDEN SIE EIN ADRESSBUCH. Speichern Sie vertrauenswürdige, verifizierte Adressen im Adressbuch oder in der Kontaktliste Ihrer Wallet. Wählen Sie beim Senden von Geldern den Empfänger immer aus dieser gespeicherten Liste aus, nicht aus Ihrer dynamischen Transaktionshistorie.
    • SENDEN SIE EINE TESTTRANSAKTION. Senden Sie bei großen oder wichtigen Zahlungen zuerst einen winzigen Betrag. Bestätigen Sie mit dem Empfänger, dass er ihn erhalten hat, bevor Sie den vollen Betrag senden.
  2. Ein Aufruf für bessere Wallets:

    • Wallet-Entwickler können helfen, indem sie die Benutzeroberflächen verbessern. Dazu gehört, standardmäßig mehr von der Adresse anzuzeigen oder starke, explizite Warnungen hinzuzufügen, wenn ein Nutzer im Begriff ist, Gelder an eine Adresse zu senden, mit der er nur über eine winzige oder Nullwert-Überweisung interagiert hat.
  3. Die langfristige Lösung:

    • Systeme wie der Ethereum Name Service (ENS), die es Ihnen ermöglichen, einen menschenlesbaren Namen wie ihrname.eth Ihrer Adresse zuzuordnen, können dieses Problem vollständig beseitigen. Eine breitere Akzeptanz ist entscheidend.

In der dezentralen Welt sind Sie Ihre eigene Bank, was auch bedeutet, dass Sie Ihr eigener Sicherheitschef sind. Adressvergiftung ist eine stille, aber mächtige Bedrohung, die Bequemlichkeit und Unaufmerksamkeit ausnutzt. Indem Sie bewusst vorgehen und Ihre Arbeit doppelt überprüfen, können Sie sicherstellen, dass Ihre hart verdienten Vermögenswerte nicht in der Falle eines Betrügers landen.

Ethereums Anonymitätsmythos: Wie Forscher 15 % der Validatoren enttarnten

· 6 Minuten Lesezeit
Dora Noda
Software Engineer

Eines der Kernversprechen der Blockchain-Technologie wie Ethereum ist ein gewisses Maß an Anonymität. Teilnehmer, bekannt als Validatoren, sollen hinter einem Schleier kryptografischer Pseudonyme agieren, um ihre reale Identität und damit ihre Sicherheit zu schützen.

Eine aktuelle Forschungsarbeit mit dem Titel „Deanonymizing Ethereum Validators: The P2P Network Has a Privacy Issue“ von Forschern der ETH Zürich und anderer Institutionen enthüllt jedoch einen kritischen Fehler in dieser Annahme. Sie demonstrieren eine einfache, kostengünstige Methode, um den öffentlichen Bezeichner eines Validators direkt mit der IP-Adresse der Maschine zu verknüpfen, auf der er läuft.

Kurz gesagt, Ethereum-Validatoren sind bei weitem nicht so anonym, wie viele glauben. Die Ergebnisse waren so bedeutend, dass die Forscher von der Ethereum Foundation eine Bug Bounty erhielten, was die Schwere des Datenlecks anerkannte.

Wie die Schwachstelle funktioniert: Ein Fehler im Gossip

Um die Schwachstelle zu verstehen, benötigen wir zunächst ein grundlegendes Bild davon, wie Ethereum-Validatoren kommunizieren. Das Netzwerk besteht aus über einer Million Validatoren, die ständig über den Zustand der Kette „abstimmen“. Diese Abstimmungen werden als Attestierungen bezeichnet und über ein Peer-to-Peer-Netzwerk (P2PP2P-Netzwerk) an alle anderen Knoten übertragen.

Bei so vielen Validatoren würde die Übertragung jeder Abstimmung an alle anderen das Netzwerk sofort überlasten. Um dies zu lösen, implementierten die Designer von Ethereum eine clevere Skalierungslösung: Das Netzwerk ist in 64 verschiedene Kommunikationskanäle, bekannt als Subnetze, unterteilt.

  • Standardmäßig abonniert jeder Knoten (der Computer, auf dem die Validator-Software läuft) nur zwei dieser 64 Subnetze. Seine Hauptaufgabe ist es, alle Nachrichten, die er auf diesen beiden Kanälen sieht, gewissenhaft weiterzuleiten.
  • Wenn ein Validator eine Abstimmung abgeben muss, wird seine Attestierung zufällig einem der 64 Subnetze zur Übertragung zugewiesen.

Hier liegt die Schwachstelle. Stellen Sie sich einen Knoten vor, dessen Aufgabe es ist, den Datenverkehr für die Kanäle 12 und 13 zu verwalten. Den ganzen Tag leitet er treu Nachrichten nur von diesen beiden Kanälen weiter. Doch dann sendet er Ihnen plötzlich eine Nachricht, die zu Kanal 45 gehört.

Das ist ein starker Hinweis. Warum sollte ein Knoten eine Nachricht von einem Kanal verarbeiten, für den er nicht zuständig ist? Die logischste Schlussfolgerung ist, dass der Knoten selbst diese Nachricht generiert hat. Dies impliziert, dass der Validator, der die Attestierung für Kanal 45 erstellt hat, auf genau dieser Maschine läuft.

Die Forscher nutzten genau dieses Prinzip aus. Indem sie eigene Abhörknoten einrichteten, überwachten sie die Subnetze, von denen ihre Peers Attestierungen sendeten. Wenn ein Peer eine Nachricht von einem Subnetz sendete, das er nicht offiziell abonniert hatte, konnten sie mit hoher Sicherheit ableiten, dass der Peer den ursprünglichen Validator hostete.

Die Methode erwies sich als schockierend effektiv. Mit nur vier Knoten über drei Tage lokalisierte das Team erfolgreich die IP-Adressen von über 161.000 Validatoren, was mehr als 15 % des gesamten Ethereum-Netzwerks entspricht.

Warum das wichtig ist: Die Risiken der Enttarnung

Die Preisgabe der IP-Adresse eines Validators ist keine triviale Angelegenheit. Sie öffnet die Tür für gezielte Angriffe, die einzelne Betreiber und die Gesundheit des Ethereum-Netzwerks insgesamt bedrohen.

1. Gezielte Angriffe und Belohnungsdiebstahl Ethereum kündigt einige Minuten im Voraus an, welcher Validator den nächsten Block vorschlagen soll. Ein Angreifer, der die IP-Adresse dieses Validators kennt, kann einen Denial-of-Service (DDoS)-Angriff starten, ihn mit Datenverkehr überfluten und offline schalten. Wenn der Validator sein Vier-Sekunden-Fenster zum Vorschlagen des Blocks verpasst, geht die Gelegenheit an den nächsten Validator in der Reihe über. Wenn der Angreifer dieser nächste Validator ist, kann er dann die Blockbelohnungen und wertvollen Transaktionsgebühren (MEV) beanspruchen, die dem Opfer zugestanden hätten.

2. Bedrohungen der Netzwerk-Verfügbarkeit und -Sicherheit Ein gut ausgestatteter Angreifer könnte diese „Sniping“-Angriffe wiederholt durchführen, wodurch die gesamte Blockchain verlangsamt oder zum Stillstand gebracht werden könnte (ein Liveness-Angriff oder Verfügbarkeitsangriff). In einem schwerwiegenderen Szenario könnte ein Angreifer diese Informationen nutzen, um ausgeklügelte Netzwerk-Partitionierungsangriffe zu starten, die potenziell dazu führen könnten, dass verschiedene Teile des Netzwerks über die Historie der Kette uneinig sind und somit deren Integrität gefährdet wird (ein Safety-Angriff oder Sicherheitsangriff).

3. Eine zentralisierte Realität enthüllen Die Forschung beleuchtete auch einige unbequeme Wahrheiten über die Dezentralisierung des Netzwerks:

  • Extreme Konzentration: Das Team fand Peers, die eine erstaunliche Anzahl von Validatoren hosteten, darunter eine IP-Adresse, die über 19.000 betrieb. Der Ausfall einer einzelnen Maschine könnte einen überproportionalen Einfluss auf das Netzwerk haben.
  • Abhängigkeit von Cloud-Diensten: Rund 90 % der lokalisierten Validatoren laufen auf Cloud-Anbietern wie AWS und Hetzner, nicht auf den Computern von Solo-Home-Stakern. Dies stellt einen erheblichen Zentralisierungspunkt dar.
  • Versteckte Abhängigkeiten: Viele große Staking-Pools behaupten, ihre Betreiber seien unabhängig. Die Forschung fand jedoch Fälle, in denen Validatoren aus verschiedenen, konkurrierenden Pools auf derselben physischen Maschine liefen, was versteckte systemische Risiken birgt.

Gegenmaßnahmen: Wie können sich Validatoren schützen?

Glücklicherweise gibt es Möglichkeiten, sich gegen diese Enttarnungstechnik zu verteidigen. Die Forscher schlugen mehrere Gegenmaßnahmen vor:

  • Mehr Rauschen erzeugen: Ein Validator kann sich entscheiden, mehr als zwei Subnetze – oder sogar alle 64 – zu abonnieren. Dies erschwert es einem Beobachter erheblich, zwischen weitergeleiteten und selbst generierten Nachrichten zu unterscheiden.
  • Mehrere Knoten verwenden: Ein Betreiber kann die Validator-Aufgaben auf verschiedene Maschinen mit unterschiedlichen IPs aufteilen. Zum Beispiel könnte ein Knoten Attestierungen verwalten, während ein separater, privater Knoten nur zum Vorschlagen von Blöcken mit hohem Wert verwendet wird.
  • Privates Peering: Validatoren können vertrauenswürdige, private Verbindungen mit anderen Knoten herstellen, um ihre Nachrichten weiterzuleiten und so ihren wahren Ursprung innerhalb einer kleinen, vertrauenswürdigen Gruppe zu verschleiern.
  • Anonyme Broadcasting-Protokolle: Fortgeschrittenere Lösungen wie Dandelion, das den Ursprung einer Nachricht verschleiert, indem es sie über einen zufälligen „Stamm“ leitet, bevor sie weit verbreitet wird, könnten implementiert werden.

Fazit

Diese Forschung veranschaulicht eindringlich den inhärenten Kompromiss zwischen Leistung und Datenschutz in verteilten Systemen. In seinem Bestreben zu skalieren, hat Ethereums P2PP2P-Netzwerk ein Design angenommen, das die Anonymität seiner kritischsten Teilnehmer beeinträchtigt.

Indem die Forscher diese Schwachstelle ans Licht brachten, haben sie der Ethereum-Community das Wissen und die Werkzeuge an die Hand gegeben, die zur Behebung erforderlich sind. Ihre Arbeit ist ein entscheidender Schritt zum Aufbau eines robusteren, sichereren und wirklich dezentralen Netzwerks für die Zukunft.

Sichere Bereitstellung mit Docker Compose + Ubuntu

· 6 Minuten Lesezeit

In Startups im Silicon Valley ist Docker Compose eines der bevorzugten Tools für die schnelle Bereitstellung und Verwaltung containerisierter Anwendungen. Bequemlichkeit geht jedoch oft mit Sicherheitsrisiken einher. Als Site Reliability Engineer (SRE) bin ich mir bewusst, dass Sicherheitslücken zu katastrophalen Folgen führen können. Dieser Artikel teilt die besten Sicherheitspraktiken, die ich in meiner tatsächlichen Arbeit bei der Kombination von Docker Compose mit Ubuntu-Systemen zusammengefasst habe, um Ihnen zu helfen, die Vorteile von Docker Compose zu nutzen und gleichzeitig die Systemsicherheit zu gewährleisten.

Sichere Bereitstellung mit Docker Compose + Ubuntu

I. Härtung der Ubuntu-Systemsicherheit

Vor der Bereitstellung von Containern ist es entscheidend, die Sicherheit des Ubuntu-Hosts selbst zu gewährleisten. Hier sind einige wichtige Schritte:

1. Ubuntu und Docker regelmäßig aktualisieren

Stellen Sie sicher, dass sowohl das System als auch Docker auf dem neuesten Stand gehalten werden, um bekannte Schwachstellen zu beheben:

sudo apt update && sudo apt upgrade -y
sudo apt install docker-ce docker-compose-plugin

2. Docker-Verwaltungsberechtigungen einschränken

Kontrollieren Sie die Docker-Verwaltungsberechtigungen streng, um Privilege-Escalation-Angriffe zu verhindern:

sudo usermod -aG docker deployuser
# Verhindert, dass normale Benutzer leicht Docker-Verwaltungsberechtigungen erhalten

3. Ubuntu-Firewall (UFW) konfigurieren

Beschränken Sie den Netzwerkzugriff angemessen, um unbefugten Zugriff zu verhindern:

sudo ufw allow OpenSSH
sudo ufw allow 80/tcp
sudo ufw allow 443/tcp
sudo ufw enable
sudo ufw status verbose

4. Docker- und UFW-Interaktion korrekt konfigurieren

Standardmäßig umgeht Docker UFW, um iptables zu konfigurieren, daher wird eine manuelle Steuerung empfohlen:

Die Docker-Konfigurationsdatei ändern:

sudo nano /etc/docker/daemon.json

Folgenden Inhalt hinzufügen:

{
"iptables": false,
"ip-forward": true,
"userland-proxy": false
}

Den Docker-Dienst neu starten:

sudo systemctl restart docker

Adressen in Docker Compose explizit binden:

services:
webapp:
ports:
- "127.0.0.1:8080:8080"

II. Docker Compose Sicherheit Best Practices

Die folgenden Konfigurationen gelten für Docker Compose v2.4 und höher. Beachten Sie die Unterschiede zwischen Nicht-Swarm- und Swarm-Modus.

1. Container-Berechtigungen einschränken

Container, die standardmäßig als Root laufen, bergen hohe Risiken; wechseln Sie zu Nicht-Root-Benutzern:

services:
app:
image: your-app:v1.2.3
user: "1000:1000" # Non-root user
read_only: true # Read-only filesystem
volumes:
- /tmp/app:/tmp # Mount specific directories if write access is needed
cap_drop:
- ALL
cap_add:
- NET_BIND_SERVICE

Erklärung:

  • Ein schreibgeschütztes Dateisystem verhindert Manipulationen innerhalb des Containers.
  • Stellen Sie sicher, dass gemountete Volumes auf die notwendigen Verzeichnisse beschränkt sind.

2. Netzwerkisolation und Port-Management

Interne und externe Netzwerke präzise aufteilen, um die Offenlegung sensibler Dienste gegenüber der Öffentlichkeit zu vermeiden:

networks:
frontend:
internal: false
backend:
internal: true

services:
nginx:
networks: [frontend, backend]
database:
networks:
- backend
  • Frontend-Netzwerk: Kann öffentlich zugänglich sein.
  • Backend-Netzwerk: Streng eingeschränkt, nur interne Kommunikation.

3. Sicheres Geheimnismanagement

Sensible Daten sollten niemals direkt in Compose-Dateien abgelegt werden:

Im Einzelmaschinenmodus:

services:
webapp:
environment:
- DB_PASSWORD_FILE=/run/secrets/db_password
volumes:
- ./secrets/db_password.txt:/run/secrets/db_password:ro

Im Swarm-Modus:

services:
webapp:
secrets:
- db_password
environment:
DB_PASSWORD_FILE: /run/secrets/db_password

secrets:
db_password:
external: true # Managed through Swarm's built-in management

Hinweis:

  • Die nativen Swarm Secrets von Docker können externe Tools wie Vault oder AWS Secrets Manager nicht direkt nutzen.
  • Wenn externer Geheimnisspeicher benötigt wird, integrieren Sie den Leseprozess selbst.

4. Ressourcenbegrenzung (An Docker Compose Version anpassen)

Container-Ressourcenlimits verhindern, dass ein einzelner Container Host-Ressourcen erschöpft.

Docker Compose Einzelmaschinenmodus (v2.4 empfohlen):

version: '2.4'

services:
api:
image: your-image:1.4.0
mem_limit: 512m
cpus: 0.5

Docker Compose Swarm-Modus (v3 und höher):

services:
api:
deploy:
resources:
limits:
cpus: "0.5"
memory: 512M
reservations:
cpus: "0.25"
memory: 256M

Hinweis: In Nicht-Swarm-Umgebungen haben die Ressourcenlimits im deploy-Abschnitt keine Wirkung, achten Sie unbedingt auf die Compose-Dateiversion.

5. Container-Health-Checks

Richten Sie Health-Checks ein, um Probleme proaktiv zu erkennen und Service-Ausfallzeiten zu reduzieren:

services:
webapp:
healthcheck:
test: ["CMD", "curl", "-f", "http://localhost/health"]
interval: 30s
timeout: 10s
retries: 3
start_period: 20s

6. Vermeiden Sie die Verwendung des Latest-Tags

Vermeiden Sie die Unsicherheit, die der latest-Tag in Produktionsumgebungen mit sich bringt, erzwingen Sie spezifische Image-Versionen:

services:
api:
image: your-image:1.4.0

7. Angemessenes Log-Management

Verhindern Sie, dass Container-Logs den Festplattenspeicher erschöpfen:

services:
web:
logging:
driver: "json-file"
options:
max-size: "10m"
max-file: "5"

8. Ubuntu AppArmor Konfiguration

Standardmäßig aktiviert Ubuntu AppArmor, und es wird empfohlen, den Docker-Profilstatus zu überprüfen:

sudo systemctl enable --now apparmor
sudo aa-status

Docker unter Ubuntu aktiviert AppArmor standardmäßig ohne zusätzliche Konfiguration. Es wird im Allgemeinen nicht empfohlen, SELinux unter Ubuntu gleichzeitig zu aktivieren, um Konflikte zu vermeiden.

9. Kontinuierliche Updates und Sicherheitsscans

  • Image-Schwachstellenscans: Es wird empfohlen, Tools wie Trivy, Clair oder Snyk in den CI/CD-Prozess zu integrieren:
docker run --rm -v /var/run/docker.sock:/var/run/docker.sock \
aquasec/trivy image your-image:v1.2.3
  • Automatisierter Sicherheitsupdate-Prozess: Images mindestens wöchentlich neu erstellen, um bekannte Schwachstellen zu beheben.

III. Fallstudie: Lehren aus Docker Compose Konfigurationsfehlern

Im Juli 2019 erlitt Capital One eine schwerwiegende Datenschutzverletzung, die die persönlichen Daten von über 100 Millionen Kunden betraf 12. Obwohl die Hauptursache dieses Angriffs AWS-Konfigurationsfehler waren, waren auch Containersicherheitsprobleme beteiligt, die Ihrer beschriebenen Situation ähneln:

  1. Container-Berechtigungsprobleme: Der Angreifer nutzte eine Schwachstelle in einer Web Application Firewall (WAF) aus, die in einem Container lief, aber über übermäßige Berechtigungen verfügte.
  2. Unzureichende Netzwerkisolation: Der Angreifer konnte von dem kompromittierten Container aus auf andere AWS-Ressourcen zugreifen, was auf unzureichende Netzwerkisolationsmaßnahmen hinweist.
  3. Offenlegung sensibler Daten: Aufgrund von Konfigurationsfehlern konnte der Angreifer auf eine große Menge sensibler Kundendaten zugreifen und diese stehlen.
  4. Fehler bei der Sicherheitskonfiguration: Die Grundursache des gesamten Vorfalls war die Anhäufung mehrerer Fehler bei der Sicherheitskonfiguration, einschließlich Problemen bei der Container- und Cloud-Dienstkonfiguration.

Dieser Vorfall führte zu erheblichen finanziellen Verlusten und Reputationsschäden für Capital One. Es wird berichtet, dass das Unternehmen aufgrund dieses Vorfalls mit Geldstrafen von bis zu 150 Millionen US-Dollar sowie einer langfristigen Vertrauenskrise konfrontiert war. Dieser Fall unterstreicht die Bedeutung der Sicherheitskonfiguration in Container- und Cloud-Umgebungen, insbesondere im Berechtigungsmanagement, der Netzwerkisolation und dem Schutz sensibler Daten. Er erinnert uns daran, dass selbst scheinbar geringfügige Konfigurationsfehler von Angreifern ausgenutzt werden können, was zu katastrophalen Folgen führt.

IV. Fazit und Empfehlungen

Docker Compose in Kombination mit Ubuntu ist eine bequeme Möglichkeit, Container-Anwendungen schnell bereitzustellen, aber Sicherheit muss während des gesamten Prozesses integriert werden:

  • Container-Berechtigungen und Netzwerkisolation streng kontrollieren.
  • Lecks sensibler Daten vermeiden.
  • Regelmäßige Sicherheitsscans und Updates.
  • Es wird empfohlen, bei zunehmender Unternehmensgröße auf fortschrittliche Orchestrierungssysteme wie Kubernetes zu migrieren, um eine stärkere Sicherheitsgarantie zu erhalten.

Sicherheit ist eine kontinuierliche Praxis ohne Endpunkt. Ich hoffe, dieser Artikel hilft Ihnen, Ihre Docker Compose + Ubuntu Bereitstellungsumgebung besser zu schützen.