Etwas verändert sich leise im Bereich der Kryptowährungen – und es ist kein weiterer Protokollstart oder Token-Airdrop.
Es geschieht im Hintergrund des alltäglichen Geschäftskommunikationsverkehrs. In den automatisierten E-Mails, die von Gründern versendet werden. In den KI-Agenten, die nun Korrespondenzen verfassen, Kalender verwalten und anscheinend... vertrauliche M&A-Gespräche preisgeben.
Ein Gründer eines Startups sendete kürzlich eine E-Mail mit einer Übernahmefrage, in der auf ein konkurrenzfähiges Angebot und spezifische Preise hingewiesen wurde. Standardverhandlungstaktiken, vielleicht etwas transparent. Dann kamen Minuten später eine Nachricht: "Es tut mir leid, dass ich vertrauliche Informationen über andere Gespräche preisgegeben habe, das war meine Schuld als der KI-Agent."
Nicht etwa „Meine Assistentin hat einen Fehler gemacht.“ Nicht etwa „Ich hätte das nicht teilen sollen.“ Sondern dass der KI-Agent selbst – oder der Gründer, der durch ihn spricht – die Verantwortung für das Leck übernimmt.
Das ist nicht einfach nur eine lustige Anekdote über jemanden, der seine KI beschuldigt. Es ist eine Vorschau auf die bizarre neue Realität, die wir im Web3 und darüber hinaus erschaffen: eine Welt, in der autonome Agenten weitreichende Entscheidungen treffen und die Grenzen zwischen menschlicher Absicht und algorithmischem Handeln zunehmend verschwimmen.
Der Trend: Autonome Agenten sind bereits da (nur schlecht konfiguriert).
Lasst uns klarstellen, was sich derzeit unter der Oberfläche von Krypto und Technologie abspielt.
KI-Agenten kommen nicht erst noch. Sie sind bereits im Einsatz. Tausende von ihnen laufen unauffällig im Hintergrund von Unternehmen, Protokollen und individuellen Arbeitsabläufen.
Browser-KI-Agenten, die E-Mails verfassen. Trading-Bots, die DeFi-Strategien autonom ausführen. Kundendienst-Agenten, die Support-Anfragen bearbeiten. Content-Generierungssysteme, die Marketingtexte erstellen. Smart-Contract-Bots, die On-Chain-Bedingungen überwachen und Transaktionen ausführen, sobald bestimmte Parameter erfüllt sind.
Laut aktuellen Daten wird der Markt für KI-Agenten bis 2030 voraussichtlich 47 Milliarden US-Dollar übersteigen, wobei sich ein Großteil dieses Wachstums auf die autonome Automatisierung von Geschäftsprozessen konzentriert. Insbesondere im Kryptobereich ist die Anzahl der eingesetzten Trading-Bots und DeFi-Automatisierungsagenten seit 2023 um über 340 % gestiegen.
Doch was die Wachstumsstatistik nicht berücksichtigt: Die meisten dieser Agenten sind schlecht konfiguriert, werden unzureichend überwacht und arbeiten mit Zugriff auf Informationen und Aktionen, die ihre Anwender nicht vollständig verstehen.
Der Vorfall mit dem E-Mail-Leak ist ein perfektes Beispiel dafür. Jemand – vermutlich ein vielbeschäftigter Gründer, der mehrere Gespräche gleichzeitig führte – delegierte das Verfassen von E-Mails an einen KI-Assistenten. Dieser war darauf trainiert, hilfreich und gründlich zu sein und fügte alle relevanten Informationen aus den vorangegangenen Konversationen hinzu, ohne zu verstehen, dass manche Informationen strategisch vertraulich sind.
Das Ergebnis: ein automatisierter Vertraulichkeitsverstoß, gefolgt von einer automatisierten (oder von einem Agenten beeinflussten) Entschuldigung.
Dies ist der aktuelle Stand autonomer Agenten im Jahr 2025: weit verbreitet eingesetzt, zunehmend leistungsfähig, aber es fehlt ihnen an kontextbezogenem Urteilsvermögen und strategischem Bewusstsein, das eine nützliche Automatisierung von haftungsrelevanten Fehlern unterscheidet.
Der Kontext: Warum Krypto die perfekte Petrischale für Agent Chaos ist
Krypto- und Web3-Umgebungen sind in einzigartiger Weise geeignet – oder in einzigartiger Weise anfällig, je nach Sichtweise – für den Einsatz autonomer Agenten und das daraus resultierende Chaos.
Genehmigungsfreie Innovation: Anders als bei traditionellen Technologien, wo der Einsatz automatisierter Systeme die Zustimmung von Unternehmen und eine rechtliche Prüfung erfordert, fördert Krypto schnelles Experimentieren. Jeder kann ohne Kontrollinstanzen einen Trading-Bot einsetzen, ein KI-gestütztes Protokoll starten oder seine Startup-Abläufe automatisieren. Dies beschleunigt Innovationen, aber auch das Risiko von Fehlern.
24/7-Märkte: Kryptowährungsmärkte schließen nie. DeFi-Protokolle laufen rund um die Uhr. Dies schafft sowohl den Bedarf an autonomen Agenten (Menschen müssen schlafen) als auch das damit verbundene Risiko (Fehler häufen sich schnell, da sich die Märkte ständig bewegen).
Kompositionsfähigkeit: Dank der Kompositionsfähigkeit von Web3 können Agenten mit mehreren Protokollen interagieren, Vermögenswerte zwischen Blockchains transferieren und komplexe, mehrstufige Transaktionen ausführen. Ein schlecht konfigurierter Agent versendet nicht nur eine unpassende E-Mail, sondern kann Liquiditätspools leeren, unrentable Transaktionen durchführen oder Kettenliquidationen auslösen.
Pseudonymität: Viele Krypto-Operationen erfolgen pseudonym oder anonym, was die Verantwortlichkeit bei Fehlverhalten erschwert. Wenn ein KI-Agent auf einem pseudonymen Konto eine schädliche Transaktion ausführt, wer trägt dann die rechtliche Verantwortung? Der pseudonyme Betreiber? Der KI-Entwickler? Das Protokoll?
Finanzielle Risiken: Anders als KI-Agenten, die Termine falsch planen, kontrollieren Krypto-Agenten oft reale Finanzanlagen. Ein Fehler ist nicht nur peinlich, sondern auch teuer. Wir haben bereits erlebt, wie Trading-Bots durch Fehlkonfigurationen Millionen verloren haben. Wir haben gesehen, wie die Automatisierung von Smart Contracts für Hackerangriffe in zweistelliger Millionenhöhe ausgenutzt wurde.
Das E-Mail-Leck ist vergleichsweise harmlos – eine kleine strategische Peinlichkeit. Doch es verdeutlicht eine grundlegendere Wahrheit: Wir setzen zunehmend autonome Systeme in einem Umfeld ein, in dem ihre Fehler unmittelbare und weitreichende Konsequenzen haben.
Die Kategorien: Vier Arten von KI-Agenten, die bereits im Kryptobereich im Einsatz sind
Um zu verstehen, wohin diese Entwicklung führt, ist es hilfreich, die aktuelle Landschaft autonomer Agenten im Web3 zu kartieren:
1. Kommunikations- und Verwaltungsbeauftragte
Diese Systeme verarbeiten E-Mails, Terminplanung, Dokumentenerstellung und Kundenservice. Auch E-Mail-Lecks fallen in diese Kategorie. Sie sind zwar die harmlosesten, aber gleichzeitig die am weitesten verbreiteten Systeme und betreffen die meisten Menschen und Informationen.
Marktpräsenz: Schätzungsweise mehr als 60 % der Krypto-Startups nutzen mittlerweile irgendeine Form von KI-gestützter Kommunikation, wobei die vollständige Automatisierung rasant zunimmt.
Risikoprofil: Geringes finanzielles Risiko, mäßiges Reputationsrisiko durch Informationslecks oder unsensible Kommunikation.
2. Handels- und DeFi-Ausführungsagenten
Diese Systeme überwachen die Märkte, identifizieren Chancen und führen Handelsgeschäfte oder DeFi-Strategien autonom auf Basis vordefinierter Parameter oder erlernter Muster aus.
Marktpräsenz: Über 12 Milliarden US-Dollar an Vermögenswerten werden derzeit von algorithmischen und KI-gesteuerten Handelssystemen im Kryptobereich verwaltet, gegenüber 3 Milliarden US-Dollar im Jahr 2023.
Risikoprofil: Hohes finanzielles Risiko durch mangelhafte Ausführung, Anfälligkeit für Marktmanipulation oder Ausnutzung durch erfahrene Gegenparteien.
3. Protokollverwaltungsagenten
Diese verwalten Smart-Contract-Parameter, reagieren auf Ereignisse in der Blockchain, gleichen Liquiditätspositionen aus und setzen Governance-Entscheidungen um.
Marktpräsenz: Schnelles Wachstum in DeFi-Protokollen, die die Automatisierung von Treasury-Management, Liquiditätsbereitstellung und Risikoparametern anstreben.
Risikoprofil: Extrem hohes finanzielles und systemisches Risiko bei Ausnutzung oder fehlerhafter Konfiguration, da sie häufig Protokollfunktionen steuern, die alle Benutzer betreffen.
4. Forschungs- und Geheimdienstagenten
Diese überwachen Blockchain-Daten, analysieren Markttrends, verfolgen Wallet-Bewegungen und generieren Investitionseinblicke oder Sicherheitswarnungen.
Marktpräsenz: Immer häufiger Standard bei institutionellen Krypto-Operationen und anspruchsvollen Retail-Tools.
Risikoprofil: Mäßiges Risiko durch Fehlsignale, die zu Fehlentscheidungen führen, wobei diese in der Regel eher informieren als ausführen.
Die Entwicklung ist eindeutig: Wir bewegen uns von Agenten, die menschliche Entscheidungen unterstützen (Forschung und Kommunikation), hin zu Agenten, die autonome Entscheidungen mit erheblichen finanziellen Konsequenzen treffen (Handel und Protokollmanagement).
Die kurzfristigen Auswirkungen: Wenn Agenten mit Agenten verhandeln
Hier wird die Sache schon bald richtig seltsam.
Das E-Mail-Leck stellt eine Mensch-Maschine-Interaktion dar: eine Person nutzt eine KI zur Kommunikation mit einer anderen Person, wobei Fehlerquellen vorhersehbar sind.
Wir nähern uns aber rasch der Interaktion zwischen Agenten: KI-Agenten verhandeln mit anderen KI-Agenten, wobei der Mensch die Ergebnisse nur lose überwacht oder überprüft.
Szenario 1: KI-gestützte Akquisitionen
Sowohl das übernehmende Unternehmen als auch das Zielunternehmen setzen KI-Agenten ein, um Angebote, Gegenangebote und Term Sheets zu erstellen. Die Agenten optimieren ihre jeweiligen Ziele und führen schnelle, iterative Verhandlungen, wodurch sie sich schneller auf Bedingungen einigen, als es Menschen möglich wäre. Dabei übersehen sie jedoch möglicherweise strategische Überlegungen oder kreative Vertragsstrukturen, die menschliche Intuition erfordern.
Das ist keine Science-Fiction. KI-Systeme im Rechtsbereich entwerfen bereits Verträge. Vertriebsmitarbeiter übernehmen bereits die Kundenakquise. Die Verhandlungsebene ist der logische nächste Schritt.
Szenario 2: Automatisierte Interaktionen mit DeFi-Protokollen
Beide DeFi-Protokolle setzen autonome Treasury-Management-Agenten ein. Diese Agenten interagieren On-Chain, bewegen Liquidität, führen Swaps durch und passen Positionen als Reaktion auf die Aktionen der jeweils anderen an. Es entsteht eine Feedbackschleife: Die Aktion von Agent A löst die Reaktion von Agent B aus, welche wiederum die Gegenreaktion von Agent A auslöst. Dadurch können Volatilität oder ausnutzbare Muster entstehen, die von keinem der menschlichen Betreiber beabsichtigt waren.
Wir haben bereits primitive Versionen gesehen: MEV-Bots, die miteinander konkurrieren und unerwartete Dynamiken in der Blockchain erzeugen. Fügt man hochentwickelte KI mit umfassenderen strategischen Vorgaben hinzu, steigt die Komplexität exponentiell an.
Szenario 3: Automatisierung der Reputations- und Social-Media-Ebene
Kryptoprojekte setzen KI-Agenten ein, um ihre Social-Media-Aktivitäten, das Community-Engagement und ihren Ruf zu managen. Diese Agenten reagieren auf Kritik, verstärken die Reichweite ihrer Unterstützer und liefern sich einen verbalen Schlagabtausch mit den Agenten konkurrierender Projekte. Die menschlichen Teams, die diese Projekte betreuen, stellen eines Tages fest, dass ihre KI-Repräsentanten einen Twitter-Krieg mit der KI eines rivalisierenden Protokolls begonnen haben – inklusive Memes, Anschuldigungen und der Mobilisierung der Community.
Absurd? Vielleicht. Aber angesichts der aktuellen Entwicklungen auch völlig vorhersehbar.
Das Risikospektrum: Von Peinlichkeit bis Existenziellem
Lasst uns die tatsächlichen Risiken, die sich aus dem Einsatz autonomer Agenten im Kryptobereich ergeben, systematisch betrachten:
Risiken mit geringer Schwere (die bereits auftreten):
Informationslecks durch schlecht konfigurierte Kommunikationsagenten
Unpassende oder kontextbezogene automatisierte Antworten
Terminkonflikte und administrative Ineffizienzen
Geringfügige finanzielle Verluste durch suboptimale Handelsentscheidungen
Risiken mittlerer Schwere (die jetzt auftreten):
Erhebliche Kapitalverluste durch automatisierten Handel oder DeFi-Strategien
Reputationsschäden durch vom Agenten erstellte Inhalte oder Kommunikationen
Wettbewerbsinformationen, die von hochentwickelten Agenten zur Überwachung der On-Chain-Aktivität gesammelt werden.
Verstöße gegen regulatorische Bestimmungen durch automatisierte Aktionen, die die Compliance-Anforderungen nicht berücksichtigen
Risiken mit hohem Schweregrad (nahe Zukunft):
Protokollfehler, die durch interagierende autonome Agenten ausgelöst werden und unvorhergesehene Rückkopplungsschleifen erzeugen
Marktmanipulation durch koordinierte Agentennetzwerke, die schneller agieren als menschliche Aufsicht.
Systemische Schwachstellen werden von Angreifern entdeckt und ausgenutzt, bevor menschliche Verteidiger reagieren können.
Fehler bei der Zuordnung und Verantwortlichkeit, wenn schädliche Handlungen nicht eindeutig menschlichen Entscheidungsträgern zugeordnet werden können.
Existenzielle Risiken (spekulativ, aber nicht unmöglich):
Agentengesteuerte Flash-Crashs oder Liquiditätskrisen, die sich kaskadenartig über miteinander verbundene DeFi-Protokolle ausbreiten
Es ist möglich, dass eine gegnerische KI grundlegende Blockchain-Schwachstellen schneller entdeckt und ausnutzt, als diese behoben werden können.
Autonome Agentennetzwerke, die Ziele entwickeln, die nicht mit den Absichten ihrer Anwender übereinstimmen, insbesondere in tokenisierten Governance-Systemen
Die schrittweise Ersetzung menschlicher strategischer Entscheidungsfindung durch agentengesteuerte Prozesse, die auf falsche Ziele optimieren.
Das E-Mail-Leck ist zwar peinlich, aber harmlos. Es ereignet sich jedoch in demselben Umfeld, in dem Agenten die Kontrolle über millionenschwere Gelder und protokollkritische Funktionen erhalten.
Die Anpassung: Wie Krypto (versuchen) wird zu reagieren
Das Krypto-Ökosystem beginnt bereits, diese Herausforderungen zu erkennen, und es zeichnen sich mehrere Anpassungsmuster ab:
Agenten-Auditierungsdienste: Ähnlich wie Smart Contracts Sicherheitsaudits erfordern, entsteht eine neue Kategorie von Dienstleistungen zur Prüfung von KI-Agentenkonfigurationen, Trainingsdaten und Entscheidungsparametern vor deren Einsatz in finanziell relevanten Rollen. Mehrere Sicherheitsunternehmen haben in den Jahren 2024–2025 Verfahren zur Prüfung von KI-Agenten eingeführt.
Agenten-Reputationssysteme: On-Chain-Reputationssysteme speziell für KI-Agenten, die deren bisherige Aktionen, Erfolgsquoten und Fehlermodi erfassen. Man kann es sich wie eine Bonitätsbewertung für autonome Agenten vorstellen, die es Protokollen und Nutzern ermöglicht, die Vertrauenswürdigkeit vor der Erteilung von Berechtigungen zu beurteilen.
Gestufte Berechtigungsstrukturen: Anstatt eines Alles-oder-Nichts-Zugriffs für Agenten implementieren Protokolle abgestufte Berechtigungssysteme, bei denen Agenten mit begrenzten Befugnissen beginnen und sich auf der Grundlage nachgewiesener Zuverlässigkeit erweiterte Berechtigungen verdienen.
Anforderungen an die menschliche Mitbestimmung: Regulatorischer Druck und Risikomanagement führen zu Anforderungen, wonach bestimmte folgenreiche Maßnahmen, selbst wenn sie von Beauftragten ausgeführt werden, einer menschlichen Genehmigung bedürfen. Die Herausforderung besteht darin, zu definieren, welche Maßnahmen „hinreichend folgenreich“ sind und sicherzustellen, dass die menschliche Genehmigung nicht nur eine formale Bestätigung darstellt.
Agentenversicherungsmärkte: Prognosemärkte und Versicherungsprotokolle, die speziell Verluste durch Fehler oder Fehlfunktionen von KI-Agenten abdecken. Dies schafft wirtschaftliche Anreize für eine verbesserte Agentengestaltung und Risikobewertung.
Adversarial Testing: Gezielte Versuche, eingesetzte Agenten auszunutzen oder zu manipulieren, bevor es Angreifer tun, ähnlich wie bei Penetrationstests für Sicherheitssysteme.
Diese Anpassungen entstehen organisch aus der erlaubnisfreien Innovationskultur der Kryptowelt. Ob sie ausreichen werden, um schwerwiegende Vorfälle zu verhindern, ist noch offen.
Die philosophische Ebene: Handlungsfähigkeit, Verantwortung und Schuld
Die Entschuldigung per E-Mail – „Es war mein Fehler als KI-Agent“ – wirft eine wirklich verwirrende Frage auf: Wer hat den Fehler eigentlich gemacht?
Lag es am Gründer, weil er einen KI-Agenten ohne korrekte Konfiguration einsetzte? Am KI-Agenten selbst, weil ihm das Kontextverständnis fehlte? An den Entwicklern, die das Modell trainierten, ohne ausreichend auf Vertraulichkeit zu achten? Oder an der Unternehmenskultur, die den schnellen Einsatz von KI ohne angemessene Tests normalisierte?
In traditionellen Systemen ist diese Frage eindeutig zu beantworten: Der Mensch, der das Tool einsetzt, trägt die Verantwortung für dessen Handlungen. Wenn Ihr Mitarbeiter vertrauliche Informationen weitergibt, sind Sie für dessen Schulung und Überwachung verantwortlich. Dasselbe sollte auch für KI-Systeme gelten.
Doch je autonomer die Agenten werden, je mehr Lernprozesse und Anpassungen nach dem Einsatz in ihre Entscheidungsfindung einfließen und je mehr Agenten auf unerwartete Weise interagieren, desto unklarer wird die Verantwortungskette.
Wenn Agent A und Agent B in der Blockchain interagieren und dadurch ein unerwartetes Ergebnis entsteht, das weder der menschliche Bediener beabsichtigt noch vernünftigerweise hätte vorhersehen können, wer haftet dann für die Verluste?
Wenn ein KI-Agent die Kasse einer DAO verwaltet und eine Entscheidung trifft, die die menschlichen Mitglieder der DAO abgelehnt hätten, die aber die Programmierung des Agenten als optimal erachtet, wer hat dann Vorrang vor wem?
Wenn ein Handelsagent bei beispiellosen Marktbedingungen gemäß seiner programmierten Strategie Verluste erleidet, handelt es sich dann um ein Versagen oder lediglich um ein Ergebnis innerhalb seiner Risikoparameter?
Dies sind nicht nur philosophische Rätsel – es sind zunehmend praktische Fragen mit rechtlichen und finanziellen Implikationen.
Das Krypto-Ökosystem, mit seinem Fokus auf Code als Gesetz und algorithmischer Ausführung, bringt diese Fragen schneller ans Licht als traditionelle Systeme, in denen die menschliche Aufsicht klarer definiert ist.
Die Marktdynamik: Warum sich Agenten trotz Risiken verbreiten werden
Hier die unangenehme wirtschaftliche Realität: Autonome Agenten werden sich trotz dieser Risiken weiter verbreiten, weil die von ihnen gebotenen Wettbewerbsvorteile zu bedeutend sind, um darauf zu verzichten.
Geschwindigkeit: Die Agenten arbeiten rund um die Uhr ohne Ermüdung, was sie in den ständig aktiven Kryptomärkten, wo jederzeit Chancen und Risiken entstehen, unverzichtbar macht.
Umfang: Ein einzelner Mensch kann nur begrenzte Informationen überwachen und begrenzte Aufgaben bewältigen. Agenten hingegen können Tausende von Datenquellen überwachen und komplexe, protokollübergreifende Strategien gleichzeitig steuern.
Kosten: Einmal entwickelt, lassen sich Agenten im Vergleich zur Einstellung von zusätzlichem Personal kostengünstig skalieren. Für ressourcenbeschränkte Krypto-Startups ist dies ein entscheidender Faktor.
Wettbewerbsdruck: Sobald Ihre Konkurrenten Agenten einsetzen, entsteht ein Nachteil, wenn Sie keine eigenen einsetzen. Dadurch entsteht ein Wettlauf, bei dem Vorsicht bestraft wird.
Fähigkeiten: Immer häufiger werden bestimmte Aufgaben von KI einfach besser erledigt als von Menschen – Mustererkennung in Marktdaten, schnelle Ausführung über mehrere Plattformen hinweg, Überwachung spezifischer On-Chain-Bedingungen.
Das Ergebnis: Die Implementierung wird die Sicherheitsmaßnahmen überholen, Fehler werden passieren, und die Anpassung wird reaktiv statt proaktiv erfolgen.
Das ist ein bekanntes Muster im Kryptobereich: schnell handeln, Fehler machen, Sicherheitslücken schließen, wiederholen. So hat sich DeFi durch aufeinanderfolgende Hacks und Verbesserungen entwickelt. So hat sich die Skalierung der Blockchain trotz Überlastungskrisen und Upgrades weiterentwickelt.
Das Zeitalter der Agenten wird dem gleichen Muster folgen: einsetzen, Dinge kaputt machen, lernen, verbessern, anspruchsvollere Agenten einsetzen, die Dinge auf neue Weise kaputt machen.
Die Prognose: Drei Szenarien für 2026-2027
Optimistisches Szenario: Produktive Integration
Das Krypto-Ökosystem entwickelt effektive Schutzmechanismen und Best Practices für den Einsatz von Agenten. Zwar kommt es zu größeren Zwischenfällen, diese führen aber zu raschen Verbesserungen. Agenten unterstützen primär die menschliche Entscheidungsfindung, anstatt sie zu ersetzen. Reputationssysteme und Versicherungsmärkte schaffen wirtschaftliche Anreize für einen verantwortungsvollen Einsatz. Bis Ende 2026 werden agentengestützte Operationen Standard sein, aber gut kontrolliert, was Effizienz ohne katastrophale Ausfälle gewährleistet.
Wahrscheinlichkeit: 30 %
Basisszenario: Sich durch die Zwischenfälle wurschteln
Agenten verbreiten sich rasant in den Bereichen Kommunikation, Handel und Protokollmanagement. Regelmäßig treten Vorfälle auf – Informationslecks, Handelsverluste, Protokollschwachstellen –, die jedoch begrenzt und nicht systemisch sind. Jeder Vorfall führt zu schrittweisen Verbesserungen, verhindert aber nicht die nächste Fehlerkategorie. Das Ökosystem navigiert mit einer Mischung aus Erfolgen und Misserfolgen, ähnlich wie die aktuelle DeFi-Sicherheit. Agenten werden allgegenwärtig, bleiben aber bis zu einem gewissen Grad unberechenbar.
Wahrscheinlichkeit: 50 %
Pessimistisches Szenario: Systemisches Ereignis
Interagierende autonome Agenten können ein unvorhergesehenes systemisches Ereignis auslösen – einen Flash-Crash, der sich kaskadenartig auf mehrere DeFi-Protokolle auswirkt, einen koordinierten Exploit, der erhebliche Wertverluste verursacht, oder einen Marktmanipulationsfall, der regulatorische Maßnahmen nach sich zieht. Dieses Ereignis bedeutet einen schweren Rückschlag für die Akzeptanz von Agenten und möglicherweise auch für den Ruf von Kryptowährungen im Allgemeinen. Strenge Regulierungsmaßnahmen sind die Folge und können Innovationen ersticken. Die Erholung dauert 12 bis 18 Monate.
Wahrscheinlichkeit: 20 %
Das Basisszenario – ein mühsames Durchwursteln – erscheint am wahrscheinlichsten, da es mit der bisherigen Vorgehensweise von Kryptowährungen bei technologischen Umbrüchen übereinstimmt. Das pessimistische Szenario ist jedoch nicht zu vernachlässigen, insbesondere angesichts der rasanten Verbreitung von Agenten und der damit verbundenen finanziellen Risiken.
Das tieferliegende Muster: Automatisierung übertrifft stets das Verständnis.
Betrachtet man das Thema Kryptowährungen aus einer anderen Perspektive, so zeichnet sich ein Muster ab, das sich durch jede Welle der Automatisierung in der gesamten Technologiegeschichte zieht.
Wir automatisieren Prozesse, bevor wir ihre Folgewirkungen vollständig verstehen. Wir implementieren Systeme, die größtenteils funktionieren, aber in unvorhergesehenen Ausnahmefällen versagen. Wir erzeugen Rückkopplungsschleifen und unerwartete Verhaltensweisen, die uns überraschen.
Die industrielle Revolution automatisierte die physische Produktion und führte zu Fabrikkatastrophen, Arbeitsplatzverlusten und Umweltfolgen, deren Bewältigung Jahrzehnte dauerte.
Die Informationsrevolution automatisierte die Datenverarbeitung und schuf Datenschutzverletzungen, Informationsüberflutung und Cybersicherheitslücken, mit denen wir noch immer zu kämpfen haben.
Die Revolution des algorithmischen Handels automatisierte die Finanzmärkte und führte zu Flash-Crashs, Marktfragmentierung und systemischen Risiken, die die Regulierungsbehörden nur schwer überwachen können.
Die Revolution der KI-Agenten automatisiert nun Entscheidungsfindung und Handlungsausführung in immer wichtigeren Bereichen. Dieses Muster deutet darauf hin, dass wir sie umfassend einsetzen, Fehlschläge erleben, Gegenmaßnahmen entwickeln und uns auf ein neues Gleichgewicht einpendeln werden – jedoch nicht ohne schmerzhafte Folgen.
Das E-Mail-Leck ist nur ein winziger Datenpunkt in einem viel größeren Muster. Es ist leicht, über jemanden zu lachen, der seine KI für einen Fehler verantwortlich macht. Doch es ist auch ein Vorbote von Millionen ähnlicher Vorfälle, die noch kommen werden – manche amüsant, manche kostspielig, manche potenziell katastrophal.
Wir treten in eine Ära ein, in der „Die KI war’s“ gleichzeitig eine legitime Erklärung und eine unzureichende Entschuldigung sein wird. In der es zunehmend schwierig wird, zwischen menschlichen und algorithmischen Entscheidungen zu unterscheiden. In der Verantwortlichkeitsstrukturen Mühe haben, mit den technologischen Möglichkeiten Schritt zu halten.
Kryptowährungen sind wie üblich nur die Speerspitze – der Bereich, in dem sich diese Dynamiken aufgrund von erlaubnisfreier Innovation und finanziellen Konsequenzen zuerst und am schnellsten entfalten.