Am 27. Februar veröffentlichte die Blockchain-Sicherheitsagentur TRM Labs einen Bericht, in dem festgestellt wird, dass die Aktivitäten im Bereich KI-Kryptowährungsbetrug im vergangenen Jahr um etwa 500 % stark angestiegen sind. Die Verbreitung generativer künstlicher Intelligenz und großer Sprachmodelle (LLMs) hat Phishing-, Identitätsnachahmungs- und Geldwäscheprozesse stark automatisiert und so das Ausmaß und die Geschwindigkeit der Angriffe erheblich erhöht.
Der Bericht wies darauf hin, dass Hacker KI nutzen, um Phishing-E-Mails, gefälschte Investitionswebsites und hochrangige Chatbots in Chargen zu generieren, die Interaktionsraten durch personalisierte Sprache zu erhöhen und mit Hilfe von Übersetzungstools eine Sprachübergreifende Diffusion zu erreichen. Deepfake-Audio- und Videotechnologie wird eingesetzt, um sich als Unternehmensleiter oder öffentliche Persönlichkeiten auszugeben und so den Vertrauensaufbau von “Schweineschlachtplatten” und emotionalem Betrug zu beschleunigen. Maschinelle Lernmodelle können gestohlene Konten außerdem automatisch testen, Seed-Phrasen und private Schlüssel scannen und sogar Smart-Contract-Schwachstellen identifizieren, um Gelder in kurzer Zeit zu stehlen.
Jüngste Fälle zeigen eine Risikosteigerung. Ein Krypto-Wal verlor 1.459 Bitcoin und 2,05 Millionen Litecoins durch einen Social-Engineering-Angriff, insgesamt 282 Millionen US-Dollar. Die US-Strafverfolgungsbehörden beschlagnahmten außerdem mehr als 61 Millionen Dollar in Tether in North Carolina, finanziert durch grenzüberschreitende Geldwäsche.
Laut den Daten wird das Ausmaß der illegalen Kryptotransaktionen im Jahr 2025 158 Milliarden Dollar erreichen, ein Anstieg von etwa 145 % im Jahresvergleich, von denen etwa 30 Milliarden Dollar auf Betrug zurückzuführen sind. Chainalysis stellte fest, dass KI-gesteuerte Betrügereien mit einer einzelnen Aktion 4,5-mal mehr verdienen als traditionelle Betrügereien, mit durchschnittlich neunmal höheren täglichen Transaktionen. Vectra AI gab bekannt, dass die KI-Betrugsfälle um 1.210 % gestiegen sind.
Sicherheitsbehörden betonen, dass angesichts der Eskalation von KI-Kryptowährungsbetrug auch die Verteidigungsseite automatisierte Überwachungs- und On-Chain-Analysetools einsetzen muss. Da der Angriffslebenszyklus vollständig beschleunigt ist, steht das Sicherheitssystem für digitale Vermögenswerte vor einer neuen technologischen Konfrontation.
Verwandte Artikel
Ledger Donjon findet MediaTek-Sicherheitslücke, die Android-Wallet-Seeds offenlegt
Behörden frieren 3,5 Millionen Dollar an Kryptowährungen ein, während Europol und DOJ das "SocksEscort" Proxy-Netzwerk zerschlagen
CertiK-Bericht: Kryptowährungs-Geldautomaten-Betrugsverluste erreichen 2025 3,3 Milliarden US-Dollar, KI-Technologie verschärft kriminelle Eskalation
China AI Industry Development Alliance verfolgt kontinuierlich die Sicherheitsrisiken von OpenClaw und erarbeitet ein Leitlinienwerk für das Risikomanagement bei unternehmensweiter Bereitstellung.
Tencent bringt OpenClaw-Sicherheitstoolkit auf den Markt, um Sicherheitsherausforderungen bei Lobster AI Agent zu bewältigen
Bonk.fun Hack macht Solana-Nutzer anfällig für Wallet-Drainer-Angriff