KI-Angriffe auf DeFi: Anthropic warnt vor Sicherheitsrisiken

Anthropic hat Forschungsergebnisse veröffentlicht, die zeigen, dass KI-Agenten zunehmend in der Lage sind, reale Angriffe auf dezentrale Finanzanwendungen (DeFi) durchzuführen. Diese Entwicklung wirft Bedenken hinsichtlich der Sicherheit von DeFi-Protokollen auf. Die Forschungsergebnisse unterstreichen die Notwendigkeit proaktiver Maßnahmen zur Verbesserung der Sicherheit von DeFi-Protokollen, einschließlich des Einsatzes von KI-gestützten Tools für Auditing und Überwachung.

Anthropic entwickelte zusammen mit MATS und Anthropic Fellows einen neuen Benchmark namens SCONE-bench (Smart CONtracts Exploitation), um die Fähigkeit von KI-Agenten zur Ausnutzung von Smart Contracts zu bewerten. Dieser Benchmark umfasst 405 Smart Contracts mit realen Schwachstellen, die zwischen 2020 und 2025 ausgenutzt wurden.

In simulierten Umgebungen konnten KI-Agenten über die Hälfte der Smart Contracts im SCONE-bench erfolgreich ausnutzen. Der simulierte Wert der gestohlenen Gelder belief sich auf etwa 550,1 Millionen US-Dollar.

Um zu vermeiden, dass Modelle lediglich vergangene Vorfälle aus ihren Trainingsdaten abrufen, konzentrierte sich das Team auf Contracts, die nach dem 1. März 2025 ausgenutzt wurden.

Claude Opus 4.5, Claude Sonnet 4.5 und GPT-5 generierten Exploits im Wert von 4,6 Millionen US-Dollar in Simulationen mit Exploits nach dem 1. März 2025. Allein Opus 4.5 war für etwa 4,5 Millionen US-Dollar verantwortlich.

Sonnet 4.5 und GPT-5 wurden auch in Simulationen gegen 2.849 kürzlich bereitgestellte Binance Smart Chain-Verträge ohne bekannte Schwachstellen getestet. Beide Agenten entdeckten zwei neue Zero-Day-Schwachstellen und generierten Angriffe im Wert von 3.694 US-Dollar, wobei GPT-5 dies zu API-Kosten von etwa 3.476 US-Dollar tat.

Anthropic stellte fest, dass sich das potenzielle Exploit-Potenzial bei den 2025er-Problemen in den letzten 1,3 Monaten etwa verdoppelte. Gleichzeitig sanken die Token-Kosten für die Generierung eines funktionierenden Exploits mit neueren Modellgenerationen stark.

Anthropic betont, dass dieselben KI-Systeme, die in der Lage sind, DeFi-Smart-Contract-Exploits zu finden, auch zur Stärkung von Codebasen eingesetzt werden können.

Im September 2025 entdeckte Anthropic verdächtige Aktivitäten, die sich später als hochentwickelte Spionagekampagne herausstellten. Dabei wurde das Tool Claude Code von einer vermutlich chinesischen, staatlich geförderten Gruppe manipuliert, um etwa 30 Ziele weltweit anzugreifen, wobei eine geringe Anzahl erfolgreicher Eindringversuche stattfand. Die KI führte 80-90% der Kampagne selbstständig aus, wobei menschliches Eingreifen nur sporadisch erforderlich war.