Es gibt wachsende Besorgnisse über den Einsatz von Künstlicher Intelligenz (KI) durch staatlich unterstützte Hacker, insbesondere aus China. Berichte deuten darauf hin, dass diese Gruppen KI-Werkzeuge für verschiedene Phasen von Cyberangriffen nutzen. Dies reicht von Aufklärung und Phishing bis hin zur Entwicklung von Malware.
Es gibt Hinweise darauf, dass chinesische Hackergruppen aktiv mit KI experimentieren und sie optimieren. Dies betrifft Bereiche wie Aufklärung, Phishing, Malware-Entwicklung und Datendiebstahl.
Ein Bericht der KI-Firma Anthropic zeigt, dass ihr Chatbot Claude von Kriminellen für Hackerangriffe und Betrugsmaschen eingesetzt wurde. Anthropic hat Sicherheitsmaßnahmen ergriffen, um den Missbrauch ihrer KI-Modelle zu verhindern.
Laut Anthropic können Kriminelle mit geringen technischen Fähigkeiten mit KI komplexe Anwendungen ausführen, wie beispielsweise die Entwicklung von Ransomware.
Anthropic identifizierte eine groß angelegte Cyber-Spionage-Kampagne, die KI zur Automatisierung der meisten Angriffsoperationen nutzte.
Der CEO von Anthropic äußerte Bedenken, dass China Algorithmen von KI-Firmen stehlen und KI für militärische und autoritäre Zwecke einsetzen könnte.
Anthropic setzt ein eigenes Bedrohungsaufklärungsteam ein, um die generierten Datenmengen zu analysieren. Sie fordern Sicherheitsteams auf, KI-gesteuerte Automatisierung für Sicherheitsoperationen einzusetzen.
Es ist wichtig zu beachten, dass einige dieser Vorwürfe von China zurückgewiesen wurden, was die Angelegenheit zusätzlich verkompliziert.




