KI und Datenschutz: Worauf Sie bei Tools achten müssen

Künstliche Intelligenz (KI) ist allgegenwärtig und bietet immense Vorteile, doch birgt sie auch erhebliche Risiken für den Datenschutz. Insbesondere bei generativen KI-Tools ist die Wahl datenschutzfreundlicher Anwendungen entscheidend, um die eigene Privatsphäre zu schützen.

Der Einsatz von KI-Systemen wird datenschutzrechtlich relevant, sobald personenbezogene Daten verarbeitet werden. KI-Modelle können sensible Informationen sammeln, analysieren und verknüpfen, was zu unerwünschter Profilbildung und zur potenziellen Offenlegung privater Daten führen kann. Selbst mit Pseudonymen versehene Nutzer können durch KI-Modelle leicht identifiziert werden, indem Muster in natürlicher Sprache aus Online-Quellen erkannt werden. Datenlecks und unbeabsichtigte Weitergaben sensibler Informationen stellen weitere reale Risiken dar. Viele bekannte KI-Tools sind cloudbasiert und nutzen Nutzerdaten teilweise für das Training ihrer Modelle, oft mit eingeschränkten Opt-out-Möglichkeiten.

Selbst pseudonymisierte Internetnutzer können durch handelsübliche KI-Modelle innerhalb von Minuten für wenige Dollar identifiziert werden.

Datenschutzfreundliche KI-Tools schützen die Privatsphäre durch Prinzipien wie Datenminimierung, Transparenz und Kontrolle der Nutzer über ihre Daten. Schlüsselmerkmale sind lokale Verarbeitung, bei der Daten auf dem Gerät des Nutzers verbleiben, und Open-Source-Modelle, die Einblick in Code und Trainingsdaten gewähren. Starke Verschlüsselung schützt die Inhalte, und die strikte Datenminimierung sowie Zweckbindung sorgen dafür, dass nur notwendige Daten für festgelegte Zwecke verarbeitet werden. Wichtig ist auch der Verzicht auf die Nutzung von Nutzereingaben für das Modelltraining sowie transparente Richtlinien und einfache Kontrollmöglichkeiten für Nutzer.

Es gibt verschiedene KI-Anwendungen, die einen besonderen Fokus auf den Schutz der Nutzerdaten legen. Dazu gehören Duck.ai (DuckDuckGo AI Chat), das anonyme Nutzung ohne Anmeldung ermöglicht und Daten schnell löscht, sowie Nextcloud Assistant, ein lokaler KI-Assistent für die Nextcloud-Plattform. Brave Leo AI im Brave Browser speichert Sitzungsdaten nur temporär und nutzt keine Daten zum Training. CamoCopy positioniert sich als DSGVO-konforme Alternative zu ChatGPT mit anonymen und verschlüsselten Chats. Proton Lumo nutzt Zero-Access-Verschlüsselung und unterliegt Schweizer und EU-Datenschutzrecht. Auch deutsche und europäische Anbieter wie Neuroflash, Aleph Alpha, DeepL und Rasa werden für die Einhaltung europäischer Datenschutzstandards genannt.

Die Auswahl datenschutzfreundlicher KI-Tools erfordert ein Bewusstsein für die Risiken der Datenverarbeitung durch KI und die Prinzipien des Datenschutzes.

Um die eigene Privatsphäre zu schützen, ist es ratsam, stets die Datenschutzerklärungen von KI-Tools zu prüfen und, wenn möglich, Funktionen zu deaktivieren, die eine Weitergabe von Daten für das Modelltraining erlauben. Tools, die auf lokale Verarbeitung, strenge Verschlüsselung, Datenminimierung und Transparenz setzen, bieten den besten Schutz.