Angeregt wurde die Stellungnahme des EDSA von der irischen Datenschutzbehörde, die um eine Beurteilung zentraler datenschutzrechtlicher Fragen bei der Entwicklung und Verwendung von KI-Modellen ersucht hat. Der EDSA, der die einheitliche Auslegung der Datenschutz-Grundverordnung (DSGVO) innerhalb der EU sicherstellen soll, setzt sich in seiner Stellungnahme mit drei Kernpunkten auseinander: den Voraussetzungen für die Anonymität von KI-Modellen, den Anforderungen für die rechtmäßige Verarbeitung personenbezogener Daten durch KI-Modelle – und zwar sowohl in der Entwicklungs- als auch in der Einsatzphase – sowie den Folgen einer rechtswidrigen Datenverarbeitung durch solche Modelle.
Der EDSA definiert KI-Modelle als wesentliche Komponenten von KI-Systemen, die durch bestimmte Trainingsmechanismen (sog. „Machine Learning“) auf Basis umfangreicher Datensätze entstehen. Enthalten diese Datensätze personenbezogenen Daten, ist zu prüfen, ob das verwendete KI-Modell dennoch als anonym angesehen werden kann. Dies ist besonders bei solchen Modellen zweifelhaft, die personenbezogene Daten, mit denen sie im Zuge ihrer Entwicklung gefüttert wurden, dann auch wieder bereitstellen oder verfügbar machen sollen.
Prüfung der Anonymität von KI-Modellen
Ausführlich befasst sich der EDSA mit Frage, unter welchen Umständen ein KI-System als anonym qualifiziert werden kann. Selbst wenn ein KI-Modell nicht auf die Verarbeitung oder Ausgabe solcher Informationen abzielt, können personenbezogene Daten (z.B. aus dem Trainingsdatensatz) in den Verarbeitungsparametern des Modells verbleiben. Dem EDSA zufolge obliegt daher den Datenschutzbehörden die Prüfung, ob ein konkretes KI-Modells tatsächlich Anonymität für sich in Anspruch nehmen kann. Dabei zu berücksichtigen sind die Eigenschaften der Trainingsdaten, der Kontext der Modellnutzung und verfügbare Technologien, um Daten aus dem KI-Modell zu extrahieren.
Wer ein KI-Modell nutzen möchte, ohne dabei an die Vorgaben der DSGVO gebunden zu sein – also etwa die Pflichten zur Führung von Verarbeitungsverzeichnissen, zur Information der Betroffenen oder zum Abschluss einer Auftragsverarbeitervereinbarung mit dem Anbieter des KI-Modells –, wird deshalb die Anonymität des genutzten KI-Modells gegenüber der Aufsichtsbehörde nachzuweisen haben. Dazu ist der Nachweis erforderlich, dass personenbezogene Daten weder aus dem Modell extrahiert noch durch Abfragen gewonnen werden können.
Verarbeitung personenbezogener Daten durch KI-Modelle
Dokumentation und Transparenz
Gelingt der Nachweis der Anonymität nicht oder ist bei der Verwendung eines KI-Modells ohnehin die Verarbeitung personenbezogener Daten vorgesehen, sind vom Verantwortlichen die Vorschriften der DSGVO einzuhalten. Das bedeutet einerseits, dass der Zweck der Verarbeitung sowie Art und Umfang der verarbeiteten Daten dokumentiert sein müssen. Andererseits muss die Verarbeitung für die Betroffenen, deren Daten verarbeitet werden, transparent und nachvollziehbar sein.
Dieser Transparenz misst der EDSA besondere Bedeutung zu. Denn aufgrund der Komplexität der Technologie von KI-Modellen sollten diesbezügliche Informationen über die Datenverarbeitung den Betroffenen in einer zugänglichen, verständlichen und benutzerfreundlichen Form bereitgestellt werden.
Rechtsgrundlage und berechtigtes Interesse
Rechtsgrundlagen wie die Einwilligung, die Vertragserfüllung oder die Erfüllung einer rechtlichen Verpflichtung werden bei der Nutzung von KI-Modellen nur selten greifen. Deshalb setzt sich der EDSA ausführlich mit der Frage auseinander, welche Voraussetzungen erfüllt sein müssen, damit die Datenverarbeitung durch KI-Modelle auf das berechtigte Interesse als Rechtsgrundlage gestützt werden kann. Hierfür sieht der EDSA eine dreistufige Prüfung vor:
- das verfolgte Interesse muss legitim sein (wie beispielsweise die Entwicklung eines Chatbots oder die Betrugserkennung);
- die Verarbeitung muss für diesen Zweck erforderlich sein (es muss also geprüft werden, ob weniger tief in die Rechte der Betroffenen eingreifende Verarbeitungsmöglichkeiten bestehen);
- das Interesse der Betroffenen (am Schutz ihrer Privatsphäre, ihrer Meinungsfreiheit oder vor Diskriminierung) darf das Interesse des Verantwortlichen an der Verarbeitung nicht überwiegen.
Zu unterscheiden ist hierbei zwischen Personen, deren Daten im Entwicklungsdatensatz enthalten sind, und Personen, deren Daten in der Einsatzphase verarbeitet werden. Eine ebenso wichtige Rolle beim Interessensausgleich spielt die Frage, ob die Betroffenen mit der Art der Verarbeitung ihrer Daten durch das KI-Modell vernünftigerweise rechnen müssen (was nicht mir der Erfüllung der Transparenzanforderungen nach der DSGVO verwechselt werden darf).
Risikominimierung
Verantwortliche sind daher in besonderem Maße dazu aufgefordert, Risiken für die Betroffenen zu minimieren. Dafür kommen Sicherheitsmaßnahmen wie die Pseudonymisierung, Maskierung persönlicher Daten oder deren Ersetzung durch Fake-Daten in Betracht. In diesem Zusammenhang bezeichnet der EDSA solche Maßnahmen als besonders wichtig, die den Betroffenen die einfache Ausübung ihrer Rechte ermöglichen – etwa eine angemessene Wartezeit zwischen der Erhebung von Daten und ihrer anschließenden Nutzung sowie die Möglichkeit eines bedingungslosen Opt-outs.
Für spezifische Risiken bei KI-Modellen – wie beispielsweise Web Scraping – können außerdem spezifische Schutzmaßnahmen notwendig werden (bei Web Scrapin etwa der Ausschluss bestimmter Datenquellen oder die Berücksichtigung von robots.txt- bzw. ai.txt-Dateien). Außerdem sollten in der Einsatzphase Maßnahmen ergriffen werden, um die Speicherung oder Generierung personenbezogener Daten so weit wie möglich verhindern.
Rechtsfolgen bei Verstößen gegen die DSGVO
Vorweg ist anzumerken, dass die unrechtmäßige Verarbeitung personenbezogener Daten in der Entwicklungsphase eines KI-Modells erhebliche Auswirkungen auf die Rechtmäßigkeit der nachfolgenden Verarbeitungen haben kann. Bei einer rechtswidrigen Datenverarbeitung durch KI-Modelle bestehen für die nationalen Aufsichtsbehörden Prüf-, Anordnungs- und Sanktionsbefugnisse. Die Aufsichtsbehörde kann Korrekturmaßnahmen anordnen, Geldbußen (von bis zu EUR 20 Mio. bzw. 4% des konzern- und weltweiten Jahresumsatzes) verhängen oder gar die Löschung des gesamten Datensatzes oder des KI-Modells verfügen.
Außerdem können Betroffene ihre Rechte auf Auskunft, Löschung, Widerspruch oder Einschränkung der Verarbeitung ihrer Daten nicht nur durch eine Beschwerde an die Datenschutzbehörde geltend machen, sondern auch auf gerichtlichem Weg durchsetzen. Haben Betroffene infolge einer unrechtmäßigen Verarbeitung ihrer Daten durch ein KI-Modell einen materiellen oder immateriellen Schaden erlitten, können sie außerdem Schadenersatz fordern.
Fazit
Unternehmen müssen genau prüfen, ob ihre KI-Systeme den hohen Anforderungen des europäischen Datenschutzes enstprechen. Die in der Stellungnahme der EDSA geforderte Transparenz und Dokumentation sowie das dreistufige Prüfverfahren für berechtigte Interessen ist richtungsweisend. Angesichts der drastischen Sanktionsmöglichkeiten ist eine sorgfältige Implementierung dieser Vorgaben unerlässlich. Für weitere Informationen und eine individuelle Beratung steht Ihnen Matija Pfefferkorn und Roman Taudes unter der Telefonnummer 01 3912345 oder per E-Mail office@atb.law zur Verfügung.