Datenschutzanwälte mit über 50 Jahren Erfahrung

Kostenlose Erstberatung
/insights

Aktualisiert Mittwoch, Mai 24, 2023

Aktualisiert Mittwoch, Mai 24, 2023

Datenschutzaspekte bei der Nutzung der ChatGPT-API

Aktuelle Entwicklungen und Lösungsmöglichkeiten im Umgang mit der ChatGPT-API (Update)

Boris Arendt

Salary Partner (Rechtsanwalt)

Aktuelle Entwicklungen
Nutzung von ChatGPT über die OpenAI API Plattform
Wer ist verantwortlich?
Was ist bei der Nutzung der API zu beachten?
Update vom 16.05.2023
Fazit

Erhalten Sie Unterstützung von unseren Anwälten

Datenschutz kann kompliziert sein. Unser erfahrenes Team unterstützt Sie gern.

Kostenlose Erstberatung

Nachdem OpenAI im November 2022 den Chatbot ChatGPT ins Leben gerufen hat, überschlagen sich die Ereignisse. Auf die datenschutzrechtlichen Herausforderungen hatten wir in unseren „Insights“ im März bereits hingewiesen. Aber was ist mit der ChatGPT-API?


Aktuelle Entwicklungen

Es vergeht kein Tag, an dem nicht spannende Neuigkeiten rund um OpenAI oder anderen AI-Akteuren veröffentlicht werden, aber auch neue Probleme und Herausforderung bekannt werden.

So musste auch OpenAI seinen ersten, bekanntgewordenen, Datenschutzvorfall verzeichnen, als die Chat-Historie sowie die E-Mail-Adressen und Kontaktinformationen von anderen Nutzern offengelegt wurden.

Ende März hat die italienische Datenschutzaufsichtsbehörde den Betrieb von ChatGPT in Italien untersagt, weil es unter anderem an einer Rechtsgrundlage für die Verarbeitung von personenbezogenen Daten für das Trainieren des AI-Algorithmus fehle und kein wirksames Altersverifikationssystem für den Schutz von Kindern unter 13 Jahren integriert war.

Öffentlichkeitswirksam hebt die Aufsichtsbehörde in Ihrer Pressemitteilung hervor, dass OpenAI mit einem Bußgeld von bis zu 20 Millionen Euro oder von 4% des weltweiten Jahresumsatzes zu rechnen habe, wenn es die Anforderungen der Anordnung nicht umsetzt. OpenAI wurde eine Frist von 20 Tagen gesetzt, um auf die Anordnung der Behörde zu reagieren, einen ersten Dialog zwischen Aufsichtsbehörde und OpenAI hat es bereits gegeben.

Auch die kanadische Aufsichtsbehörde hat inzwischen angekündigt, Untersuchungen gegen OpenAI einzuleiten. Es dürfte daher nur eine Frage der Zeit sein, dass auch weitere Aufsichtsbehörden diesem Beispiel folgen.


Nutzung von ChatGPT über die OpenAI API Plattform

Die aktuellen Reaktionen richten sich vor allem an ChatGPT von OpenAI. Der Chatbot wird in einer kostenlosen freien Version sowie über ein kostenpflichtiges Abo angeboten. Adressat der aufsichtsbehördlichen Maßnahmen ist daher auch erst einmal OpenAI direkt.

ChatGPT wird allerdings auch über die OpenAI API Plattform angeboten. Über diese API-Plattform können Unternehmen ChatGPT in ihre eigenen Services integrieren. Ein sehr häufiges Szenario ist die Einbindung von ChatGPT in den Kundensupport, aber auch Apps wie Snapchat, Quizlet und Shopify haben ChatGPT bereits über die API eingebunden. Erst kürzlich hat die Helvetia Versicherung aus der Schweiz ChatGPT in Ihren Kunden-Chatbot integriert. In den Nutzungshinweisen wird der Chatbot als Experiment vorgestellt über den Fragen über Versicherungen und Vorsorge beantwortet werden können. Die Kunden werden danach gebeten keine personenbezogenen Themen in den Chatbot eingeben.

Auch uns erreichen vermehrt Anfragen, wie Produkte von OpenAI über die API in die Produkte und Dienstleistungen unserer Kunden rechtskonform eingebunden werden können.


Wer ist verantwortlich?

Sofern Unternehmen ChatGPT über die API in ihre Produkte und Dienstleistungen integrieren, werden diese in aller Regel auch im datenschutzrechtlichen Sinne zum Verantwortlichen. OpenAI (genauergesagt die OpenAI, L.L.C., 3180 18th St, San Francisco, CA 94110) wird in diesen Fällen zu einem Dienstleister und Auftragsverarbeiter, der auf Weisung des die API nutzenden Unternehmens handelt.

Als Verantwortlicher muss jedes die API nutzende Unternehmen für jeden (Daten-)Verarbeitungsschritt nachweisen können, dass die betreffende Verarbeitung datenschutzkonform ist. Während die italienische Aufsichtsbehörde in ihrer Anordnung noch OpenAI direkt adressiert hat, könnte künftig auch jedes, die API nutzende Unternehmen, Adressat von aufsichtsbehördlichen Maßnahmen werden, wenn es die geltenden Datenschutzanforderungen bei der Integration von ChatGPT nicht ordnungsgemäß umsetzt.


Was ist bei der Nutzung der API zu beachten?

Der Verantwortliche (das die API nutzende Unternehmen) muss nachweisen können, auf welcher Rechtsgrundlage die Datenverarbeitung bei der Nutzung des Chatbots erfolgt. Dies dürfte bezüglich der reinen Diensterbringung (z.B. Kundensupport) noch recht unproblematisch sein, da der Verantwortliche sich regelmäßig auf eine Erforderlichkeit zur Wahrung eines berechtigten Interesses (Art. 6 Abs. 1 f) DSGVO) oder zur Vertragserfüllung (Art. 6 Abs. 1 b) DSGVO) berufen kann.

Problematischer wird es, wenn es um die (Weiter-) Nutzung der Eingaben (Prompts) für das Trainieren des AI-Algorithmus geht, da diese Verarbeitung für Zwecke von OpenAI nicht mehr von der Auftragsverarbeitung zwischen Verantwortlichen und OpenAI gedeckt ist. Denkbar ist zwar, dass sich der Verantwortliche eine Einwilligung des Nutzers einholt, der auch die Weiterverarbeitung durch OpenAI abdeckt. Ratsamer ist jedoch, die Weiterverarbeitung der Eingaben durch OpenAI vollends auszuschließen, damit die zum Teil sensiblen Inhalte nicht für den AI-Algorithmus weiterverarbeitet werden.

API-Content vs. Non-API-Content

OpenAI differenziert zwischen „Non-API-Content“ und „API-Content“. Inhaltseingaben von Nutzern, die über die ChatGPT API (API-Content) empfangen, werden ausweislich der Nutzungsbedingungen nicht für eigene Zwecke von OpenAI (z.B. für zur Weiterentwicklung und Service-Verbesserung) genutzt, es sei denn, der Nutzer bzw. Kunde wünscht dies ausdrücklich. Nur der Non-API-Content wird standardmäßig für das Training des AI-Algorithmus genutzt, wobei den Nutzern eine Opt-Out-Möglichkeit angeboten wird. Die Abmeldung kann über ein Webformular erfolgen, das mit dem Benutzerkonto verknüpft wird. Es bleibt abzuwarten, ob dieser Prozess wirksam funktioniert.

Aus vertraglicher Sicht sieht es daher für den die API nutzenden Verantwortlichen erst einmal so aus, als wären sie damit auf der sicheren Seite. Die Privacy Policy von OpenAI sieht indes noch weitere Verwendungszwecke vor, wie z.B. die Analyse und Verbesserung der Services, die Durchführung von Forschungen sowie die Entwicklung neuer Programme und Dienste. Insofern bleibt unklar, ob jegliche Verarbeitung für Zwecke von OpenAI ausgeschlossen bleibt oder nur die Verarbeitung für das Trainieren des Algorithmus. An dieser Stelle wäre eine Klarstellung wünschenswert, dass keine Kundendaten oder Eingaben von Nutzern für eigene Zwecke verarbeitet werden.

Transparenz für Nutzer

Der Verantwortliche muss gegenüber seinen Nutzern die Datenverarbeitung bei der Nutzung von OpenAI Diensten transparent machen. Dies erfolgt regelmäßig über Datenschutzhinweise als Ausprägung der nach Art. 13 bzw. Art. 14 DSGVO geltenden Informationspflichten.

Hier reicht es für den Verantwortlichen allerdings nicht aus, nur auf die Privacy Policy von OpenAI zu verweisen. Vielmehr muss er eigenständig darüber informieren, wie und zu welchen Zwecken die Daten der Nutzer vom Verantwortlichen und deren Auftragsverarbeiter verarbeitet werden, wie lange diese gespeichert bleiben und wann diese wieder gelöscht werden.

Erforderlich ist auch, dass den Nutzern transparent gemacht wird, wie sie ihre Betroffenenrechte ausüben können. Zudem muss zwischen Verantwortlichen und OpenAI festgelegt werden, wie die Einhaltung der Betroffenenrechte bei Dienstleistern wie OpenAI sichergestellt werden können.

Vertragliche Anforderungen

Bei der Nutzung von OpenAI Diensten über die OpenAI API Plattform entsteht ein Auftragsverarbeitungsverhältnis zwischen dem Verantwortlichen als Auftraggeber und OpenAI als Auftragsverarbeiter. Für diese Zwecke stellt OpenAI ein Data Processing Agreement (DPA Stand 05.04.2023) bereit, das über einen elektronischen Zeichnungsprozess abgeschlossen werden kann. Genau zu prüfen ist aber, ob die jeweilige Nutzung auch tatsächlich eine Auftragsverarbeitung ist.

Denn es sind auch Konstellationen denkbar, in denen die Parteien als gemeinsam Verantwortliche nach Art. 26 DSGVO anzusehen sind (z.B. wenn Trainingsdaten des Kunden zusammen mit OpenAI für beide Akteure für deren Zwecke verarbeitet werden). Ein Muster für ein Vertrag nach Art. 26 DSGVO stellt OpenAI derzeit (noch) nicht bereit.

Werden die Daten über die API in Drittländern (z.B. in den USA) verarbeitet, müssen zusätzlich Standardvertragsklauseln (SCC) abgeschlossen werden. OpenAI hat die SCCs in ihr DPA integriert, da die Datenverarbeitung nach ihren Angaben in den USA erfolgt. Solange es noch keinen Angemessenheitsbeschluss der EU-Kommission zum EU-US-Datenschutzrahmen (EU-U.S. Data Privacy Framework) gibt (mehr dazu in diesen Insights), muss der Verantwortliche zudem ein sogenanntes Transfer Impact Assessement (TIA) durchführen und ggf. zusätzliche Maßnahmen zum Schutz der Daten vereinbaren.

Datenschutzfolgenabschätzung (DSFA) und Datensicherheit

Sofern die Datenverarbeitung bei der Nutzung der ChatGPT API mit hohen Risiken für die Betroffenen verbunden ist, ist zwingend eine Datenschutzfolgenabschätzung (DSFA) nach Art. 35 DSGVO durchzuführen.

Das Gremium der deutschen Datenschutzaufsichtsbehörden (Datenschutzkonferenz - DSK) hat eine so genannte Positivliste veröffentlicht, in der Verarbeitungstätigkeiten genannt sind, für die eine DSFA zwingend durchzuführen ist. Einschlägig sind hier insbesondere Ziffer 11 der Liste (Kundensupport mittels künstlicher Intelligenz) oder auch Ziffer 13 (Telefongesprächsauswertung mittels Algorithmen). In diesem Rahmen ist es von entscheidender Bedeutung für welche Zwecke der Dienst eingesetzt werden soll. Wenn der ChatBot zum Beispiel in den Kundensupport einer Krankenversicherung (wie im Beispiel der Helvetia Versicherung, siehe oben) integriert werden soll, können recht schnell Gesundheitsdaten verarbeitet werden und es müsste im Rahmen der DSFA analysiert werden, wie das Risiko der Offenlegung von sensiblen Informationen und Gesundheitsdaten wirksam behandelt bzw. ausgeschlossen werden kann.

Die DSFA verfolgt das Ziel, strukturiert die Risiken für die Betroffenen zu identifizieren und zu bewerten sowie zu bestimmen, wie diese Risiken mit technischen und organisatorischen Maßnahmen behandelt und auf ein akzeptables Niveau reduziert werden können. Spätestens an dieser Stelle dürfte eine vertiefte Auseinandersetzung mit einem Sicherheitskonzept von OpenAI erforderlich werden. Ausweislich des DPA von OpenAI wird dieses jedoch nur auf Anfrage zur Verfügung gestellt. Die frei verfügbaren Informationen auf der Website dürften für sich genommen noch nicht ausreichen, eine verlässliche Bewertung vorzunehmen, ob die Maßnahmen den bewerteten Risiken wirksam entgegengesetzt werden können.


Update vom 16.05.2023

Am 28. April 2023 wurde das Verbot von ChatGPT in Italien von der italienischen Aufsichtsbehörde wieder aufgehoben, nachdem OpenAI den Dienst insgesamt transparenter dargestellt , eine Altersüberprüfung für einheimische Nutzer vorgeschaltet sowie die Umsetzung von Betroffenenrechten erleichtert hat.

Hierzu hat OpenAI am 25.04.2023 insbesondere den Prozess zum Abstellen der Nutzung von Non-API-Content für eigene Trainingszwecke vereinfacht. Anstatt der bisherigen Abmeldung per Webformular, kann ab sofort in den Einstellungen die Speicherung der eigenen „Chat Historie“ per Mausklick abgestellt werden. Eine unter dieser Einstellung geführte Konversation wird von OpenAI anschließend für 30 Tage aufbewahrt und nur zur Überwachung etwaigen Missbrauchs überprüft.

Darüber hinaus hat OpenAI die Veröffentlichung von „ChatGPT Business“ in den kommenden Monaten angekündigt. ChatGPT Business wird den „API data usage policies“ folgen, wodurch die Daten der Endnutzer standardmäßig nicht zum Training der Modelle von OpenAI verwendet werden.

Zuletzt wurde durch OpenAI eine neue „Exportoption“ in den Einstellungen verankert. Diese ermöglicht es, ChatGPT-Daten zu exportieren und damit nachzuvollziehen, welche Informationen OpenAI speichert. Der Nutzer erhält dafür eine Datei mit seinen Gesprächen und allen anderen relevanten Daten per E-Mail.


Fazit

Die letzten Entwicklungen rund um KI-Anbieter dürften erst der Anfang einer längeren Konsolidierungsphase zwischen KI-Anbietern und Aufsichtsbehörden sein. Auch wenn der Hauptfokus aktuell auf OpenAI liegt, sind die Spannungsfelder auch auf andere Anbieter wie Googles Bard und andere übertragbar. Die aktuelle Dynamik erfordert daher eine aufmerksame Beobachtung der Entwicklungen damit rechtzeitig auf neue Anforderungen seitens der Aufsichtsbehörden oder des Gesetzgebers reagiert werden kann.

Auch wenn die Nachrichten derzeit von Berichten über Verbote, regulatorische Maßnahmen und Risiken dominiert werden, kann festgehalten werden, dass eine Integration von KI-Diensten in die eigenen Angebote und Services - zumindest aus Sicht des Datenschutzes - DSGVO-konform gestaltet werden kann.

Wenn Ihr Unternehmen erwägt, ChatGPT in sein Dienstleistungsangebot aufzunehmen, ist es ratsam, die Aspekte der Datenschutzkonformität bereits in der frühesten Planungsphase zu berücksichtigen (Privacy-by-design) und die rechtlichen Mindestanforderungen, wie die Rechtmäßigkeit und Transparenz der Datenverarbeitung, den Abschluss der notwendigen Datenschutzvereinbarungen, die Durchführung von Datenschutz-Folgenabschätzungen und die Überprüfung und Festlegung technischer und organisatorischer Maßnahmen zur Risikobewältigung, zu berücksichtigen.


Unternehmensberatung & Software

Simpliant GmbH

Rechtsberatung

Simpliant Legal - Wittig, Bressner, Groß Rechtsanwälte Partnerschaftsgesellschaft mbB