6 min. Lesezeit

ChatGPT und Datenschutz: Rechtliche Fragen beim Einsatz von ChatGPT in der Kundenkommunikation

Chatbots
Carsten Ulbricht ChatGPT Datenschutz blog title
Teilen über:

ChatGPT und Datenschutz: Was gibt es für Unternehmen zu beachten? Und, ist das Risiko überhaupt so groß wie viele glauben? Genau darüber haben wir in unserer Conversational Everything Masterclass mit Datenschutzanwalt und IT-Experten Dr. Carsten Ulbricht gesprochen. 

GPT, Bard und seit Kurzem auch LLaMA: Die neuen KI-Modelle von Tech-Unternehmen wie OpenAI, Microsoft, Meta und Google zeigen, wie schnell künstliche Intelligenz an Bedeutung gewonnen hat. Genau deshalb ist es auch unerlässlich, sich mit den rechtlichen Aspekten dieser Technologien auseinanderzusetzen. 

Wie kann ChatGPT rechtssicher in der Kundenkommunikation genutzt werden? Wie sollten Unternehmen den Einsatz von ChatGPT gegenüber ihren Kund:innen kommunizieren? Muss sich mein Chatbot als Chatbot zu erkennen geben?

Expertenmeinung zu ChatGPT und Datenschutz

Um die brennendsten Fragen rund um das Thema "ChatGPT Datenschutz" zu klären, haben wir uns diesmal in unserer Conversational Everything Masterclass mit dem renommierten Rechts- und Datenschutzexperten Dr. Carsten Ulbricht zusammengesetzt.

Wir beleuchten die Datenschutzaspekte von ChatGPT, einem der bekanntesten KI-gesteuerten Chatbots, und geben wertvolle Einblicke, wie Unternehmen diese innovative Technologie rechtssicher in ihrer Kundenkommunikation einsetzen können. 

Watch Rechtsanwalt Dr. Carsten Ulbricht: ChatGPT & Datenschutz: Rechtliche Fragen beim Einsatz von ChatGPT on YouTube.

Verantwortlichkeit und Datennutzung

Die erste Frage, die sich bei der Unternehmensnutzung von Large Language Modellen (LLM) wie GPT stellt, ist: Wer ist für den Datenschutz verantwortlich? Genau hier entsteht bereits viel Verwirrung erklärt Dr. Carsten Ulbricht.

Denn wie genau OpenAI personenbezogene Daten verarbeitet, ist zwar für Datenschutzbehörden wichtig (und für OpenAI, um in bestimmten Märkten agieren zu dürfen), für Unternehmen jedoch irrelevant. 

Im Unternehmenskontext ist für Betriebe aus Datenschutzsicht nur eins wichtig: Wie nutzen sie ChatGPT? Und hier gilt laut Ulbricht: Nur wenn Unternehmen und Mitarbeitende personenbezogene Daten bei ChatGPT eingeben, stellt sich überhaupt ein Problem. 

Zitat Carsten Ulbricht ChatGPT

Werden keine personenbezogenen Daten eingesetzt (etwa, wenn ein:e Marketer:in eingibt: "Schreibe mir einen WhatsApp-Newsletter Text für das Produkt XY") ist das unproblematisch, denn dabei fallen keine Daten bei ChatGPT an, die in irgendeiner Form den Datenschutz betreffen. 

Das bedeutet wiederum: Für sehr viele Use Cases ist ChatGPT im Unternehmen rechtlich überhaupt nicht bedenklich. 

Warum war ChatGPT in Italien verboten?

Viele Unternehmen hat das "Verbot" von ChatGPT in Italien verunsichert. Hier stellt Ulbricht aber klar: Die genauen Gründe für ein mögliches Verbot von ChatGPT in Italien, sind gar nicht öffentlich bekannt.

Es könne jedoch verschiedene Gründe für solch ein Verbot geben, so der IT-Experte. Darunter fallen eventuell Bedenken hinsichtlich des Datenschutzes, der Einhaltung von Gesetzen und Vorschriften oder spezifischen nationalen Bestimmungen.

Es ist auch möglich, dass es zu Missverständnissen oder Kommunikationsschwierigkeiten zwischen OpenAI und den italienischen Behörden gekommen ist. Solche Situationen können dazu führen, dass ein Dienst vorübergehend in einem bestimmten Land nicht verfügbar ist, bis die Angelegenheit geklärt ist.​

Welche Richtlinien sollten Unternehmen beim Einsatz von ChatGPT beachten? 

Insbesondere in einer zunehmend digitalisierten Arbeitswelt, in der der Einsatz von KI-Systemen immer geläufiger wird, sind die Mitarbeiter:innen eine wichtige Zielgruppe für die Einhaltung von Datenschutzbestimmungen wie der DSGVO.

Was müssen Betriebe hier also spezifisch beachten? 

Unternehmen sollten den Einsatz von generativen KI-Systemen wie ChatGPT durch klare Richtlinien regulieren. Also: Was dürft ihr bei ChatGPT angeben und was nicht?

Bau Richtlinien für dein Team, sag welche Use Cases du willst, welche nicht und auf was das Team aufpassen muss.

Dr. Carsten Ulbricht, Rechtsanwalt und Datenschutzexperte bei Menold Bezler

Solche Guidelines können dabei helfen, die Mitarbeiter:innen in die Einhaltung sowohl gesetzlicher als auch unternehmenseigener Datenschutzbestimmungen einzubinden.

💡Mehr dazu unter: KI & Recht: Richtlinien für die rechtssichere Nutzung von ChatGPT

Was ist aber, wenn Unternehmen ChatGPT für die Kundenkommunikation einsetzen wollen, wo durchaus personenbezogene Daten anfallen? Gibt es hier rechtliche Absicherungen?

ChatGPT und Datenschutz: Unterschiede zwischen der kostenlosen und kostenpflichtigen Variante 

Im Kundenservice sollten Unternehmen zwischen der kostenlosen und der kostenpflichtigen Variante von ChatGPT unterscheiden.

Die kostenlose ChatGPT-Variante wirft tatsächlich viele datenschutzrechtliche Fragen auf. Was viele aber nicht wissen, es gibt auch eine Premium-Variante, die über eine Auftragsverarbeitungsvereinbarung (AVV), die mehr Rechtssicherheit bietet.

Da diese aber (noch) nicht den Anforderungen der DSGVO entspreche, ist auch damit der Datenschutz nicht zu 100 Prozent garantiert. 

Es gibt aber noch eine dritte Variante, erklärt Carsten Ulbricht. 

Zitat Carsten Ulbricht ChatGPT

Bei diesem "On-Premise-Modell" docken sich Unternehmen an die Schnittstelle von ChatGPT an, bauen aber ihr eigenes Ökosystem um das KI-Modell. Damit können sie dann sowohl die genutzten Daten, deren Weitergabe und Verarbeitung zu 100 Prozent kontrollieren. 


Sinch Engage bietet eine solche Integrationsmöglichkeit für Large Language Models für Chatbots an

Mehr Power für deinen Chatbot

Potenziere jetzt deinen Chatbot mit fortgeschrittener KI! Unser Team zeigt dir, welche Optionen du hast und beantwortet alle Fragen! 


Für Unternehmen ist ein Hindernis beim Einsatz von offenen KI-Modellen auch, dass die Daten in den USA verarbeitet werden. Auch hier kann das On-Premise-Modell Rechtssicherheit schaffen. 

Und: Anfang Juli 2023 ist das Transatlantic Data Privacy Framework in Kraft getreten, ein neues Datenschutzabkommen zwischen der EU und den USA. Unternehmen in den USA können sich darunter zertifizieren lassen und garantieren damit eine Datenverarbeitung, die dem EU-Recht entspricht.

💡Zum Weiterlesen: So kannst du WhatsApp nutzen und Datenschutz garantieren

Rechtssicherheit bei der Nutzung von ChatGPT

Es gibt also pauschal aus rechtlicher Sicht nichts, was gegen die Anwendung von LLM in Unternehmen führt. Natürlich sollte aber jedes Unternehmen vorab mit Expert:innen klären, ob die geplante Anwendung problematisch ist oder nicht und darauf basierend dann das Risiko und mögliche Lösungen abwägen, rät Ulbricht. 

Generell rät der Experte aber allen Unternehmen dazu, die Technologie auszuprobieren. 

Zitat Carsten Ulbricht ChatGPT

Allerdings gebe es aber neben den rechtlichen Aspekten auch noch die Qualität zu bedenken. Denn insbesondere wenn es um den direkten Kundenaustausch geht, hat ChatGPT noch Mängel. "Es gibt hier qualitative Herausforderungen, ob ChatGPT überhaupt eine richtige Antwort geben kann oder nur 'halluziniert'."

Als First-Level-Hilfe, in der die KI erstmal Daten sammelt und so dem Team Arbeit abnimmt, sieht Ulbricht ChatGPT aber durchaus in der Kundenkommunikation. 

Muss sich mein Chatbot als Chatbot zu erkennen geben?

Hier stellt sich dann natürlich die Frage, ob Unternehmen klar kommunizieren müssen, dass Kund:innen gerade mit einer KI sprechen. 

Im Moment gibt es dazu noch keine rechtlichen Anforderungen. Die Europäische Union wird dies aber in Zukunft regulieren. Die KI-Verordnung (AI Act) ist bei der EU in Planung und wird dann nach Risiko-Systemen differenzieren. 

Als Best Practice gilt aber: Chatbots sollten sich identifizieren. Damit klären Unternehmen von Anfang an die Erwartungshaltung bei den Kund:innen und agieren transparent.

Wer haftet, wenn der Chatbot falsche Aussagen trifft?

Bei ChatGPT ist es gar nicht so selten, dass die KI auch ohne die richtige Information eine Antwort fabriziert. Dazu muss man wissen: GPT ist kein Faktenchecker, sondern gibt die Antwort, die mit höchster statistischer Wahrscheinlichkeit korrekt ist. Und: Transparent über seine Quellen ist GPT auch nicht. 

Das kann natürlich im Unternehmenskontext für Problemen führen. Wenn also eine Kundin fragt, ob sie ihre Rechnung drei Monate später beantworten kann und ChatGPT sagt "ja", dann muss das Unternehmen in den sauren Apfel beißen.

"Wenn ich als Unternehmen ein Werkzeug benutze und das baut Mist, hafte ich als Unternehmen auch dafür!"

Dr. Carsten Ulbricht, Rechtsanwalt und Datenschutzexperte bei Menold Bezler

Auch hier gibt es aber eine Lösung: Die erwähnte On-Premise-Lösung, bei der das LLM mit den eigenen Unternehmensdaten gefüttert wird, hat in der Regel nicht solche Patzer. 

Plagiate und ChatGPT

Die Frage nach Plagiaten in Bezug auf KI-generierte Inhalte wie die von ChatGPT ist komplex. Im Allgemeinen gilt jedoch, dass ein Plagiat vorliegt, wenn etwas sehr ähnlich oder identisch mit einem bereits existierenden, urheberrechtlich geschützten Werk ist.

Bei Texten, die von ChatGPT erstellt werden, ist das Risiko eines Plagiats in der Regel sehr gering. Das liegt daran, dass ChatGPT jedes Mal einen neuen, statistisch wahrscheinlichen Text erstellt, der sehr weit von bestehenden Originaltexten entfernt ist. Daher ist die Wahrscheinlichkeit, dass ein von ChatGPT generierter Text als Plagiat eines bestehenden Textes angesehen wird, sehr gering.

Bei Bildern und Videos kann die Situation jedoch anders sein. Wenn ein KI-System wie ChatGPT dazu aufgefordert wird, ein Bild oder Video zu erstellen, das sehr nah an einem bestehenden, urheberrechtlich geschützten Werk ist, könnte dies als Plagiat angesehen werden.

Urheberrecht und ChatGPT

Ein weiterer wichtiger Aspekt ist das Urheberrecht. Unternehmen müssen sicherstellen, dass die Verwendung von ChatGPT keine Urheberrechtsverletzungen verursacht.

Die Werke, die aus KI-Systemen wie ChatGPT entstehen, sind nach deutschem und US-amerikanischem Recht nicht urheberrechtlich geschützt.

Dr. Carsten Ulbricht, Rechtsanwalt und Datenschutzexperte bei Menold Bezler

Dies liegt daran, dass das Urheberrecht vorsieht, dass Werke wie Texte, Bilder oder Videos nur dann geschützt sind, wenn ein Mensch sie erstellt hat. Im Umkehrschluss heißt das: Alles, was eine KI erstellt, ist wiederum vom Urheberrecht nicht geschützt. 

Fazit zu ChatGPT und Datenschutz

Die Nutzung von KI-gesteuerten Chatbots wie ChatGPT kann Unternehmen viele Vorteile bieten. Es ist jedoch wichtig, sich vorab über die rechtlichen und datenschutzrechtlichen Aspekte im Klaren zu sein.

Unternehmen sollten ebenfalls klare Richtlinien für den Einsatz dieser Technologien festlegen und sicherstellen, dass sie die Datenschutzbestimmungen einhalten. Mit der richtigen Vorbereitung und den richtigen Richtlinien kann ChatGPT ein wertvolles Werkzeug für die Kundenkommunikation sein.

    Image of Marinela Potor, editor-in-chief at Sinch Engage.
    Autor:in: Marinela Potor
    editor-in-chief