Seit der Einführung des KI-Sprachmodells ChatGPT durch OpenAI, hat dieses eine massive Nutzung erfahren. Sowohl Privatpersonen als auch Unternehmen greifen vermehrt auf die KI-Software zurück, um Ihre Dienste und Produkte zu verbessern. Gleichzeitig gibt es noch viele offene Fragen im Hinblick auf die Verwendung des Chatbots (Wir berichten hier.). Daher gerät ChatGPT immer mehr ins Visier der europäischen Datenschützer. Ein wesentliches Problem bei der Verwendung des Chatbots besteht darin, dass unklar ist, in welchem Umfang, zu welchen Zwecken und insbesondere auf welcher Rechtsgrundlage die Verarbeitung der personenbezogenen Daten der Nutzer stattfindet. Die italienische c.

 

Das Wichtigste in Kürze

  • Die italienische Datenschutzbehörde hat am 30. März ein landesweites Verbot für die Dienste von ChatGPT ausgesprochen.
  • Grund dafür sind Datenschutzverstöße und mangelhafter Jugendschutz.
  • Die Betreiber des Chatbots haben nun Zeit, um Abhilfemaßnahmen zu ergreifen, dann wird eine Rückkehr ab 30. April in Aussicht gestellt.
  • Verbraucherschutzorganisationen rufen die europäischen Mitgliedstaaten und Institutionen zur näheren Untersuchung von ChatGPT auf.

 

Italienische Datenschutzbehörde verhängt landesweites ChatGPT-Verbot

In einer Pressemitteilung vom 31. März 2023 gab die italienische Datenschutzbehörde (Garante per la Protezione dei Dati Personali, „Garante“) bekannt, dass sie am 30. März einen Bescheid erlassen hat, in dem eine vorübergehende Untersagung der Verarbeitung personenbezogener Daten von Nutzern aus Italien durch OpenAI angeordnet wurde.

Grund dafür sind mehrere datenschutzrechtliche Bedenken, die sich infolge einer Datenpanne, die am 20. März gemeldet wurde, bestätigt haben. Konkret sollen von der Datenpanne Kommunikationsdaten der ChatGPT-Nutzer und Informationen über Zahlungsvorgänge der Abonnenten des Dienstes betroffen gewesen sein. OpenAI zufolge sei die Datenpanne auf einen Fehler in einer für ChatGPT verwendeten Software zurückzuführen.

 

Verstöße gegen Datenschutzrecht und unzureichender Jugendschutz

In Ihrer Anordnung beanstandet die Behörde, dass den Nutzern, deren personenbezogene Daten von Open AI verarbeitet werden, keine Informationen zur Verfügung gestellt werden, sodass weitestgehend unklar bleibt, wie mit den Daten umgegangen wird, wer diese wie lange speichert und zu welchem Zweck dies erfolgt. Besonders problematisch sei ferner die Tatsache, dass unklar bleibt, welche Inhalte ChatGPT zu Trainingszwecken verwendet und dass es an einer Rechtsgrundlage für die massenhafte Erhebung und Verarbeitung der Nutzerdaten zum Training der Algorithmen fehlt. Da die Dienste intransparent arbeiten, ist es nur schwer, die Zulässigkeit der stattfindenden Datenverarbeitungen zu beurteilen.

Die Behörde teilte darüber hinaus mit, Überprüfungen durchgeführt zu haben, die gezeigt hätten, dass die von ChatGPT bereitgestellten Informationen nicht immer richtig sind, sodass ein Verstoß gegen das Prinzip der Datenrichtigkeit vorliege.

Zudem fehle es an einem Mechanismus zur Altersprüfung der Nutzer. Der Software fehlt eine Zugangsschranke für Nutzer unter 13 Jahren. Diese ist allerdings zwingend erforderlich, um sicherzustellen, dass Kindern keine unangebrachten Informationen bei der Verwendung des Tools angezeigt werden. Noch liege es in der alleinigen Verantwortung der Eltern und Erziehungsberechtigten darauf zu achten, dass eine Verwendung des Tools ausschließlich unter Aufsicht verwendet wird und insbesondere, dass die Kinder keine persönlichen Informationen eingeben werden.

Italien ist somit das erste europäische Land, welches den Zugang zu dem Chatbot sperrt.

Dabei handelt es sich jedoch zunächst um eine vorläufige Sperrung. Die Betreiber des Chatbots hatten insgesamt 20 Tage Zeit, um geeignete Abhilfemaßnahmen zu ergreifen und der Behörde vorzustellen. OpenAI hat jedoch angekündigt, dieser Anordnung Folge zu leisten und die Aufsichtsbehörde zeigt sich bereit, ChatGPT zum 30. April wieder zu erlauben.

 

BEUC fordert EU-Staaten und Institutionen zur Untersuchung von ChatGPT auf

Auch der Europäische Verbraucherverband BEUC hat Bedenken im Hinblick auf die KI-Software und hat daher am 30. März 2023 eine Pressemitteilung veröffentlicht, in der er die europäischen Datenschutzbehörden auffordert, eine Untersuchung von ChatGPT-4 und ähnlichen KI-Systemen einzuleiten.

Obwohl die EU derzeit an einem KI-Gesetz arbeitet, ist der Verbraucherverband besorgt, dass bis zum endgültigen Inkrafttreten und der Umsetzung Jahre vergehen könnten, sodass die Verbraucher dem Risiko ausgesetzt wären, durch eine Technologie geschädigt zu werden, die in dieser Übergangszeit nicht ausreichend reguliert ist und auf die Verbraucher nicht vorbereitet sind. Konkret befürchten die Verbraucherschützer, dass Nutzer falsche oder manipulierte Informationen, die von der KI-Software bereitgestellt, nicht erkennen könnten.

Da OpenAI keinen Hauptsitz innerhalb der Europäischen Union hat, steht es den Datenschutzbehörden eines jeden Mitgliedstaats frei, Untersuchungsmaßnahmen einzuleiten und Verbote durchzusetzen.

Nachdem mehrere europäische Datenschutzbehörden um eine Koordinierung von Untersuchungsmaßnahmen im Hinblick auf den KI-Chatbot gebeten haben, hat nun der Europäische Datenschutzausschuss reagiert und eine ChatGPT Task Force eingerichtet.

 

Vorerst kein ChatGPT-Verbot in Deutschland

Nachdem der Zugang zu ChatGPT in Italien landesweit blockiert und Untersuchungen gegen den Betreiber der Software eingeleitet wurden, stellt sich die Frage, ob solche Maßnahmen auch in Deutschland denkbar sind.

Eine Sprecherin des Bundesbeauftragten für Datenschutz und Informationsfreiheit (BfDI) teilte in einem Interview mit, dass ein solches Verbot generell auch in Deutschland denkbar wäre, weist allerdings gleichzeitig darauf hin, dass die Zuständigkeit für etwaige Untersuchungen von privatwirtschaftlichen Unternehmen, wie OpenAI bei den Landesdatenschutzbehörden liege.

Nach Angaben der Pressesprecherin des BfDI sollen zunächst die Ergebnisse der Untersuchung durch die italienische Datenschutzbehörde abgewartet werden. Stellt diese gravierende Verstöße gegen die Datenschutzgrundverordnung der EU fest, werden auch die deutschen Behörden entsprechende Untersuchungen einleiten.

Das Bundesministerium für Digitales und Verkehr spricht sich bisher gegen ein Verbot von KI-Software aus und betont, dass es stattdessen andere Wege geben muss, Werte wie Demokratie und Transparenz zu gewährleisten.

Auch der ehemalige baden-württembergische Landesdatenschutzbeauftragte Stefan Brink sieht keinen ausreichenden Grund zur Sperrung des Chatbots. Nach Auffassung des Datenschützers greife die KI zu Trainingszwecken zwar regelmäßig auch auf personenbezogene Daten zurück, soweit diese aber aus dem Internet bezogen werden, überwiegen regelmäßig die berechtigten Interessen der Entwickler, sofern die Entwicklung zu Forschungszwecke erfolgt. Im Hinblick auf die Frage des Kinder- und Jugendschutzes sei zu beachten, dass dieser grundsätzlich immer eingehalten werden muss, es sich dabei jedoch um keine KI-spezifische Problematik handle.

 

 

Ausblick

Es bleibt abzuwarten, ob OpenAI wie angekündigt die geforderten Abhilfemaßnahmen ergreift und Transparenz schafft. Fest steht, dass wir uns aktuell in einer kritischen Phase der Entwicklung von KI-Produkte befinden, in der neben vielen Chancen auch ernsthafte Risiken sowohl für Verbraucher als auch Unternehmen bestehen, sodass es bestimmter Sicherheitsvorkehrungen bedarf. Bis die von der EU geplante KI-Verordnung in Kraft tritt und offene Fragen im Hinblick auf den Datenschutz noch nicht geklärt sind, liegt es allein in der Verantwortung der jeweiligen Nutzer, ob und wie sie KI-Tools wie ChatGPT verwenden und welche Daten sie preisgeben. Insofern kann nur geraten werden, bei der Verwendung von ChatGPT und vergleichbarer Software Vorsicht walten zu lassen. Dies gilt insbesondere bei der Eingabe persönlicher Daten, da unklar ist, ob diese zu Trainingszwecken verarbeitet werden.

 

„>

Kontakt aufnehmen