• Fr. Nov 22nd, 2024

Italiens Datenschutzbehörde stoppt ChatGPT

Italiens Behörden haben ChatGPT vorerst gesperrt. (Urheber/Quelle/Verbreiter: Richard Drew/AP/dpa)

Italiens Datenschutzbehörde hat den populären Text-Automaten ChatGPT im Land vorläufig gesperrt. Sie verwies am Freitag unter anderem darauf, dass der Betreiber OpenAI nicht ausreichend über die Verwendung von Daten informiere. Auch gebe es keine Filter, die verhinderten, dass Kinder im Alter unter 13 Jahren für sie «absolut unangebrachte» Informationen angezeigt bekämen. Es seien Ermittlungen eingeleitet worden.

Die Behörde verbot zugleich vorsorglich die Verarbeitung von Daten von Nutzern aus Italien – ChatGPT ist damit in dem Land nicht mehr anwendbar. OpenAI bekam 20 Tage Zeit, Maßnahmen gegen die Vorwürfe zu präsentieren. Danach droht eine Strafe bis zu 20 Millionen Euro oder vier Prozent des weltweiten Umsatzes.

Massenhaft personenbezogene Daten gesammelt

Die Datenschutzbehörde verwies auch auf eine jüngst bekanntgewordene Datenpanne. Dabei hatten Nutzer von ChatGPT zum Teil Informationen aus fremden Profilen zu sehen bekommen. Das Problem ging laut OpenAI auf einen Fehler in einer für ChatGPT verwendeten Software zurück.

ChatGPT basiert darauf, dass die Software enorme Mengen von Texten erfasst. Sie kann auf dieser Basis Sätze formulieren, die von denen eines Menschen kaum zu unterscheiden sind. Dabei schätzt das Programm, welche Worte als nächstes in einem Satz folgen könnten. Dieses Grundprinzip birgt unter anderem das Risiko, dass die Software «Fakten halluziniert», wie OpenAI es nennt – falsche Informationen als korrekt wiedergibt.

Die italienischen Datenschützer sehen auch ein grundsätzliches Problem darin, wie ChatGPT trainiert wurde. Es gebe keine rechtliche Grundlage für die massenhafte Sammlung und Speicherung personenbezogener Daten zum Trainieren der Algorithmen.

Verbreitung von falschen Informationen

Die Behörde war im Februar bereits auf ähnliche Weise gegen einen anderen Chatbot mit dem Namen Replika vorgegangen. Dabei ging es vor allem darum, dass Kinder im Alter unter 13 Jahren ungenügend geschützt würden.

ChatGPT hatte in den vergangenen Monaten damit beeindruckt, wie gut die Software menschliche Sprache imitieren kann. Zugleich gibt es Sorgen, dass solche Technik auf Basis künstlicher Intelligenz zum Beispiel für die Verbreitung falscher Informationen missbraucht werden könnte.