OpenAI wurde mit einer weiteren Beschwerde konfrontiert, nachdem die Interessengruppe NOYB dem Unternehmen vorwarf, ungenaue Informationen, die von seinem KI-Chatbot ChatGPT verbreitet wurden, nicht zu korrigieren und damit möglicherweise gegen die EU-Datenschutzvorschriften zu verstoßen.
Laut Reuters berichtete NOYB, dass der Beschwerdeführer in ihrem Fall, eine Person des öffentlichen Lebens, über ChatGPT nach seinem Geburtstag fragte, aber wiederholt falsche Informationen erhielt, anstatt von dem Chatbot darüber informiert zu werden, dass ihm die notwendigen Daten fehlten.
Die Gruppe gab außerdem an, dass das von Microsoft unterstützte Unternehmen die Anfragen des Beschwerdeführers, die Daten zu korrigieren oder zu löschen, mit der Begründung ablehnte, dass eine Datenkorrektur nicht möglich sei, und es versäumte, Einzelheiten zu den verarbeiteten Daten, ihren Quellen oder ihren Empfängern anzugeben.
NOYB berichtete, dass es eine Beschwerde bei der österreichischen Datenschutzbehörde eingereicht hat, in der eine Untersuchung der Datenverarbeitungspraktiken von OpenAI und der Maßnahmen zur Gewährleistung der Genauigkeit der von den umfangreichen Sprachmodellen des Unternehmens verwalteten personenbezogenen Daten gefordert wird.
Maartje de Graaf, NOYB-Datenschutzanwältin, sagte in einer Erklärung: „Es ist klar, dass Unternehmen derzeit nicht in der Lage sind, Chatbots wie ChatGPT mit dem EU-Recht in Einklang zu bringen, wenn sie Daten über Personen verarbeiten.
„Wenn ein System keine genauen und transparenten Ergebnisse liefern kann, darf es nicht dazu verwendet werden, Daten über Personen zu generieren. Die Technologie muss den rechtlichen Anforderungen folgen, nicht umgekehrt“, sagte sie.
In der Vergangenheit hat OpenAI zugegeben, dass ChatGPT „manchmal plausibel klingende, aber falsche oder unsinnige Antworten schreibt“. Das Unternehmen hat jedoch erklärt, dass es versucht, dieses „schwierige“ Problem zu lösen.
Wie „halluzinierende“ Chatbots die GDPR-Vorschriften beeinflussen könnten
Einige der ersten Fälle von „Halluzinationen“ der Chatbots wurden im April 2023 gemeldet. Dieses Phänomen tritt auf, wenn Chatbots und/oder Menschen sehen, was nicht da ist. Dies bringt die Technologie jedoch auch auf einen potenziellen Kollisionskurs mit der EU-Datenschutzgrundverordnung (GDPR), die die Verarbeitung personenbezogener Daten der Nutzer in der Region regelt.
Bei besonders schwerwiegenden Verstößen können Unternehmen mit Geldbußen von bis zu 20 Millionen Euro oder bis zu 4 Prozent ihres weltweiten Gesamtumsatzes aus dem vorangegangenen Geschäftsjahr belegt werden, je nachdem, welcher Betrag höher ist. Die Datenschutzbehörden sind auch befugt, Änderungen bei der Verarbeitung von Daten zu erzwingen, was bedeutet, dass die GDPR die Funktionsweise der generativen KI in der EU verändern könnte.
Im Januar wurde ChatGPT von OpenAI von einer italienischen Aufsichtsbehörde beschuldigt, gegen die Datenschutzbestimmungen zu verstoßen, nachdem die Anwendung im vergangenen Jahr kurzzeitig gesperrt worden war.
Featured image: Canva