ChatGPT erfand einen Mord: Diese Erfahrung machte kürzlich ein Nutzer aus Norwegen. Schon in der Vergangenheit unterstellte ChatGPT Menschen Korruption oder Kindesmissbrauch und jetzt sogar einen Mord. Dies geht aus einer Datenschutzbeschwerde hervor, die ein Norweger zusammen mit der Datenschutzorganisation noyb in Norwegen eingereicht hatte.
KIs wie der Chatbot von OpenAI werden mehr und mehr zur Recherche genutzt – und in einigen Fällen geben diese KIs auch falsche Informationen wieder. So auch im Fall von Arve Hjalmar Holmen.
Er wollte herausfinden, was ChatGPT über ihn wusste und wurde damit konfrontiert, dass er vermeintlich zwei seiner Kinder getötet hatte und versucht hatte, auch sein drittes Kind zu ermorden. Besonders unheimlich: In ChatGPTs Wiedergabe waren einige Details aber faktisch richtig wie die Heimatstadt Holmens oder Anzahl und Geschlecht seiner Kinder.
Zusätzlich zur Straftat dichtete ChatGPT Holmen für ebendiese erfundene Tat auch eine 21-jährige Gefängnisstrafe an – die Höchststrafe in Norwegen.
Dass KIs wie ChatGPT oder auch andere KIs inkorrekte Ergebnisse wiedergeben, passiert immer wieder: Oft geben KI-Systeme das nächst wahrscheinlichste Wort als Antwort wieder. Dabei kommt es regelmäßig zu sogenannten Halluzinationen, d. h. die Bots denken sich manchmal Antworten einfach aus – während dies in manchen Fällen harmlos erscheint, fast schon amüsant, können solch schwerwiegenden Vorwürfe wie Mord, sexuelle Belästigung oder Kindesmissbrauch weitreichende Folgen haben.
Insbesondere im Zusammenhang mit richtigen Informationen sieht noyb hier einen schweren Datenschutzverstoß. Schon in einer anderen Beschwerde legte die Organisation dar, dass ChatGPT falsche Informationen wiedergebe. OpenAI argumentierte damals, dass Daten nicht korrigiert werden können, sondern nur bei bestimmten Prompts Daten „sperren“ könnten.
Dennoch, so die Ansicht von noyb, sei dies ein Verstoß gegen die DSGVO, insbesondere da die fehlerhaften Informationen oft mit wahren Informationen vermischt wurden – auch dass OpenAI versuchte, die Datenrichtigkeit mit einem Haftungsausschluss zu umgehen, würde die Verpflichtung zur Korrektheit der Daten aus der DSGVO nicht aushebeln.
Seit dem Vorfall mit Holmen wurde das ChatGPT-Modell aktualisiert. Der Chatbot sucht jetzt wohl wie eine Suchmaschine im Internet, wenn nach Informationen zu einer Person gesucht wird. Es ist aber durchaus noch möglich, dass die falschen Daten im Trainings-Datensatz der KI gespeichert sind – diese würden nur endgültig verschwinden, wenn die KI gänzlich neu trainiert werden würde.
(Bild: Supatman – stock.adobe.com)