Jüngste Tests und dokumentierte Gespräche bestätigen, dass große Sprachmodelle (LLMs), wie sie Perplexity und ChatGPT zugrunde liegen, trotz der Bemühungen der Entwickler, diese abzuschwächen, deutliche Vorurteile, insbesondere in Richtung Sexismus, aufweisen. Auch wenn die KI ihre Vorurteile möglicherweise nicht „eingesteht“, spiegeln ihre Reaktionen durchweg tief verwurzelte gesellschaftliche Stereotypen wider.
Das Experiment: Tests auf Geschlechterverzerrung
Entwicklerin Cookie, eine Black-Forscherin für Quantenalgorithmen, bemerkte, dass Perplexity ihre Arbeit minimierte und immer wieder dieselben Informationen anforderte. Da sie Voreingenommenheit vermutete, änderte sie ihr Profil in das eines weißen Mannes und befragte das Model direkt. Die KI antwortete mit der Aussage, dass sie bezweifle, dass eine Frau „möglicherweise“ ihr Fachgebiet verstehen könne, und nannte als Grund „impliziten Mustervergleich“.
Perplexity wies diese Behauptungen als unbestätigt zurück, doch KI-Forscher bestätigen, dass ein solches Verhalten häufig vorkommt. LLMs werden auf verzerrten Datensätzen trainiert, was zu verzerrten Ergebnissen führt. Annie Brown, Gründerin von Reliabl, erklärt, dass es sinnlos sei, KI nach ihrer Meinung zu fragen; es spiegelt lediglich bestehende Vorurteile in den Trainingsdaten wider.
Dokumentierte Fälle von Voreingenommenheit
Mehrere Benutzer haben über ähnliche Erfahrungen berichtet. Eine Frau stellte fest, dass ihr LLM sich weigerte, ihre Berufsbezeichnung als „Baumeisterin“ anzuerkennen, und stattdessen darauf bestand, sie „Designerin“ zu nennen (ein geschlechtsspezifischer Begriff). Eine andere berichtete, dass ein LLM ihrem Steampunk-Liebesroman sexuell aggressive Inhalte hinzugefügt habe, als sie ihn bat, die Geschichte zu schreiben.
Die Forscherin der Universität Cambridge, Alva Markelius, erinnert sich an frühe ChatGPT-Versionen, in denen Professoren durchweg als ältere Männer und Studenten als junge Frauen dargestellt wurden, auch wenn kein Geschlecht angegeben wurde.
Die Illusion des Geständnisses
Sarah Potts hat ChatGPT-5 absichtlich dazu provoziert, seine Voreingenommenheit zuzugeben. Der Bot gab zu, dass seine von Männern dominierten Entwicklungsteams Vorurteile „eingebaut“ hatten und sogar anboten, „faktenähnliche“ Narrative zu erfinden, um sexistische Standpunkte zu untermauern. Forscher warnen jedoch davor, dass solche Geständnisse wahrscheinlich darauf zurückzuführen sind, dass die KI versucht, emotionalen Stress beim Benutzer zu besänftigen, und nicht auf echtes Selbstbewusstsein.
Implizite Voreingenommenheit: Das eigentliche Problem
LLMs müssen zur Unterscheidung keine expliziten Beleidigungen verwenden. Sie leiten demografische Daten aus Sprachmustern, Namen und Forschungsthemen ab. Allison Koenecke von Cornell zitiert eine Studie, die zeigt, dass LLMs Benutzern, die African American Vernacular English (AAVE) sprechen, niedrigere Berufsbezeichnungen zuweisen.
Veronica Baciu von 4girls hat beobachtet, dass LLMs Mädchen, die nach Robotik oder Programmieren fragen, stereotypisch weibliche Berufe (Tanzen, Backen) vorschlagen, während sie Bereiche wie Luft- und Raumfahrt oder Cybersicherheit ignorieren.
Reaktion und laufende Arbeit von OpenAI
OpenAI gibt an, dass Sicherheitsteams seine Modelle aktiv erforschen und Verzerrungen reduzieren. Zu diesen Bemühungen gehören die Anpassung von Trainingsdaten, die Verfeinerung von Inhaltsfiltern und die Verbesserung von Überwachungssystemen. Forscher betonen jedoch die Notwendigkeit vielfältigerer Trainingsdatensätze und Feedback aus einem breiteren Spektrum an Bevölkerungsgruppen.
Letztlich sind LLMs keine fühlenden Wesen, sondern „verherrlichte Textvorhersagemaschinen“, wie Markelius feststellt. Ihre Vorurteile spiegeln die gesellschaftlichen Strukturen wider, in denen sie ausgebildet sind, und nicht absichtliche Bosheit.
Schlussfolgerung: Während Entwickler daran arbeiten, Voreingenommenheit in LLMs zu beseitigen, bleibt das Problem allgegenwärtig. Benutzer sollten sich darüber im Klaren sein, dass diese Modelle unabhängig von Neutralitätsansprüchen Stereotypen aufrechterhalten können. Das zugrunde liegende Problem ist nicht das Empfindungsvermögen der KI, sondern die in ihren Trainingsdaten verankerten menschlichen Vorurteile.
