KI, Vorurteile und Verantwortung – Wie wir Künstliche intelligenz diskriminierungssensibel nutzen können

Bilder in Lehrmaterial, Fotodatenbanken, Stellenanzeigen oder Nachrichtenbeiträgen prägen unsere Vorstellung davon, was als „normal“ oder als „ungewöhnlich“ gilt. Solche Muster wirken – sie lenken Aufmerksamkeit, prägen Selbstbilder und Entscheidungen. Sie sind nicht neu. Neu ist, wie stark digitale Systeme sie vervielfältigen können. Die einfache Bedienung und schnellen Ergebnisse von Chatbots oder Bildgeneratoren werden im Alltag oft als praktische Unterstützung oder clevere Hilfe wahrgenommen. Dabei wird Künstliche Intelligenz schnell für neutral gehalten – dabei ist genau das ein Trugschluss.

KI-Systeme sind nicht neutral – sie spiegeln die Wertesysteme, Vorannahmen und Vorurteile ihrer Entwickler*innen und der zugrunde liegenden Trainingsdaten wider. Sie übernehmen stereotype Muster, die aus gesellschaftlicher Realität stammen, und verfestigen diese – oft unbemerkt, aber mit spürbaren Konsequenzen für die Lebenswirklichkeit vieler Menschen.

Was aber bedeutet das konkret? Wie genau gelangen diese Verzerrungen in KI-Systeme? Welche Verantwortung tragen Entwickler*innen – und auch Nutzer*innen? Und wie können wir KI so einsetzen, dass sie gesellschaftliche Vielfalt abbildet statt sie zu verzerren? Dieser Text geht diesen Fragen nach und zeigt Strategien für eine diskriminierungssensible KI-Nutzung auf.

Was ist ein Bias?

Bias ist der englische Begriff für Verzerrung, Vorurteil oder Voreingenommenheit. Im Zusammenhang mit statistischen Modellen wird der Begriff verwendet, um deutlich zu machen, dass die Datengrundlage nicht den realen Zusammenhängen entspricht. Dadurch werden Zusammenhänge, Aussagen oder Darstellungen verzerrt wiedergegeben. Dies ist kein seltenes Phänomen. Daten in ihrer vielfältigen Form (als Texte, Bilder oder Umfragedaten) wurden von Menschen produziert. Sie schreiben Texte, wählen Motive für Bilder aus oder erstellen Fragekataloge für Umfragen. Dabei sind Menschen nicht neutral. Das hat mit der selektiven Wahrnehmung von uns Menschen zu tun. Wir lernen aufgrund unserer Beobachtungen und unserer Erfahrungen. Diese werden sortiert und kategorisiert, um die Vielfalt an Informationen verarbeiten zu können ‒ das kann hilfreich sein, aber auch Vorurteile erzeugen. Wenn Menschen Texte schreiben oder auf andere Art und Weise die Realität dokumentieren, entstehen Inhalte mit unterschiedlichen Sichtweisen und Perspektiven, aber auch mit Vorurteilen und Stereotypen.

Wie Bias in Künstlicher Intelligenz entsteht

KI-Modelle basieren auf riesigen Datenmengen. Die Daten bilden die Welt, die wir sehen und erleben können, in sehr großen Teilen ab, einschließlich der Verzerrungen, Vorurteile, Vorannahmen oder Ungerechtigkeiten. Die Daten sind nicht neutral, genauso wenig die KI-Modelle, die auf Basis der Daten trainiert werden. Das heißt: Wenn KI-Systeme aus solchen Daten lernen, übernehmen sie nicht nur Fakten, sondern auch soziale Verzerrungen. Stereotype Muster entstehen nicht erst im System, sondern sind in Form von unausgewogenen Darstellungen, diskriminierenden Sprachmustern oder einseitigen Kategorisierungen direkt in die Trainingsdaten eingeschrieben – oft unbemerkt, aber mit weitreichender Wirkung. Generative Künstliche Intelligenz basiert auf Wahrscheinlichkeiten und Kontextualisierung. Sie gibt das wieder, was auf Basis von statistischen Häufigkeiten und Zusammenhängen und den durch die Eingabe gegebenen Kontext das wahrscheinlichste Ergebnis ist. Man kann also sagen: Maschinen lernen aus Texten, Bildern oder anderen Datenquellen, in denen beispielsweise Führungskräfte fast ausschließlich männlich und weiß dargestellt werden. Sie übernehmen Begriffe und Formulierungen, die bestimmte Gruppen benachteiligen oder unsichtbar machen. Bekannte Beispiele verdeutlichen die Auswirkungen solcher Verzerrungen in der Praxis:

  • Amazons Recruiting-KI bewertete Bewerbungen von Frauen systematisch schlechter, weil das Trainingsmaterial fast ausschließlich männlich geprägte Karriereverläufe enthielt. Ganz unabhängig davon, dass Frauen gleiche Qualifikationen und Fähigkeiten mitbrachten wie ihre männlichen Mitbewerber.
  • Gesichtserkennungssysteme zeigten bei dunkelhäutigen Personen deutlich höhere Fehlerraten als bei weißen Personen – mit teils gravierenden Folgen im Sicherheitsbereich. Denn die Systeme wurden hauptsächlich mit Bildern trainiert, die weiße Personen zeigten.
  • Die Apple Card gewährte Frauen geringere Kreditlimits als Männern, obwohl sie über vergleichbare finanzielle Voraussetzungen verfügten.

Diese Beispiele zeigen: KI erkennt zwar Muster, versteht aber den gesellschaftlichen Kontext nicht. Die Systeme analysieren Korrelationen, ohne die Bedeutungen oder Diskriminierungsrisiken zu erfassen. Hinzu kommt, dass Systemprompts – das sind systeminterne Anweisungen und Voreinstellungen, die festlegen, wie ein KI-Modell auf bestimmte Anfragen reagieren soll – erheblichen Einfluss auf die Ergebnisse haben. Sie bestimmen unter anderem, welche Themen priorisiert oder welche Formulierungen vermieden werden. Diese Prompts sind meist unsichtbar für die Nutzer*innen, können aber entscheidend dafür sein, ob eine Antwort stereotypen Mustern folgt oder Vielfalt abbildet. Auch die Zusammensetzung der Entwicklerteams spielt eine zentrale Rolle: Sind diese homogen – etwa überwiegend männlich, weiß und akademisch geprägt – fehlen diverse Perspektiven. Das Risiko, Vorurteile zu reproduzieren, steigt dadurch erheblich.

Wie Nutzer*innen den Bias selbst verstärken

Es gibt sehr viele unterschiedliche Formen dieser Bias. Ein zentrales Phänomen ist der sogenannte Confirmation Bias: die Tendenz, Informationen so auszuwählen und zu interpretieren, dass sie bestehende Überzeugungen und Wertemuster bestätigen. Wer in seinem Kopf bestimmte Bilder abgespeichert hat – etwa vom „typischen Chef“ als weißem Mann im Anzug – wird genau solche Darstellungen auch unbewusst als normal empfinden.

KI-Modelle wie ChatGPT lernen in den Trainingsphasen aus den Datensätzen. Sobald wir die abgeschlossenen Large Language Models (LLMs) verwenden, passen sie sich daran an, was wir ihnen zeigen – und wie wir mit ihnen umgehen. Wer immer wieder ähnliche Fragen stellt, bekommt ähnliche Antworten. Die Gefahr: Die KI bestätigt uns in unseren Vorstellungen. Sie reflektiert nicht nur unsere Erwartungen, sondern bestärkt sie – wie ein Spiegel, der nicht nur zeigt, was ist, sondern das Bild zurückwirft. Wer Vielfalt sehen will, muss sie bewusst einfordern. Hier helfen sogenannte sensible Prompts. Anstatt von einer „normalen Familie“ zu sprechen, lässt sich gezielt formulieren: „Erstelle ein Bild einer Familie mit verschiedenen Konstellationen, Hautfarben, Altersstufen und Geschlechtern.“

Auch Reflexionsfragen an die KI können helfen, sichtbar zu machen: „Welche Perspektiven fehlen in deiner Darstellung?“ oder „Welche möglichen Probleme siehst du selbst?“ – Solche Nachfragen öffnen den Raum für mehr Vielfalt und zeigen, dass es auch im Umgang mit KI auf unsere Haltung ankommt.

Stereotype Reproduktion im Alltag

Dass diese Verzerrungen in den KI-Daten keine Theorie sind, zeigen zahlreiche Untersuchungen. Eine Analyse der UNESCO aus dem Jahr 2024 stellte fest, dass große Sprachmodelle wie ChatGPT und andere systematisch geschlechtsbezogene, rassistische und homophobe Stereotype reproduzieren.

KI-generierte Inhalte können dadurch Diskriminierung verstärken:

  • Frauen werden als weniger kompetent oder vor allem in häuslichen Rollen dargestellt.
  • BIPoC-Personen (engl. Begriff für Black, Indigenous and People of Color) werden entweder ignoriert oder stereotyp dargestellt.
  • Menschen mit abweichender sexueller Orientierung werden unsichtbar gemacht oder diskriminierend beschrieben.

Diese Beispiele zeigen, dass KI die Vielfalt der Gesellschaft nicht von selbst abbildet. Hier braucht es bewusste Steuerung und ein Bewusstsein für die stereotypen Muster von KI-Systemen – sowohl auf technischer als auch auf gesellschaftlicher Ebene.

Verantwortung in Entwicklung und Anwendung

Verzerrungen entstehen nicht nur durch Daten, sondern auch durch Designentscheidungen. So können bestimmte Optimierungsziele – etwa maximale Reichweite oder Nutzerbindung – dazu führen, dass polarisierende Inhalte bevorzugt werden. Ein weiterer Einflussfaktor sind die Systemprompts – Anweisungen, die das Verhalten der KI steuern. Hier entscheidet sich, welche Informationen die KI berücksichtigt und welche ausgeblendet werden. Fehlende Transparenz und verdeckte Verzerrungen in der Entwicklung verstärken diese Effekte.

Verantwortung bedeutet also nicht nur, gute Daten zu nutzen, sondern auch, Vielfalt im Entwicklerteam zu fördern und die Systeme kontinuierlich zu überprüfen. Denn nur ein diverses Team bringt auch eine Vielfalt an Erfahrungen, Blickwinkeln und Lebensrealitäten mit. Wo unterschiedliche Perspektiven zusammentreffen, entstehen andere Fragen, sensiblere Entscheidungsprozesse – und eine kritischere Auseinandersetzung mit potenziellen Verzerrungen. Ein diverses Team wirkt wie ein Schutzfilter gegen blinde Flecken: Es ist wahrscheinlicher, dass diskriminierende Strukturen auffallen, wenn Menschen mit unterschiedlichen Hintergründen gemeinsam an Lösungen arbeiten. Wer KI für alle bauen will, muss auch alle im Blick haben – und das beginnt bei den Menschen, die die Systeme entwickeln.

Strategien für eine diskriminierungssensible KI-Nutzung

Der Umgang mit Künstlicher Intelligenz ist kein rein technischer Vorgang – er ist eine Frage der Haltung. Wer glaubt, KI sei automatisch fair, unterschätzt, wie stark unsere eigenen Vorannahmen in die Ergebnisse einfließen. Deshalb beginnt diskriminierungssensible KI-Nutzung bei uns selbst – bei dem Bewusstsein dafür, dass wir mit jeder Anfrage, jedem Prompt und jeder Reaktion mitgestalten, was die KI für normal, relevant oder sichtbar hält.

Wer Vielfalt sehen will, muss sie bewusst einfordern. Denn ohne klare Impulse übernimmt die KI nur, was in den Daten am lautesten vertreten ist – und das sind oft stereotype Vorstellungen. Wer dagegen aktiv andere Perspektiven einbringt, kann dazu beitragen, dass KI nicht nur Bestehendes reproduziert, sondern neue Sichtweisen ermöglicht. Das gelingt durch:

  • Vielfältige Prompts: gezielte Aufforderungen an die KI, verschiedene Perspektiven einzubeziehen.
  • Reflexionsfragen: die KI um Einschätzungen zu möglichen Verzerrungen bitten.
  • Bewusste Nutzung: sich nicht auf die erste Antwort verlassen, sondern gezielt nach Alternativen suchen. KI ist kein Ersatz für kritisches Denken. Sie kann ein Werkzeug sein, um neue Perspektiven zu entdecken – wenn wir sie dazu auffordern.

Künstliche Intelligenz ist weder objektiv noch neutral. Sie spiegelt die Werte und Vorurteile unserer Gesellschaft. Wenn wir lernen, verantwortungsvoll mit KI umzugehen, können wir Vielfalt sichtbar machen und Diskriminierung abbauen. Dafür ist eine Sensibilität für Ungleichheiten, Vorurteilsstrukturen und Diskriminierung notwendig, um diese in den Ergebnissen wie Texten oder Bildern zu erkennen.

Dazu braucht es technische Verantwortung – etwa durch vielfältige Entwicklerteams, die ihre unterschiedlichen Erfahrungen und Perspektiven in die Systemgestaltung einbringen und auf gute, ausgewogene Daten achten. Ebenso entscheidend ist die gesellschaftliche Verantwortung: Nutzer*innen müssen lernen, KI bewusst, kritisch und reflektiert einzusetzen. Schließlich braucht es politische Verantwortung – also klare gesetzliche Rahmenbedingungen und verbindliche Standards, die faire und inklusive Systeme fördern.

Der Weg zu einer gerechteren KI beginnt bei uns selbst – mit jedem Prompt, jeder Frage und jeder Entscheidung, Vielfalt einzufordern und zu fördern.

von Lukas Spahlinger, Mike Breitbart und Tobias Albers-Heinemann

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert