Dieser Text wurde im Mai 2025 bei einem Workshop geschrieben.
Er wurde von Lukas Spahlinger und Tobias Albers-Heinemann geschrieben.
Das Zentrum Bildung der Evangelischen Kirche in Hessen und Nassau hat mitgearbeitet.
KI ist überall
Künstliche Intelligenz, kurz KI, ist Teil unseres Alltags.
Sie hilft beim Einkaufen im Internet.
Sie beantwortet Fragen oder übersetzt Texte.
Viele finden KI praktisch und denken: Sie ist neutral.
Aber das stimmt nicht.
KI ist nicht neutral
KI-Systeme lernen von Menschen.
Sie übernehmen Werte, Meinungen und Vorurteile.
Diese kommen aus den Daten, mit denen die KI trainiert wird.
Diese Daten spiegeln die Gesellschaft.
Und die Gesellschaft ist nicht gerecht.
So entstehen Vorurteile in der KI.
Zum Beispiel:
- Frauen bekommen schlechtere Bewertungen bei Bewerbungen.
- Gesichtserkennung funktioniert bei dunkler Haut schlechter.
- Frauen bekommen weniger Kredit als Männer.
Warum ist das so?
KI lernt von Bildern und Texten aus dem Internet.
Dort sind viele Vorurteile zu finden.
Zum Beispiel: Chefs sind meist Männer.
Die KI merkt sich solche Bilder.
Auch die Menschen, die KI bauen, sind wichtig.
Wenn nur Männer KI entwickeln, fehlen andere Sichtweisen.
Dann erkennt die KI bestimmte Probleme nicht.
Auch Nutzer*innen machen Fehler
Nicht nur die Technik ist schuld.
Auch wir Menschen haben Vorurteile.
Oft suchen wir Informationen, die unsere Meinung bestätigen.
Das nennt man „Confirmation Bias“.
Wenn wir der KI immer gleiche Fragen stellen,
bekommen wir auch immer ähnliche Antworten.
So entsteht ein Kreislauf.
Die KI zeigt uns, was wir erwarten – aber nicht, was fehlt.
Was können wir tun?
Wir müssen der KI zeigen, dass es Vielfalt gibt.
Zum Beispiel:
Statt „normale Familie“ fragen wir:
„Zeige eine Familie mit verschiedenen Hautfarben und Geschlechtern.“
Wir können die KI auch direkt fragen:
„Welche Sichtweisen fehlen?“
So lernen wir neue Perspektiven kennen.
KI kann Vorurteile verstärken
Eine Studie der UNESCO zeigt:
KI wiederholt oft Vorurteile.
Zum Beispiel:
- Frauen gelten als weniger klug.
- Menschen mit anderer Hautfarbe kommen kaum vor.
- Homosexuelle Menschen werden ignoriert oder schlecht dargestellt.
Wer trägt Verantwortung?
Nicht nur die Daten sind wichtig.
Auch die Einstellungen der Entwickler*innen.
Wenn nur Klickzahlen zählen, zeigt die KI vor allem das, was viele sehen wollen.
Das kann auch Falsches oder Schädliches sein.
Darum braucht es:
- gute Daten
- vielfältige Teams
- klare Regeln
- und Transparenz
Was heißt: diskriminierungssensibel?
Das heißt: Wir achten auf Gerechtigkeit.
Wir schauen genau hin, ob jemand benachteiligt wird.
Wir hinterfragen die Antworten der KI.
Und wir geben bewusst andere Impulse.
So geht diskriminierungssensible KI-Nutzung:
- Stelle Fragen, die Vielfalt zeigen.
- Hinterfrage die Antworten der KI.
- Nutze die KI bewusst und kritisch.
KI ist nicht neutral.
Sie zeigt, was wir ihr zeigen.
Sie wiederholt unsere Gedanken und unsere Fehler.
Aber: Wir können das ändern.
Wenn wir klug und fair mit KI umgehen,
können wir Gerechtigkeit fördern.
Dazu braucht es:
- technisches Wissen
- gesellschaftliche Verantwortung
- und klare Gesetze
Der Weg zu gerechter KI beginnt bei uns.
Dieser Text wurde von einer Künstlichen Intelligenz (KI) in einfacher Sprache geschrieben.
Er basiert auf einem längeren und schwieriger geschriebenen Artikel.
Den Original-Artikel findet ihr hier: https://erwachsenenbildung.digital/ki-vorurteile-und-verantwortung-wie-wir-diskriminierungssensible-systeme-gestalten-koennen/