Künstliche Intelligenz ist in vielen Alltagsanwendungen präsent: Sie transkribiert Gespräche, sortiert Informationen, navigiert durch Städte und formuliert Texte. Für Bildungsarbeit und gesellschaftliche Teilhabe ist das kein Nebenaspekt. KI prägt, wie Menschen Zugang zu Bildung, Arbeit und öffentlichem Leben erhalten. Sie kann Barrieren senken, indem sie Informationen verständlicher macht, Bedienwege vereinfacht oder alternative Kommunikationsformen eröffnet. Genauso kann sie neue Hürden aufbauen, wenn Systeme nicht barrierearm gestaltet sind, Vorurteile reproduzieren oder Menschen mit geringeren digitalen Ressourcen ausschließen. Inklusion meint das Recht auf gleichberechtigte Teilhabe – unabhängig von individuellen Voraussetzungen. KI kann dieses Recht stärken, wenn sie partizipativ entwickelt, rechtlich abgesichert und in der Praxis kontinuierlich geprüft wird.
Inklusion im digitalen Zeitalter
Die UN-Behindertenrechtskonvention verpflichtet dazu, Strukturen so zu gestalten, dass niemand ausgeschlossen wird. Übertragen auf die digitale Welt bedeutet das: Lernplattformen, Veranstaltungsformate und Kommunikationskanäle müssen so beschaffen sein, dass Menschen mit unterschiedlichen Fähigkeiten sie gleichermaßen nutzen können. Inklusion ist damit kein nachträgliches „Add-on“, sondern ein Gestaltungsprinzip. Wer pädagogische Angebote plant, trifft bereits mit der Wahl der Plattform, der Materialformate und der Interaktionswege eine Entscheidung über Zugänge.
Mit KI verschiebt sich hier die Aufmerksamkeit: Nicht nur Inhalte, auch die Wege zu ihnen werden algorithmisch vermittelt. Automatisch erzeugte Übersetzungen, Untertitel, Transkripte, oder Vorlesefunktionen können Teilhabe erleichtern. Gleichzeitig entstehen neue Abhängigkeiten von Systemen, die nicht immer trans-parent sind und selten von allen verstanden werden. In der Erwachsenenbildung kommt hinzu, dass Zielgruppen sehr heterogen sind: Unterschiede in Sprache, Vorwissen, Seh- oder Hörvermögen, Motorik, Lesekompetenz und Technikzugang treffen in ein und demselben Kurs aufeinander. Wer Inklusion ernst nimmt, richtet deshalb sowohl das didaktische Design als auch den Technologieeinsatz konsequent auf Barrierearmut aus. Das meint den systematischen Prozess der Planung, Gestaltung und Umsetzung von Lehr- und Lernumgebungen und -materialien.
Wie KI Barrieren abbauen kann
KI-gestützte Funktionen können Informationszugang und Interaktion spürbar erleichtern. Automatische Untertitel und Live-Transkription senken Hürden in Vorträgen und Videokonferenzen; Vorlesefunktionen und Bildbeschreibungen unterstützen Menschen mit Sehbehinderung; Übersetzungen in einfache oder Leichte Sprache erleichtern den Einstieg in komplexe Themen; adaptive Lernszenarien nehmen Tempo und Schwierigkeitsgrad auf, ohne zu entmündigen. In Bibliotheken, Volkshochschulen und Beratungskontexten zeigt sich, dass der Zugewinn an Selbstständigkeit dann besonders groß ist, wenn Technik unaufdringlich in vorhandene Abläufe integriert wird.
Für die Praxis bedeutet das: KI wirkt am besten, wenn sie als Ergänzung zu gutem pädagogischen Handwerk verstanden wird. Ein Live-Vortrag wird inklusiver, wenn Referierende deutlich sprechen, Folien kontrastreich gestalten und zentrale Begriffe erklären; KI-Untertitelung bei einem Live-Vortrag kann diese Bemühungen verstärken und macht sie für mehr Menschen nutzbar. Ein Online-Kurs gewinnt, wenn Materialien klar gegliedert, sprachlich zugänglich und mobil gut bedienbar sind; die KI-gestützte Vereinfachung kann Verständnislücken schließen, ersetzt aber nicht die didaktische Verantwortung, komplizierte Fachsprache nur dort einzusetzen, wo sie nötig ist und erklärt wird.
Wesentlich ist, dass die Technik zuverlässig genug für den Alltag ist. Prototypen – etwa gebärdensprachliche Avatare – zeigen Potenziale, sind aber noch nicht belastbar genug für den Regelbetrieb. Pädagogische Angebote sollten das offen kommunizieren, Alternativen bereithalten und Rückmeldungen der Teilnehmenden systematisch auswerten.
Wo KI neue Hürden erzeugt
Mit KI verschärfen sich leicht bestehende Ungleichheiten. Wer keinen verlässlichen Internetzugang, keine aktuelle Hardware oder wenig digitale Routine hat, profitiert weniger – oder gar nicht. Zudem werden KI-Modelle auf Daten trainiert, die gesellschaftliche Verzerrungen enthalten. Ohne Gegenmaßnahmen übernehmen Systeme diese Verzerrungen: Dialekte und Akzente werden schlechter erkannt, bestimmte Schreibweisen von Namen falsch interpretiert, Lebensläufe mit untypischen Bildungswegen unterschätzt. Auch barrierearme Technik kann scheitern, wenn digitale Inhalte durch Screenreader nicht erkannt werden, die Webseitennavigation per Tastatur lückenhaft ist oder automatisch erzeugte Leichte Sprache Regeln missachtet und dadurch missverständlich wird; solche Ergebnisse sollten stets mit Nutzer*innen geprüft und bei Bedarf nachbearbeitet werden.
Ein weiterer Stolperstein ist der technologische Solutionismus: die Erwartung, soziale oder pädagogische Herausforderungen ließen sich primär technisch lösen. KI kann unterstützen, aber sie ersetzt weder Selbstverständnis, Rechtsrahmen noch politische Maßnahmen und schon gar nicht die professionelle pädagogische Beziehung. In der Bildungsarbeit ist es daher zentral, KI als Werkzeug unter vielen zu rahmen, Entscheidungsspielräume zu bewahren und analoge Alternativen nicht zu verdrängen.
Schließlich stellt sich die Frage der Verantwortlichkeit. Wenn Systeme Entscheidungen vorbereiten – etwa in der Auswahl von Lerninhalten –, müssen Kriterien transparent und überprüfbar sein. Pädagogische Teams tragen die Verantwortung, den Einsatz zu begründen, Folgen zu beobachten und bei Fehlentwicklungen gegenzusteuern.
Gestaltung für die Praxis – Worauf Fachkräfte achten sollten
Barrierearmut beginnt vor der Toolwahl. Sinnvoll ist eine Bestandsaufnahme: Wer lernt mit? Welche Barrieren sind wahrscheinlich? Welche Geräte und Kenntnisse sind vorhanden? Daraus ergeben sich Prioritäten. Wo viele mobile Endgeräte genutzt werden, ist eine saubere Darstellung auf kleinen Bildschirmen wichtiger als aufwendige Desktop-Oberflächen. Wo heterogene Sprachkompetenzen zu erwarten sind, helfen klare Texte, Glossare und ergänzende Erklärvideos, die von Künstlicher Intelligenz unterstützt, aber nicht ersetzt werden.
Rechtliche und normative Leitplanken geben Orientierung. Die Behindertenrechtskonvention der Vereinten Nationen (UN-BRK), seit 2009 in Deutschland in Kraft getreten, macht Teilhabe zum Maßstab. Nationale Regelungen zur Barrierefreiheit verpflichten Anbieter digitaler Dienste, Zugänge verbindlich zu sichern. Für die Praxis heißt das: Barrierearmut und Datenschutz werden von Anfang an mitgedacht. Plattformen sollten die gängigen Standards zur Bedienbarkeit und Kompatibilität mit Hilfstechnologien erfüllen, sensible Daten werden sparsam erhoben und transparent verarbeitet, die Herkunft und Funktionsweise zentraler KI-Komponenten wird – so weit möglich – erklärt.
Qualität entsteht durch Rückkopplung. Angebote sollten mit Menschen getestet werden, die unterschiedliche Bedürfnisse vertreten. Rückmeldungen zu Untertiteln, Tastaturbedienung, Kontrasten, Sprachebene oder Navigationslogik sind wertvoller als rein technische Prüfungen. In Kursen können kurze, wiederkehrende Feedbackschleifen eingebaut werden: Was hat funktioniert? Wo hakte die Technik? Welche Alternativen wünschen sich die Teilnehmenden? So wird Barrierearmut vom einmaligen Check zur kontinuierlichen Praxis.
Didaktisch bewährt sich eine multiperspektivische Planung. Auf der Inhaltsebene geht es um kritische KI-Kompetenz – etwa darum, wie maschinelles Lernen grob funktioniert, wo Fehlerquellen liegen und wie man Ergebnisse prüft. Auf der Gestaltungsebene wird eingeübt, wie barrierearme Formate aussehen: klare Struktur, verständliche Sprache, Medienvielfalt (Text, Audio, Bildbeschreibung), verlässliche Navigation. KI-Tools können hier als Lerngegenstand und als Hilfsmittel auftreten. Wer beispielsweise gemeinsam mit der Gruppe automatische Untertitel live testet, erfährt unmittelbar, welche Wörter falsch erkannt werden und wie sich Sprechtempo, Mikrofonqualität oder Fachjargon auswirken. Diese Erfahrung fördert Medienkritik und verbessert zugleich die eigene Vortragspraxis.
Nicht zuletzt braucht es einen reflektierten Umgang mit Künstlicher Intelligenz. Pädagogische Angebote sollten transparent machen, was KI kann und was nicht, wo Daten anfallen, welche Voreinstellungen genutzt werden und wie man sich abmeldet oder Alternativen erhält. Die Möglichkeit, sich entscheiden zu können, basiert auf wesentlichen Informationen zu den Rahmenbedingungen des Einsatzes. Zu welchem Zweck werden KI-basierte Systeme eingesetzt? In welchem Umfang werden sie eingesetzt? Darüber hinaus bedarf es einer Reflexion darüber, in welchen Szenarien ein Einsatz sinnvoll ist und wann nicht.
Teilhabe by Design
KI eröffnet reale Chancen für mehr Barrierearmut: Sie kann Informationen zugänglicher machen, Kommunikation erleichtern und Lernwege individueller gestalten. Damit diese Chancen bei den Menschen ankommen, muss Technik in inklusiven Prozessen entstehen, rechtliche Vorgaben verlässlich einhalten und in der Praxis fortlaufend geprüft werden. Pädagogische Fachkräfte haben dabei eine Schlüsselrolle. Sie übersetzen menschenrechtliche Prinzipien in didaktische Entscheidungen, wählen Tools mit Augenmaß, schaffen transparente Rahmenbedingungen und halten Alternativen offen.
Die Leitfrage bleibt: Wer profitiert – und wer nicht? Wer so fragt, erkennt unbekannte Schwachstellen schneller, korrigiert Fehlentwicklungen früh und stärkt die Teilhabe aller. Eine inklusive Gesellschaft beginnt im Quellcode – und in den pädagogischen Entscheidungen, die ihn verantwortungsvoll in Bildungsprozesse einbinden.
[1] Der Begriff „Barrierearmut“ betont, dass Barrieren selten vollständig abgebaut sind und Zugänglichkeit ein fortlaufender Prozess ist. Er steht für eine realistische, inklusive Perspektive, die verschiedene Formen von Barrieren (z. B. sprachliche, soziale, digitale) mitdenkt – ohne den Anspruch, vollständige Barrierefreiheit bereits erreicht zu haben
von Lukas Spahlinger



