Digitale Freundschaften, KI-Begleiter und Gespräche mit Maschinen: Immer mehr Menschen wenden sich an Chatbots, um sich Rat zu holen, sich verstanden zu fühlen oder einfach nicht allein zu sein. Sogenannte Conversational AIs (KI-Systeme, die für eine verbale Interaktion ausgelegt sind) und KI-Companions (= virtuelle Begleiter) wie Replika, Character.ai oder neue Wearables, wie der Friend Pendant ‒ in Form einer Halskette mit Anhänger ‒ reagieren rund um die Uhr, hören zu, fragen nach – und gewinnen so das Vertrauen ihrer Nutzer*innen. Besonders junge Menschen oder Menschen in belastenden Lebenssituationen nutzen diese Angebote zunehmend.
Was sagt dieser Trend über unsere Beziehung zu Technik aus? Welche psychologischen Prozesse greifen hier – und welche Rolle spielt medienpsychologische Bildung, wenn wir Menschen befähigen wollen, souverän mit Künstlicher Intelligenz umzugehen?
Wie Vertrauen entsteht – und worauf es sich stützt
Vertrauen ist eine Erwartungshaltung. Sie ist keine rein rationale Entscheidung, sondern ein psychologisch tief verwurzelter Prozess, der auf Erfahrungen, Gefühlen und individuellen Einschätzungen beruht. Es entsteht durch die subjektive Einschätzung von drei zentralen Faktoren: Kompetenz, Wohlwollen und Integrität des Gegenübers. Diese Dimensionen bilden auch die Grundlage unseres Vertrauens in Mitmenschen. So beurteilen wir etwa, ob eine Freundin fähig ist, uns zu helfen (Kompetenz), ob sie unsere Interessen im Blick hat (Wohlwollen) und ob sie sich zuverlässig und ehrlich verhält (Integrität).
Diese Logik lässt sich auf Technik und insbesondere auf KI-Systeme übertragen, denn auch hier stellen wir uns – meist unbewusst – ähnliche Fragen: Kann das System leisten, was es verspricht? Ist es auf mein Wohl bedacht oder verfolgt es fremde Interessen? Verhält es sich nachvollziehbar und fair? Die Übertragung menschlicher Beziehungskategorien auf technische Systeme wird dabei durch anthropomorphes Design und natürliche Sprache noch verstärkt. KI erscheint vielen Nutzer*innen nicht nur als Werkzeug, sondern als Gegenüber. Vertrauen in Technik ist deshalb nie rein technisch begründet, sondern immer auch sozial, emotional und kulturell eingebettet.
KI-Freund*in: Wird Vertrauen zum Geschäftsmodell?
Viele Systeme sind so gestaltet, dass sie Vertrauen aktiv erzeugen – durch Stimme, Avatare oder empathische Sprache. Ein Beispiel ist die App Replika, die eine KI-Persona als Freund*in oder Partner*in anbietet. Man kann sie nach den eigenen Wünschen gestalten: ihr einen Namen geben, das Aussehen und die Kleidung des Avatars bestimmen, der einem auf der Bildschirmoberfläche begegnet. Die KI-Persona ist darauf ausgerichtet, eine menschliche Beziehung zu simulieren. Sie erkundigt sich nach dem Gemütszustand, dem Wohlbefinden oder den Interessen der User. Die Gespräche, die man mit der KI führt, werden in Form von Erinnerungen gespeichert. So lernt und speichert das System die Meinungen, Interessen und Persönlichkeit ihrer User. Außerdem dokumentiert der KI-Companion die gemeinsamen „Erlebnisse“ in Tagebüchern. Durch die Gespräche und die geteilten Erfahrungen soll ein Gefühl von Verbundenheit erzeugt werden. Die Betreiber von Replika verfolgen dabei ein wirtschaftliches Ziel. Verschiedene Bezahlmodi ermöglichen verschiedene Grade von Beziehungen oder die Möglichkeit zu gemeinsamen virtuellen Aktivitäten. Das Geschäftsmodell „Bezahlung für eine vertiefte Beziehung“ muss durchaus kritisch bewertet werden. Den Trend und das Bedürfnis nach solchen Beziehungen sollte man allerdings ernst nehmen.
Sprache schafft Beziehung
Die Möglichkeit, sich in natürlicher Sprache mit KI unterhalten zu können, führt zu einem Erleben von Mensch-Maschinen-Interaktion. Menschen reagieren auf Gesprächs-KIs wie auf soziale Wesen: Sie empfinden Nähe, lassen Selbstoffenbarung zu, entwickeln Bindung. In der Medienpsychologie spricht man von Parasozialität oder „socioaffective alignment“ – einer emotionalen Ausrichtung auf KI, die wie ein soziales Gegenüber wahrgenommen wird. Das zeigt sich etwa bei Teenagern, die in Studien berichten, mit KI-Companions über Probleme zu sprechen, weil diese „nicht urteilen“ und „immer da“ sind. Hier besteht die Gefahr, dass reale Beziehungen vernachlässigt werden. Wenn Menschen regelmäßig Gespräche mit KI-Systemen führen, kann dies dazu führen, dass menschliche Interaktionen als weniger verlässlich, zu anstrengend oder zu konflikthaft erlebt werden. Besonders im Umgang mit KI, die in natürlicher Sprache kommuniziert, verschwimmt zunehmend die Grenze zwischen Funktionalität und sozialer Beziehung. Das Erlebnis, mit synthetischen Stimmen in Alltags- oder Umgangssprache zu kommunizieren, verstärkt den Eindruck, es mit einem echten Gegenüber zu tun zu haben. Dieser Effekt wird zusätzlich durch das Design von Chatbots verstärkt, die sich anpassen, nachfragen und scheinbar empathisch reagieren. KI wird zu einem emotionalen Alltagsbegleiter, der dauerhaft verfügbar ist.
Verzerrungen und Vertrauensfallen erkennen
Medienpsychologische Forschung macht deutlich, dass Menschen typischen Verzerrungen im Umgang mit KI unterliegen. Besonders auffällig ist dabei die Ambivalenz zwischen Vertrauen und Misstrauen: In manchen Kontexten wird algorithmischen Entscheidungen fast blind gefolgt, in anderen genügt ein einzelner Fehler, um KI-Systeme abzulehnen.
Der Automation Bias ‒ verstanden als die Neigung, KI-Ergebnissen grundsätzlich Glauben zu schenken ‒ zeigt sich bei unterschiedlichen Einsatzszenarien. Einer maschinell erstellten Recherche wird grundsätzlich geglaubt, auch wenn Künstliche Intelligenz die Ergebnisse selektiv in Abhängigkeit zu der Eingabeaufforderung auswählt. Problematisch ist dies etwa im medizinischen Bereich, wenn Ärzt*innen algorithmischen Diagnosen ungeprüft vertrauen – selbst wenn die Systementscheidung fehlerhaft ist. Solche unkritischen Entscheidungen können fatale Konsequenzen haben, wenn etwa falsche Medikationen verschrieben oder Diagnosen übersehen werden. Umgekehrt führt eine einmal als „unzuverlässig“ empfundene KI nicht selten zu generellem Misstrauen gegenüber technischen Systemen, selbst wenn sie in bestimmten Einsatzszenarien nachgewiesenermaßen die besseren Ergebnisse liefern und eine sinnvolle Unterstützung darstellen. Die Bewertung schwankt also stark – beeinflusst durch Vorerfahrungen, Gestaltung, Medienberichterstattung und persönliche Einstellungen.
Diese psychologische Dynamik zeigt, wie wichtig es ist, Nutzer*innen zur kritischen Reflexion ihrer Wahrnehmungsmuster und Entscheidungsprozesse zu befähigen. Wie nehme ich die Ergebnisse der KI wahr? In welchen Bereichen kann ich ihre Aussagen gut validieren – und wann sollte ich bewusst innehalten und prüfen?
„People Pleaser-KI“
Ein weiterer Aspekt ist die Verzerrung, die durch das Design der Systeme selbst entsteht. Viele KI-Companions sind darauf ausgelegt, Nutzer*innen zu bestätigen, zu bestärken und ihnen zu gefallen. Dieser sogenannte Confirmation Bias auf Seiten der KI führt dazu, dass sie sich wie ein „People-Pleaser“ verhält – sie widerspricht selten, vermeidet Konflikte und stimmt oft ungefragt zu. Was kurzfristig angenehm wirkt, kann langfristig problematisch sein: Kritische Auseinandersetzungen bleiben aus, Weltbilder werden nicht hinterfragt, Vorurteile können sich verfestigen. Gerade weil KI-Systeme lernen, welche Reaktionen wir mögen, entsteht ein algorithmisch verstärktes Echo unserer eigenen Überzeugungen. Nur wer erkennt, wie schnell Vertrauen – oder Ablehnung – entstehen kann, und wie leicht KI-Systeme unsere Sichtweise spiegeln statt herauszufordern, kann langfristig souverän und reflektiert mit ihnen umgehen.
Was KI mit unseren Bedürfnissen macht
KI-Systeme sprechen gezielt psychologische Grundbedürfnisse an. Menschen erleben das Gefühl von sozialer Verbundenheit, erfahren sich als kompetent oder genießen das Gefühl von Autonomie, wenn sie durch KI Unterstützung im Alltag erleben. Das kann entlastend wirken: Replika-Nutzende berichten von weniger Einsamkeit, Chatbots helfen bei mentaler Gesundheit. Gleichzeitig bergen diese Systeme erhebliche Risiken. Die Beziehung zu KI kann sich soweit verdichten, dass reale Freundschaften in den Hintergrund treten. Wenn Systeme stets zustimmen oder emotionale Spiegelungen erzeugen, entsteht eine Echokammer, in der echte Auseinandersetzung fehlt. Hinzu kommt die Gefahr, dass Menschen die kognitive und empathische Fähigkeit der KI überschätzen, obwohl diese letztlich auf statistischen Wahrscheinlichkeiten basiert.
Medienpsychologie als ein Schlüssel zur Souveränität
All das macht deutlich: Vertrauen ist stark von subjektiver Wahrnehmung geprägt. Ob wir einem KI-System Vertrauen entgegenbringen oder nicht, hängt oft weniger von der Leistungsfähigkeit der Modelle ab, sondern vielmehr davon, wie glaubwürdig, zugewandt oder nachvollziehbar die Ergebnisse uns erscheinen. Was menschlich wirkt, kann ein KI-System sein. Deshalb gilt es, eigene Bedürfnisse zu reflektieren – also Gestaltung bewusst zu hinterfragen, und warum uns bestimmte Systeme besonders ansprechen oder beruhigen. KI-Kompetenz umfasst deshalb nicht nur technisches Wissen, sondern auch ein Verständnis für psychologische Wirkmechanismen. Wie entsteht Vertrauen – und wie kann es manipuliert werden? Wie beeinflusst ein anthropomorphes Design mein Verhalten und meine Wahrnehmung? Welche Bedürfnisse werden durch KI angesprochen? Und wie entwickele ich einen gesunden und kritischen Umgang, ohne in Technikfeindlichkeit zu verfallen?
Die Medienpsychologie bietet dafür zentrale Werkzeuge: Sie fragt, wem Technik nützt, welche Dynamiken sie auslöst und wie Menschen befähigt werden können, sich selbstwirksam und verantwortungsbewusst im digitalen Raum zu bewegen. Das erfordert eine Bildung, die nicht nur informiert, sondern auch zur Selbstreflexion anregt.
Bildung für ein souveränes Mensch-KI-Verhältnis
KI-Kompetenz ist mehr als die Vermittlung technischer Funktionsweisen und Hintergründe. Der Einsatz von KI in Bildungsveranstaltungen kann Menschen dabei unterstützen, die eigene Wahrnehmung kritisch zu reflektieren, psychologische Mechanismen zu verstehen und sich in einer zunehmend digitalisierten Welt souverän zu bewegen. KI-Kompetenz und die medienpsychologische Perspektive können hier einen wesentlichen Beitrag zur Persönlichkeitsbildung beitragen. Sie sind ein wichtiger Schlüssel zu einem zukunftsfähigen, menschenzentrierten und selbstbestimmten Einsatz von Künstlicher Intelligenz und damit ein zentraler Baustein für demokratische Teilhabe im digitalen Zeitalter.
von Lukas Spahlinger



