Auf Instagram entdecke ich ein Video. Eine Frau spricht über Selbstwahrnehmung, Abgrenzung und das Gefühl, zu viel zu sein. Ihre Worte treffen mich. Nicht nur oberflächlich – sondern auf eine Weise, die sich wie Verstehen anfühlt. Kein viraler Clip, kein Account mit Millionen Followern. Und doch: Sie landet genau in meinem Feed.
Ich frage mich: Wie konnte es passieren, dass ich sie gefunden habe – oder sie mich? Ist es Zufall? Oder sagt da ein Algorithmus: „Euch zwei sollte man mal zusammenbringen“?
Wie Plattformen uns zusammenbringen
Hinter jeder digitalen Begegnung steckt ein System, das entscheidet, was wir sehen und wen wir treffen. Dieses System basiert auf Algorithmen – genauer gesagt auf Matching-Algorithmen, wie sie auch in Dating-Apps, Jobportalen oder Therapieplattformen zum Einsatz kommen. Sie analysieren Verhalten, Interessen, Suchanfragen, Interaktionen – und berechnen daraus Vorschläge, mit wem du dich wahrscheinlich verstehst.
Bei Instagram kommt ein sogenanntes Interessenmodell zum Einsatz. Dieses Modell wird aus deinem Nutzungsverhalten gespeist: Welche Videos du ansiehst, wie lange du verweilst, was du likest, kommentierst oder speicherst. Der Feed passt sich in Echtzeit an – und zeigt dir Inhalte, bei denen du mit hoher Wahrscheinlichkeit emotional reagierst. Was du bekommst, ist also kein Spiegel deiner Freunde – sondern ein Spiegel deiner Daten.
Mini Deep Dive 1: Algorithmus ist nicht gleich Algorithmus
Es gibt verschiedene Typen von Matching-Algorithmen, je nach Ziel und Plattform. Die wichtigsten:
- Content-Based Filtering: Du bekommst Inhalte, die denen ähneln, die du bereits mochtest. Beispiel: Netflix, Instagram Explore.
- Collaborative Filtering: Du bekommst Inhalte, die Nutzerinnen und Nutzer mit ähnlichem Verhalten ebenfalls mochten. Beispiel: Amazon, Spotify.
- Hybrid-Modelle: Kombination aus beidem, oft ergänzt durch KI-gestützte Einschätzungen. Beispiel: TikTok For You, Bumble, YouTube.
Besonders bei hybriden Modellen wird es unvorhersehbar. Sie erkennen Muster, die dir selbst nicht bewusst sind – etwa emotionale Reaktionen auf Gesichtsausdrücke, Sprachmuster oder Themencluster.
Das ist faszinierend – und beängstigend.
Wenn Nähe berechnet wird
Dass der Algorithmus mir eine Frau zeigt, mit der ich sofort Resonanz spüre, könnte ein Ergebnis eben solcher Mustererkennung sein. Vielleicht hatten wir ähnliche Interaktionen, ähnliche Formulierungen in unserer Caption, oder unser Blickverhalten kreuzte sich in ähnlichen thematischen Räumen. Es klingt absurd – und doch zeigt Forschung: KI kann inzwischen mit erstaunlicher Treffsicherheit Persönlichkeitszüge, Stimmungslagen und sogar politische Haltung aus Online-Daten vorhersagen.
Doch es gibt ein Problem: Diese Systeme lernen nur aus dem, was sichtbar ist. Und Sichtbarkeit ist nicht neutral.
Mini Deep Dive 2: Wer bleibt unsichtbar?
Matching-Algorithmen sind datenhungrig – und dadurch oft verzerrt:
- Marginalisierte Gruppen werden seltener empfohlen, weil sie im Datenpool unterrepräsentiert sind oder nicht der „Mehrheitsinteraktion“ entsprechen.
- Emotionale Inhalte performen besser, aber das bedeutet oft: Polarisierung statt Tiefe.
- Ähnlichkeit wird bevorzugt – wodurch Filterblasen entstehen, in denen Vielfalt untergeht.
Im Klartext: Wer laut, konform oder oberflächlich ist, wird algorithmisch belohnt. Wer leise, nuanciert oder unbequem ist, wird eher aussortiert – auch beim Matching. Das gilt nicht nur für Instagram, sondern auch für Plattformen wie LinkedIn, Tinder oder Coaching-Apps.
Dazu kommt: Kritische Inhalte werden häufig künstlich in ihrer Reichweite eingeschränkt. TikTok ist ein prominentes Beispiel dafür. Auch MEEON hat die Erfahrung gemacht: Ein Beitrag zum Jahrestag des Pulse-Massakers wurde algorithmisch eingeschränkt, während eine entschärfte Version mit weniger klarer Positionierung weiterhin ausgespielt wurde. Das nennt man Shadowbanning – ein unsichtbares Abwürgen von Sichtbarkeit, ohne offiziellen Hinweis. Es trifft oft queere, politische oder traumabezogene Inhalte.
Verbindung – oder Illusion davon?
Wenn KI entscheidet, wer zueinander passt, stellt sich die Frage: Worauf basiert diese Auswahl? Ist es echte Kompatibilität – oder die Simulation davon?
Psychologinnen und Psychologen warnen vor der sogenannten „algorithmischen Illusion“: Wir nehmen Übereinstimmung dort wahr, wo ein System uns ähnliche Inhalte serviert – ohne dass wir wissen, ob diese Ähnlichkeit tiefer reicht. Kurz: Der Eindruck von Nähe kann künstlich erzeugt werden.
Und trotzdem: In meinem Fall hat es funktioniert. Vielleicht war es Glück. Vielleicht ein Muster. Vielleicht beides.
Fazit: Zwischen Rechenregel und Resonanz
Der Gedanke, dass ein Algorithmus echte Verbindung stiften kann, ist irritierend. Aber vielleicht ist genau das der Punkt: Irritation kann der Anfang von Begegnung sein.
Wenn wir uns nicht mehr auf Zufall verlassen, sondern auf Plattformlogiken, brauchen wir einen kritischen Blick: Wer wird sichtbar? Wer wird ausgeschlossen? Und was bedeutet es, wenn Nähe zum Produkt wird?
Denn eine digitale Empfehlung kann sich manchmal anfühlen wie Schicksal. Aber echte Verbindung beginnt nicht mit einem Klick – sondern mit einem Gespräch.
Was denkst du: Kann ein Algorithmus wirklich wissen, wer zu dir passt? Oder erkennen wir nur das, was wir sowieso schon suchen? Schreib deine Gedanken in dein Notizbuch – und unter die Kommentare der MEEON Posts auf Social Media. 😉
Quelle: MEEON #55
Text: Du passt zu mir – sagt der Algorithmus
Bilder: MEEON
Video: MEEON