• Seite vorlesen
  • Feedback an Autor
  • Seite drucken

Aus der Februar-BIG: Ein Gespräch mit Social-Media-Forscher Hussam Habib

09.02.2026

Was dahinter steckt, wenn man stundenlang von YouTube, TikTok und Co. gefesselt ist, erforscht Hussam Habib am IDea_Lab der Universität Graz. Ein Gespräch über die Tücken von Social Media, negativen Content, Meilensteine im Datenschutz und was man tun kann, um nicht ständig auf "wütende" Algorithmen hereinzufallen.

Freunde, Reisen, Politik und Musik - nichts, was es auf Social-Media-Plattformen nicht gibt. Was dahinter steckt, wenn man stundenlang von YouTube, TikTok und Co. gefesselt ist, erforscht Hussam Habib am IDea_Lab der Universität Graz.

Seit Oktober ist Hussam Habib in Graz. Er forscht am IDea_Lab, dem Interdisziplinären Digitalen Labor der Universität Graz. Den Tag verbringt er meist auf Instagram, X, Facebook, Reddit, TikTok oder YouTube - beruflich. Denn der Wissenschafter ist gerade deshalb von Iowa nach Graz gekommen, weil ihm neue EU-Regeln tiefere Einblicke in die Mechanismen der Social-Media-Plattformen erlauben.

Woran forschen Sie denn konkret?

HUSSAM HABIB: Ein großer Teil der Informationen, die zumindest jüngere Generationen konsumieren, kommt heute über Social-Media-Plattformen. Um zu entscheiden, welche Inhalte welcher Person angezeigt werden, gibt es Algorithmen. Wenn wir beide jetzt YouTube öffnen würden, würden wir unterschiedliche Inhalte sehen. Obwohl die Videos aus derselben Bibliothek stammen, weiß YouTube, was jede und jeder von uns mag, und kuratiert die Inhalte entsprechend. Die Plattformen sind kostenlos, aber sie sind Unternehmen. Sie verdienen ihr Geld mit Werbung. Je mehr sie davon zeigen können, also je länger sie uns auf der Plattform halten, desto mehr Geld verdienen sie. Für YouTube wäre es also ideal, wenn man acht Stunden am Tag dort bliebe.

Abgesehen von der Zeit, die dabei draufgeht, was ist daran schlecht?

HABIB: Ein Problem dabei ist, dass wir Menschen dazu neigen, Inhalte zu konsumieren, die eigentlich nicht gut für uns sind, zu denen wir uns aber besonders hingezogen fühlen. Algorithmen nutzen das aus, um uns länger auf den Plattformen zu halten.

Können Sie ein Beispiel nennen?

HABIB: Wenn jemand ein Glücksspielproblem hat und in Behandlung ist, um nicht mehr zu spielen, weiß die Plattform trotzdem, dass diese Person länger bleibt, wenn sie einschlägige Inhalte sieht. Also zeigt sie genau solche an. Ebenso bei Menschen mit Essstörungen. Es gibt einige Studien, die zeigen, dass Plattformen erkennen, wenn Jugendliche Anzeichen einer Essstörung zeigen. Dann werden immer mehr Inhalte ausgespielt, weil das die Person bei der Stange hält. Ob diese sich schlecht dabei fühlt, interessiert die Plattform nicht. Noch problematischer wird es, wenn man sich politische Inhalte ansieht. Wenn eine Gesellschaft stark polarisiert ist - wie etwa in den USA mit zwei großen politischen Lagern -, dann ist es für Algorithmen sehr einfach, einer Person nur noch Inhalte zu zeigen, die gegen die jeweils andere Seite gerichtet sind. Die Person denkt, es sei offensichtlich wahr, und bekommt immer mehr davon zugespielt. Genau da setzt meine Arbeit an - ich untersuche solche Mechanismen. Wie stark passiert das, warum? Wie kann man das abfedern oder verbessern? Das ist ein spannendes Forschungsfeld.

Helden des Alltags, private Einblicke in Beziehungskrisen - welche verabreichte Emotion wie Trauer, Freude oder Wut lässt uns nicht abschalten?

HABIB: Wut und Negativität funktionieren in allen sozialen Netzwerken am besten. Menschen beschäftigen sich länger mit Inhalten, die sie emotional aufregen. Und dann gibt es noch etwas, das man „Outgroup Construction" nennt - also dieses „Wir gegen sie"-Denken in einer Art tribaler Gesellschaft.

Welche Konsequenzen hat das für jemanden, der Content kreiert?

HABIB: Tatsächlich ist das eines der nächsten Projekte, an denen ich arbeite.
Wenn man heute einen YouTube-Kanal startet, ist das etwas völlig anderes als vor 15 Jahren, als der Algorithmus noch sehr einfach war. Damals war es so: Wenn ich Fußball mag, bekomme ich Fußball-Videos, Punkt. Damals konnte man einfach guten Content über Fußball machen, eben, was man selber mochte. Heute weiß YouTube viel mehr über Nutzer:innen. Wenn ich viele Aufrufe bekommen will, bin ich als Creator:in stark motiviert, negative oder wütende Inhalte einzubauen. Das Spannende ist, dass der Algorithmus sie beeinflusst, sie daraufhin ihre Inhalte anpassen, und der Algorithmus diese dann wieder stärker pusht. Am Ende bleibt den Nutzer:innen kaum eine Wahl, sie konsumieren immer mehr von genau diesem Content. Deshalb sieht man bei vielen großen YouTube-Kanälen sehr ähnliche Muster in den Inhalten.

Hussam Habib forscht unter anderem über Algorithmen auf Social Media am IDea_Lab der Universität Graz.

Wütende Algorithmen

Irgendwann hat YouTube den Algorithmus geändert ...

HABIB: Ja, 2012 war das, es wurde nicht mehr nur optimiert, ob jemand auf ein Video klickt, sondern wie lange jemand ein Video anschaut. Je länger jemand zuschaut, desto stärker wird das Video gepusht. Das hat Creator:innen zusätzlich dazu motiviert, emotionalere - oft negativere - Inhalte zu produzieren. Natürlich gibt es auch viele gute Creator:innen, die bewusst gegen diesen Trend arbeiten. Aber wenn man als „normale:r" Nutzer:in neu anfängt, ist der Druck sehr groß, sich diesen Mechanismen anzupassen. Manche werden sich noch daran erinnern: Um 2010 gab es sehr viele Clickbait-Titel wie „Du wirst nicht glauben, was dann passiert ist". Wenn man Creator:innen darauf angesprochen hat, haben sie oft gesagt: „Wir wollten das eigentlich nicht so machen, aber wir mussten es tun, um Views zu bekommen."

Das sieht man nicht nur auf YouTube, sondern auch auf anderen Plattformen.

HABIB: Es gibt eine Studie, die gezeigt hat, dass Facebook - als es angefangen hat, Nachrichtenartikel im Newsfeed anzuzeigen - festgestellt hat: Wenn große Medien wie Fox News oder CNN negative Schlagzeilen veröffentlichten, bekamen diese mehr Reichweite, weil der Algorithmus sie höher eingestuft hat. Also wurden Medien indirekt vom Algorithmus dazu motiviert, negativere Nachrichten zu schreiben.

Welche gesellschaftlichen Risiken können sich denn aus dieser Dynamik ergeben?

HABIB: Es ist nichts völlig Neues. Ähnliche Mechanismen gab es auch schon in klassischen Nachrichtenmedien. Wenn ein Ereignis stattfindet und es verschiedene Arten der Darstellung gibt, wählt ein Algorithmus diejenige, die die meiste Aufmerksamkeit erzeugt, und spielt sie verstärkt aus. Das Ereignis wird letztlich nur noch in genau diesem Rahmen wahrgenommen. So entsteht eine Art Blase um das Thema. Das ist problematisch, weil soziale Medien - ob wir es wollen oder nicht - ein zentraler Bestandteil der Politik geworden sind. Plattformen wie X, Bluesky oder andere haben großen Einfluss darauf, wie Menschen denken und letztlich auch wählen.

Welche zentralen Fragen möchten Sie mit Ihrer Arbeit beantworten?

Eine der zentralen Fragen meiner Forschung ist: Angesichts der Probleme auf diesen Plattformen - also der Verbreitung von wütenden, negativen oder falschen Informationen - wie können wir damit umgehen?

Was macht es mit Ihnen persönlich, wenn Sie sich mit „wütenden Algorithmen" beschäftigen?

HABIB: Am Anfang habe ich tatsächlich „gefährliche" Forschung betrieben. Ich habe mich intensiv mit rechtsextremen Ideologien und misogynen Inhalten beschäftigt. Das war psychisch sehr belastend. Mein Betreuer war aber sehr umsichtig und hat darauf geachtet, dass ich Pausen mache und mich nicht zu sehr darin verliere. Das hat sehr geholfen. Es gab einige Jahre, in denen ich ziemlich hoffnungslos war und dachte: Alles ist schlecht, und es gibt keine Lösung dafür. Aber dann habe ich mit vielen Entwickler:innen gesprochen, die in Social-Media-Unternehmen arbeiten, ihre Perspektive kennengelernt und gemerkt, dass diese Systeme nicht unveränderlich sind. Die negativen Effekte sind das Ergebnis bestimmter Entscheidungen der Plattformen - vor allem ihres Strebens nach Profit. Wenn man diese Anreize ändert oder begrenzt, kann man auch etwas verbessern. Das hat mir wieder Hoffnung gegeben.

Die EU hat mit dem Digital Services Act rechtliche Schritte unternommen ...

HABIB: Das stimmt mich wirklich optimistisch. Die rechtlichen Schritte sollen den Einfluss der Plattformen begrenzen und geben Forschenden mehr Möglichkeiten zur Überwachung und Analyse. Ich denke, die EU hat in den letzten Jahren wirklich gute Arbeit geleistet, wenn es darum geht, Technologie zu regulieren - oder zumindest besser zu steuern. Vor ein paar Jahren gab es die Datenschutz-Grundverordnung, die DSGVO. Dabei ging es darum, welche Daten Unternehmen über Menschen sammeln dürfen. Zum Beispiel: Was dürfen Google oder Facebook über dich wissen? Und du hast das Recht Nein zu sagen. Für mich wirkt der DSA wie der nächste logische Schritt. Die EU hat erkannt, dass diese Plattformen eine sehr große Rolle in unserer Gesellschaft spielen - insbesondere im politischen Kontext. Es ist problematisch, wenn ein privates Unternehmen den Algorithmus kontrolliert und damit faktisch mehr Einfluss auf demokratische Prozesse hat als die Menschen selbst. Die Idee ist nicht, Plattformen zu verbieten oder massiv einzuschränken, sondern Transparenz zu schaffen. Forschende sollen die Möglichkeit bekommen, diese Plattformen zu untersuchen, um besser zu verstehen, welche Auswirkungen sie haben. In den letzten fünf Jahren haben sich diese Plattformen immer stärker abgeschottet und den Zugang für die Forschung eingeschränkt. So konnten sie im Grunde tun, was sie wollten. Der DSA soll genau hier ansetzen und Transparenz schaffen, damit wir verstehen, wo die Probleme liegen und wie man sie verbessern kann.

Kinder und soziale Plattformen

Datenanalyst Hussam Habib
Datenanalyst Hussam Habib© ANGELE/IDEALAB

Wie kann ein besseres Verständnis der algorithmischen Mechanismen der Gesellschaft helfen?

HABIB: Ich glaube, wenn ich mit meinen Eltern oder anderen Verwandten spreche, die diese Technologien erst in ihren Vierzigern oder Fünfzigern übernommen haben, merke ich, dass sie oft Analogien brauchen, um zu verstehen, was diese Plattformen eigentlich tun. Zum Beispiel sehen sie Google wie eine Person: Wenn ich Google etwas frage, sagt es mir die Antwort. Oder wenn ich etwas auf YouTube anschaue, ist das wie Fernsehen. Aber es ist sehr wichtig zu verstehen, dass hier ein Algorithmus entscheidet - und zwar auf Basis seiner eigenen Interessen. Das ist keine Person, der man vertrauen kann. Der Algorithmus hat keine Moral und kein eigenes Urteilsvermögen. Es ist nicht so wie beim Fernsehen, wo man zumindest davon ausgeht, dass gewissen journalistischen Standards gefolgt wird. Der Algorithmus interessiert sich kaum dafür, ob eine Information richtig oder falsch ist. Er entscheidet nur, welche Information du jetzt sehen sollst - egal, ob sie wahr oder falsch ist. Allein dieses Wissen - dass es viel mehr Informationen auf der Welt gibt als das, was im eigenen Feed erscheint - ist schon sehr wichtig. Und dass man kurz innehält und sich fragt: Was könnte es noch geben?

Wie schafft man es, sich nach einer gewissen Zeit von den Inhalten wieder loszureißen und nicht Stunden auf TikTok und anderen Plattformen zu verbringen?

HABIB: Man kommt sehr leicht in diesen sogenannten Flow-Zustand, wenn man YouTube- oder TikTok-Videos schaut. Der Kopf arbeitet dann kaum noch aktiv. Deshalb ist es wichtig, zwischendurch bewusst zu pausieren und sich zu fragen: Will ich das gerade wirklich tun? Und dann eine bewusste Entscheidung zu treffen. Das halte ich für extrem wichtig.

Stichwort soziale Medien und Kinder? Gibt es überhaupt ein „richtiges" Alter, um mit bestimmten Plattformen in Kontakt zu kommen?

HABIB: Ich habe darauf leider keine Antwort. Natürlich kann ich sehr streng sein, wenn ich selbst soziale Medien kaum nutze - aber realistisch gesehen, ist es fast unmöglich, Kinder komplett davon fernzuhalten. Alles, was Kinder, was ihre Freund:innen machen, findet heute auf sozialen Medien statt. Man kann sich dem kaum entziehen. Länder wie die Niederlande, Australien und einige andere haben versucht, die Smartphone-Nutzung bei Kindern einzuschränken. Der US-Sozialpsychologe Jonathan Haidt hat viele Forschungen dazu betrieben, welche Auswirkungen soziale Medien und das Internet auf Kinder haben. Die Ergebnisse sind ziemlich erschreckend. Wenn man darüber nachdenkt, wie wir selbst aufgewachsen sind: In der Schule hatte man vielleicht drei oder vier enge Bezugspersonen, mit denen man regelmäßig gesprochen hat. Man hat sich gegenseitig beurteilt, Beziehungen aufgebaut und gelernt, wie soziale Interaktion funktioniert. Auf Instagram hingegen hat man plötzlich 500 Follower:innen. Vielleicht sind manche Kinder in der Lage, damit umzugehen, einige bestimmt nicht. Es ist auf jeden Fall eine völlig andere Art aufzuwachsen, die sich nicht unbedingt richtig anfühlt.

Sie untersuchen im Rahmen Ihrer Forschung die Unterschiede auf den Plattformen und schreiben ihnen mitunter gewisse "Persönlichkeiten" zu. Welche Eigenschaften hätte YouTube? 

HABIB: YouTube ist ein extremer „People Pleaser". Es tut im Grunde alles, was du willst. In manchen Situationen ist das sehr hilfreich - zum Beispiel, wenn ich etwas reparieren möchte und mir ein Tutorial auf YouTube anschaue. Gleichzeitig manipuliert es dich aber auch. Es gibt dir genau das, was du willst - auch wenn es vielleicht nicht gut für dich ist. Und es kann dich dazu bringen, Dinge zu glauben, die du eigentlich nicht glauben solltest.

Und wie verhält es sich mit X? 

HABIB: YouTube ist videobasiert, X ist textbasiert, aber es gibt noch einen wichtigeren Unterschied. YouTube ist stark darauf ausgelegt, zu lernen, was du magst, und dir dann genau diese Inhalte zu zeigen. Wenn ich zum Beispiel viele Basketballvideos anschaue und viele Kochvideos, dann besteht meine Startseite hauptsächlich aus Basketball- und Kochvideos. X hingegen ist viel globaler ausgerichtet. Es interessiert sich nur sehr begrenzt dafür, was ich persönlich mag. Es interessiert sich auch nur teilweise dafür, wem ich folge. Viel wichtiger ist, was gerade „in der Welt passiert". Es ist eher wie ein Nachrichtensystem: Das war letzte Woche besonders populär, also zeige ich dir das jetzt. Das Problem dabei ist, dass diese Entscheidungen von Entwickler:innen getroffen werden - und diese Entwickler:innen sind, meiner Einschätzung nach, politisch nicht neutral, sondern eher rechts orientiert.

Warum wird Reddit oft als „kuratierende Plattform" beschrieben?

HABIB: Reddit ist deshalb besonders, weil man dort mehr Kontrolle hat. Man entscheidet selbst, welche Communities man sehen möchte. Man sucht sich zehn Themen aus, die einen wirklich interessieren. Und Reddit hat - zumindest lange Zeit - keinen Algorithmus gehabt, der einem ungefragt Inhalte unterjubelt. Ich würde es so beschreiben:

YouTube versucht zu erraten, was dir gefallen könnte.
X hat eine eigene Meinung und will dir diese zeigen.
Reddit sagt: Sag mir, was dich interessiert, und ich zeige es dir.

Interview: Birgit Pichler

 

Zur Person

Hussam Habib forscht am IDea_Lab der Universität Graz über Methoden zum Verständnis und zur Verbesserung sozialer Computersysteme. Der Forscher mit pakistanischen Wurzeln kam über ein Stipendium der Österreichischen Akademie der Wissenschaften von Iowa, USA, nach Graz.

Er ist Informatiker mit Schwerpunkt auf computergestützter Sozialwissenschaft, insbesondere darauf, wie Empfehlungsalgorithmen die Aufmerksamkeit und das Verhalten im Internet beeinflussen. In seiner Arbeit verbindet er häufig sozialwissenschaftliche Theorie mit natürlicher Sprachverarbeitung und statistischer Analyse, um Plattformen zu überprüfen und ihren Einfluss auf Nutzer zu messen. Habib promovierte in Informatik an der Universität Iowa und arbeitete später mit Rachel Greenstadt als wissenschaftliche Mitarbeiterin im PSAL Lab der New York University zusammen. Außerdem ist er Mitglied des Center for Publics, Platforms & Personalization (CP3).

Mehr zum IDea_Lab und dem Fachbereich Datenanalyse.

Mehr zum Thema

War diese Information für Sie nützlich?

Danke für Ihre Bewertung. Jeder Beitrag kann nur einmal bewertet werden.

Die durchschnittliche Bewertung dieses Beitrages liegt bei ( Bewertungen).

Ihre Kommentare

Diesen Beitrag kommentieren