Realität oder Social Media Schein

Foto: Happystock / dreamstime.com

Fragen nach Gefühls-Experiment

Ja, jeder Mensch filtert bestimmte Aspekte weg, wenn er oder sie sich in Social Media bewegt. Aber ist das noch legitim, wenn Social Media-Plattformen ihre digitalen Filter gezielt auf ihre Nutzer loslassen, um deren Stimmung zu manipulieren?

Seit Anbeginn der digitalen Vernetzung besteht das Thema wie authentisch die online sichtbaren „User“ sind. Wie viel sie von ihrer realen Identität digital durchscheinen lassen. In den späten 80ern machte ich die Erfahrung, dass andere mich mit meinem neutralen Nutzernamen zunächst stets als Mann wahrnahmen. Das hatte Vorteile (für mich): Statt Flirten konnte ich mich über Bits & Bytes austauschen.

Auch als die 3d-Umgebung von Second Live erkundet wurde, gab es bald Häme: Steuern Menschen in komplett gegensätzlicher Gestalt die vielen schlanken und weiblichen Avatare in der virtuellen Welt?

Beeinflussung per Status-Update

Genauso ist auf Foto-betonten Plattformen wie Facebook das kritische Auge gefragt, das nicht jedes Foto-Update der Nutzer für ein Abziehbild der Realität hält. Sehr schön als Glosse aufbereitet haben dies die HigtonBros im Video „What’s on your mind?“.

Dies machen wir Nutzer der Plattformen, wenn wir gestalten wollen, wie wir online wahrgenommen werden – sowohl von privaten als auch beruflichen Netzwerkkontakten. Und dabei nehmen wir auch Einfluss auf die Gefühlswelt unserer Familie, Freunde und Kontakte.

Für eine wissenschaftliche Auswertung manipulierte Facebook eine Woche lang gezielt die Nachrichtenströme von rund 690.000 Facebook-Nutzern: Die eine Gruppe erhielt nur positive, die andere nur negative Beiträge aus ihrem Netzwerk angezeigt. Sodann wurde in einer wissenschaftlichen Studie ausgewertet, wie dadurch die Stimmung der Beiträge dieser unfreiwilligen Probanden beeinflusst wurde. Ergebnis (wenig überraschend): positive Beiträge führten zu positiven, negative zu negativen Statusmeldungen.
(Details siehe „Everything we know about Facebooks secret mood manipulation experiment„)
Warum das in Zeiten von Big Data Analysis nicht einfach großräumig erforscht wurde ohne die Nachrichtenansicht gezielt zu manipulieren – man weiss es nicht.

Im Großen und Ganzen – das hat das Facebook-Experiment mit zielgerichtet gefilterten Statusmeldungen gezeigt – beeinflussen wir die Stimmung der mit uns verknüpften Nutzer durch die Tonalität unserer Beiträge. Quasi der lebende Beweis für das Sprichwort Wie man in den Wald hineinruft, so schallt es auch heraus.

Filter nach Interessen ok – aber…

Jetzt könnte man sagen, Facebook filtert – na und? Ohne die Filter könnten Nutzer die abonnierten Updates nur noch wie der Abspann von Spielfilmen im Privatfernsehen rasch vorüberziehen sehen. Bisher war bekannt, dass das größte Social Network für jeden angemeldeten Nutzer individuell filtert, was für ihn oder sie mit hoher Wahrscheinlichkeit am interessantesten ist. Dazu werden jegliche Interaktionen der Nutzer ausgewertet („like“, Profilaufrufe, Kommentare, etc.).

Happystock / dreamstime.com

Warum das jetzt bekannt gewordene Vorgehen von Facebook aus 2012 (!) nicht egal ist:
Das Verständnis über derartige Verknüpfungen kombiniert mit der Eingriffsmöglichkeit in der Hand des Betreibers einer Plattform sowie der Präzision des eingreifenden Filtermechanismus – das ist neu. Und wirft moralische Fragestellungen auf:

  • Wenn Updates von Unternehmen, Organisationen, kulturellen Einrichtungen oder Blogs auf Facebook Seiten bei den abonnierenden Nutzern nicht mehr angezeigt werden, um den Druck zu Werbeeinnahmen zu erhöhen – ist das einfach Geschäftsinteresse und somit ok?
  • Wenn durch Aussieben negativer Nachrichten die Stimmung in der Nutzerschaft positiver wird – ist das gut für die Volksstimmung oder verwerflich weil es unter Umständen der Nutzerbindung fürs Geschäft dient?
  • Wenn durch Filterung negative Meinungsäußerungen bevorzugt angezeigt werden und damit zum Beispiel die Stimmungslage der Nutzer aus einem bestimmten Land angeheizt oder deren Angst geschürt wird – ist das vertretbar?

Moral des Experiments

Das sind nur einige der Fragen, die das „Experiment“ zu Neuland Social Media und die betreibenden Unternehmen darin aufwirft. Unklar ob hier eine „Don’t be evil“-Unternehmens-Losung wie bei Google ausreicht. Transparenz ist wichtiges Momentum, dazu ist zumindest die in vielen Medienkanälen aufgegriffene Studie nützlich. Viele Nutzer wussten bis zu der Diskussion um das Experiment (oder bis zu einem Workshop bei mir) gar nicht, dass ihre Nachrichten von Facebook gefiltert werden.

Die Moral aus der Geschichte ist zunächst, sich der gefilterten Ansicht im Nachrichtenstrom bewusst zu werden und ihren Inhalt zu hinterfragen. Und: Aktiver Nutzer sein anstatt sich passiv berieseln zu lassen – zum Beispiel immer wieder aktiv Profile von bekannt kritischen oder positiven Menschen im eigenen Umfeld aufrufen. Oder es nicht Facebook überlassen, sondern die Tonalität des Nachrichtenstroms selbst gestalten: Dabei hilft im Chrome Browser die Erweiterung Facebook Mood Manipulator, um die Facebook-Meldungen nach eigenem Stimmungsfilter anzuzeigen.

Doris Schuppe
Illustration DoSchu / DoSchu.Com mit Fotos von Happystock / dreamstime.com

Der Beitrag gefällt Euch? Dann freu ich mich über Eure Weiterempfehlung:

Ein Feedback



Wir benutzen Cookies um die Nutzerfreundlichkeit der Webseite zu verbessen. Durch Deinen Besuch stimmst Du dem zu.