Rätselraten über Nutzen der Facebook-Studie

Facebook hat diese Woche die Gemüter erhitzt. Für eine Studie wurden die Nachrichten von 700.000 Nutzern manipuliert um zu sehen, ob Emotionen auch im Netz ansteckend sind. Zuerst gab es Kritik am unethischen Verhalten von Facebook, da die Nutzer nichts davon wussten. Dafür hat sich Facebook inzwischen entschuldigt. Doch Datenschützer sind alarmiert, auch Verbindungen zum Pentagon stehen im Raum.

Morgenjournal, 4.7.2014

Geld und Macht

Wenn Facebook argumentiert man mache durch Filter die Nachrichtenauswahl für die User interessanter, dann geht's ums Geld, sagt Max Schrems, bekannt für seine Datenschutz-Beschwerde gegen Facebook: "Das heißt, die Leute sollen sich auf der Seite wohlfühlen, möglichst viele Freunde haben und möglichst lang draufbleiben, umso besser kann man Werbung verkaufen. Aber Potenzial für anderes ist auch immer da." Potenzial für politische Manipulation etwa: "Dinge rausfiltern, die die Leute nicht mehr sehen sollen. Da kommt man in den USA in einen Bereich, wo die Leute nur mehr Postings von Demokraten oder Republikanern sehen, je nachdem, ob sie selber Demokraten oder Republikaner sind. Und ich kriege da bei einem politischen Diskurs überhaupt nicht mehr die andere Meinung mit."

Der Blogger und Online-Marketingexperte Ritchie Pettauer kann sich durchaus vorstellen, dass das Pentagon etwa Interesse an der Beeinflussung von Massenmedien habe und daher solche Studien unterstützen könnte. "Worum geht in der politischen Propaganda letztendlich: die eigenen Akteure möglichst positiv darzustellen oder den Gegner möglichst negativ darzustellen. Und in dieser Richtung bieten solche Experimente sicherlich einiges Potenzial." Man studiere also, wie Manipulation funktioniere.

Druck für mehr Transparenz

Der britische Medienexperte Charlie Beckett von der London School of Economics glaubt nicht an politische Motive: "Das wäre ein absolutes Desaster für Facebook, die haben schon genug Probleme mit Vorwürfen zu Datenmissbrauch. Das letzte was die wollen, ist in Zusammenhang mit Sicherheitsorganisationen gebracht zu werden."

Außerdem solle man die Studie nicht überbewerten: "Die Studie zeigt, dass sich das Verhalten der User kaum verändert hat, sie haben aufgrund der Nachrichtenauswahl nur marginal anders gepostet, aber die User tun nichts woran sie nicht glauben."

Wie sehr User manipuliert werden können, wissen wir also nicht genau, nur dass es ums Werbegeld geht, ist sicher. Facebook habe die Studie immerhin veröffentlicht, sagt Beckett. Schlimmer wäre es wenn Internetkonzerne ihre Algorithmen ändern, ohne dass die User bescheid wissen. Legal könne man kaum gegen Facebook vorgehen, da sind sich alle Experten einig. Aber Behörden und die Öffentlichkeit müssten mehr Druck auf Internetkonzerne machen, transparenter zu werden, sagt Beckett.

Übersicht