Facebook: Wir sind Versuchskaninchen

Soziale Manipulationsmöglichkeiten des Netzwerkes werden deutlich


Gute Laune ist ansteckend. Na klar, eine alte Weisheit. Schlechte Stimmung überträgt sich auch. Wissen wir. Von viel zu vielen laschen Parties. Was jetzt auch behauptet wird: Diese Übertragung von Emotionen funktioniert auch im Digitalen, konkret bei Facebook. Nicht überraschend, aber nun eben wissenschaftlich publiziert. Wie das Ganze erforscht wurde, lässt jedoch einige Emotionen hochkochen. Denn hinter der entsprechenden Studie steckt ein riesiges Experiment, an dem fast 700.000 Facebook-Nutzer unwissentlich beteiligt waren: Bei der Hälfte wurde der Newsstream manipuliert, die anderen waren Kontrollgruppe. Legal war dies. Aber auch legitim? Durch die Diskussion, die dazu gerade intensiv stattfindet, wird auch deutlich, wie sehr wir alle manipuliert werden könnten.

Das Experiment

Das haben Facebook und seine Forscher (genau genommen: in diesem Fall unter Beteiligung zweier Uni-Forscher) vermutlich so nicht erwartet: Seit Jahren erforschen sie — wie natürlich auch viele andere Wissenschaftler — Kommunikation, Beziehungen, Selbstdarstellung und was auch immer innerhalb des blauen Riesen. Nun aber wird die oben erwähnte Studie (Full Paper) weltweit diskutiert. Nicht, weil ihre Ergebnisse so spektakulär wären, sondern weil die Studie ethisch mindestens als grenzwertig gesehen wird. Ich habe — auch für spätere Diskussionen, beispielsweise in der Lehre — ein paar Stimmen und Gedanken dazu gesammelt.

Worum ging es denn nun eigentlich? So etwas kann bild.de gut erklären. Also:

“Im Januar 2012 wurden ihnen (Anm: knapp 700.000 Facebook-Usern) eine Woche lang manipulierte Startseiten mit veränderten Statusmeldungen ihrer Freunde angezeigt. Ein Teil der User sah hauptsächlich positive Statusmeldungen, ein anderer Teil überwiegend negative. Forscher werteten dann aus, wie sich dies auf das Posting-Verhalten der Testpersonen auswirkte.”

Wer mehr Details dazu möchte, findet diese z.B. bei The Atlantic.

Klar, dass neben (bzw. vor) der BILD etliche andere Blogs und Redaktionen berichtet haben, wie ein kleiner Ausschnitt von Twitter zeigt:

Screenshot vom 29.6.2014

Was war aber nun rausgekommen? Im Ergebnis zeigte sich: Nutzer, die im Newsfeed mehr positive Meldungen sahen, äußerten sich ebenfalls eher positiv, umgekehrt war es mit negativen Meldungen genauso. Und wenn nur wenige Emotionen im Newsstream vorkommen, wird offenbar die Publikationsfreude von Nutzern generell gebremst. Ob dieses Ergebnis tatsächlich so stimmt, ist Teil einer eigenen Fachdiskussion geworden. Denn: Die Forschungsmethode wird von nicht beteiligten Psychologen massiv kritisiert. Der Hintergrund hierzu: Es wurden offenbar schlichtweg positiv und negativ konnotierte Begriffe maschinell ausgewertet. Die verwendete Software jedoch könne viele Feinheiten der Sprache wie Verneinungen etc. nicht korrekt auswerten. Damit ist also die Gültigkeit der Ergebnisse der erwähnten Studie grundsätzlich zu hinterfragen.

Ethisches Grenzland

Entscheidend ist aber: Fast 700.000 Facebook-Nutzer wussten nicht, dass ihr Newsstream — und damit sie — eine Woche lang manipuliert wurden. Klar, sonst hätte das Experiment ja kaum funktioniert. Laut Nutzungsbedingungen von Facebook ist ein solches Vorgehen durchaus legal, haben schnell einige Redaktionen herausgefunden (z.B. Slate). Doch die Frage ist, ob ein solches Vorgehen auch legitim, also ethisch korrekt, ist.

Wer vor der Beurteilung dieser Frage noch etwas mehr Hintergrund zur Forschung bei Facebook möchte: Ein ausführlicher Artikel über die Arbeit der Forscher von Facebook ist in der MIT Technology Review erschienen. Dort wird klar, dass die Forschung unter Leitung von Cameron Marlow natürlich der Weiterentwicklung der Plattform dient — und letztendlich im Dienste der Content Strategie des Dienstes steht:

“Marlow’s team works with managers across Facebook to find patterns that they might make use of. For instance, they study how a new feature spreads among the social network’s users.”

In Bezug auf das kritisierte Experiment, das nur ein Beispiel für vielfältige Studien ist, wird Marlow als der verantwortliche Wissenschaftler so zitiert:

“Our goal is not to change the pattern of communication in society,” he says. “Our goal is to understand it so we can adapt our platform to give people the experience that they want.”

Dazu kann natürlich jeder seine eigene Meinung bilden. Ganz allgemein gesprochen würde ich das Experiment dem so genannten Social Engineering zuordnen. Erstmals kennen gelernt hatte ich diesen Begriff in den neunziger Jahren als Strategie von Hackern und (damals Wirtschafts-)Spionen, mit dem Ziel, Leute so zu beeinflussen, dass sie z.B. vertrauliche Informationen preisgeben. In unserem Fall geht es um ein Beeinflussen und Ausspionieren von Verhaltensweisen im Interesse eines Unternehmens.

Worin hier die Beeinflussung bestand, wird in einigen Artikeln herausgearbeitet. So wird zum Beispiel betont, dass Facebook die Stimmung von Nutzern manipuliert habe, allein dadurch, dass die Mischung der angezeigten Beiträge im Newsstream verändert wurde. Entscheidend dabei ist immer der Aspekt, dass die betroffenen Nutzer davon nichts wussten (und ich habe nirgendwo einen Hinweis gefunden, dass sie zumindest im Nachhinein individuell informiert worden wären). Nochmals Slate dazu:

“Facebook’s methodology raises serious ethical questions. The team may have bent research standards too far, possibly overstepping criteria enshrined in federal lawand human rights declarations. “If you are exposing people to something that causes changes in psychological status, that’s experimentation,” says James Grimmelmann, a professor of technology and the law at the University of Maryland. “This is the kind of thing that would require informed consent.”

Der Knackpunkt steckt in der Formulierung “informed consent”. Die Forscher behaupten in ihrer Publikation, dieses Einverständnis habe vorgelegen und berufen sich dabei auch die Nutzungsbedingungen von Facebook. Sehr detailliert wird diese Argumentation von Sebastian Deterding in seinem Blog auseinandergenommen. Er legt nahe, dass das Vorgehen wissenschaftliche Standards nicht erfüllt. Auch eine an der Publikation beteiligte Wissenschaflerin ist sich sehr unsicher, wie das Ganze zu bewerten sei:

“I think it’s an open ethical question. It’s ethically okay from the regulations perspective, but ethics are kind of social decisions. There’s not an absolute answer. And so the level of outrage that appears to be happening suggests that maybe it shouldn’t have been done…I’m still thinking about it and I’m a little creeped out, too.”

Besonders interessant an Deterdings Beitrag ist jedoch, dass er sehr gut die unterschiedlichen Einordnungen (im Wissenschafts-Slang: Das Framing) des Ganzen sichtbar macht: einerseits die wissenschaftliche Sichtweise auf Experimente, ihre Durchführung und Kommunikation und andererseits die Praktikerebene, in der Manipulationen gang und gäbe sind, etwa durch Targeting in der Onlinewerbung oder eben die laufend üblichen Veränderungen an Newsstreams in Social Networks (ich würde auch die Suchergebnisse von Google und Co. hier sehen). Damit kann Deterding sehr gut erklären, wie sich die Berichterstattung zum Facebook-Experiment verändert hat: Erst ging es um die Ergebnisse, dann hat die wissenschaftliche Diskussion um deren Entstehung an Bedeutung gewonnen.

Die Frage ist natürlich, wie wir das Ganze für die Zukunft sehen möchten. Nochmal Sebastian Deterding:

“Do we, as a public, want companies like Facebook to be able to do large scale human subject research outside the regulatory and normative framework that academia has developed? What kind of norms and regulations do we want to set up for these new entities? How can we safeguard that large-scale human subject research — both by powerful corporate entities and individuals — does not harm the individual and public good? What old rules still apply, new technology or not?”

Und was viele Nutzer beschäftigt, ist natürlich die Frage, was Facebook alles könnte, wenn es uns übel gesonnen wäre — oder besser gesagt, wenn einzelne Mitarbeiter, beispielsweise unter dem Druck von wem auch immer, weiter reichende Manipulationen beginnen würden. Denn für das diskutierte Experiment genügten drei Leute. Genug Stoff für Verschwörungstheorien, die durch das Netz geistern: Könnte womöglich ein Geheimdienst dermaßen Einfluss nehmen, dass er politische Diskussionen in einem Land massiv beeinflusst? Womöglich sogar Revolutionen? Nur beispielhafte Fragen, die mir in vielen Tweets und Blogposts begegnet sind.

Mein Fazit

Die Manipulation durch Medien ist an sich ein uraltes Thema.

Mir scheint ziemlich klar, dass mit dem Experiment wissenschaftliche Standards verletzt worden sind. Und die in der aktuellen Diskussion erwähnten grundsätzlichen Manipulationsmöglichkeiten sind sicher nicht neu. Aber es ist wichtig, dass sie uns bewusst sind und wir diese diskutieren. (Wie) können wir damit umgehen?

An sich gibt es die Diskussion um die Manipulation von Mediennutzern seit es Medien gibt. Heute ist klar: Ein Facebook-Newsstream trägt längst zu unserer Realitätskonstruktion bei. Konnten wir bisher unterschiedliche Perspektiven erfahren, indem wir unterschiedliche Zeitungen gelesen oder Sendungen gesehen haben, haben wir nun eine Besonderheit: In Facebook steckt unsere erweiterte Peer Group, aber Facebook filtert ihre Konversation.

Ganz ähnlich ist das bei den Suchergebnissen von Google und Co. Natürlich argumentieren Riesen wie die beiden (beispielhaft!) erwähnten Konzerne immer (und oft nachvollziehbar), sie wollten für die Nutzer nur das Beste. Aber sie wollen und müssen auch Geld verdienen. Wo ist da die Grenze, wenn zum Beispiel das Ausblenden negativer Posts mehr Interaktion und eine bessere Stimmung auf die Plattform bringt? Und was bedeutet das Ganze für uns als einzelne Internetnutzer? Es geht im Netz längst nicht nur um unsere Privatsphäre, um das Auswerten von Kommunikation und Surfverhalten, sondern es geht eben auch um die Frage von Manipulation. Haben wir überhaupt eine Möglichkeit, solche Beeinflussungen auf uns gering zu halten (abgesehen vom Offline-Leben)? Schwierig ist das Ganze natürlich auch, weil Manipulationen wie sie durch den Newsstream oder Suchergebnisse produziert werden, an sich uns auch wie von den Unternehmen versprochen helfen: Indem sie dafür sorgen, dass wir in der Informationsflut nicht untergehen, sondern die vielen , vielen Updates — nach welchen Kriterien auch immer — geordnet werden und vermeintlich Relevantes nach oben gespült wird. Mit Werbung können wir vermutlich umgehen. Doch wie ist es mit Manipulationen unseres Umfeldes, die Algorithmen unterliegen, die wir nicht kennen und nicht beeinflussen können?

P.S.: Dies ist mein erster Artikel auf dieser Plattform. Ich habe mich noch nicht entschieden, ob ich diesen Text immer wieder ergänze, wenn sich die Diskussion weiter entwickelt und ob (bzw. wie) ich hier weiterhin publiziere.

Update, 6. Juli 2014

In den vergangenen Tagen wurde das Facebook-Experiment an vielen Stellen diskutiert. Landauf, landab war es in den Medien, oft genug, um den “Facebook-ist-böse”-Frame zu füllen. Andere schüttelten den Kopf und hielten das Ganze für einen Sturm im Wasserglas und betonten, manipuliert würden wir doch laufend, auch durch die traditionellen Medien. Ausführlicher und differenzierter erscheinen mir die folgenden Artikel:

Zeynep Tufekci: Facebook and Engineering the Public. Das Fazit der Soziologin:

“So, yes, I say we should care whether Facebook can manipulate emotions, or voting behavior, or whether it can model our personality, or knows your social network, regardless of the merits or strength of finding of one study. We should care that this data is proprietary, with little access to it by the user, little knowledge of who gets to purchase, use and manipulate us with this kind of data. And of course it’s not just Facebook, every major Internet platform, along with governments, are in this game and they are spending a lot of money and effort because this is so important.”

danah boyd: What does the Facebook experiment teach us? Die Medienwissenschaftlerin (Microsoft Research) hat einen ausführlichen, abwägenden Artikel vorgelegt, in dem sie betont, dass Facebook (wie viele andere) schon immer und zwangsläufig Entscheidungen trifft, und zwar, in dem es versuche, die Algorithmen an unsere Wünsche anzupassen. boyd wehrt sich aber dagegen, die Studie nur deshalb als problematisch zu sehen, weil es hier nicht um Marktforschung, sondern um eine wissenschaftliche Arbeit gegangen war:

“Do I think that we need to have a serious conversation about informed consent? Absolutely. Do I think that we need to have a serious conversation about the ethical decisions companies make with user data? Absolutely. But I do not believe that this conversation should ever apply just to that which is categorized under “research.” Nor do I believe that academe is necessarily providing a golden standard.”

Gleichzeitig sieht sie den Ärger auf gerade diese Studie als beispielhaft — beispielhaft für das Unwohlsein vieler gegenüber Big Data. Und letztlich gehe es nicht um eine Frage der Forschung, sondern um Macht:

“But on a personal level, I hate the fact that Facebook thinks it’s better than me at deciding which of my friends’ posts I should see. I hate that I have no meaningful mechanism of control on the site.”

Zwei Lösungsvorschläge

Entscheidend sind boyds’s Vorschläge: Sie wünscht sich in Firmen, die mit entsprechenden Algorithmen arbeiten, einen Ethik-Ausschuss, an dem auch unabhängige Forscher und Nutzer beteiligt sein sollen. Außerdem hofft sie auf eine Whistleblowing-Kultur, die auch gefördert werden könnte, wenn es um Black Boxes wie Algorithmen gehe. Sie habe schon in der Vergangenheit festgestellt, dass Mitarbeiter nicht mit allen Entscheidungen bei der Entwicklung von Algorithmen einverstanden waren. Solche Bedenken sollten öffentlich gemacht werden können. Ihr Fazit:

“…we need to hold companies accountable for how they manipulate people across the board, regardless of whether or not it’s couched as research. If we focus too much on this study, we’ll lose track of the broader issues at stake.”
Show your support

Clapping shows how much you appreciated Thomas Pleil’s story.