¿Podemos culpar a Facebook?

Una reflexión sobre lo que Facebook sabe y permite

ThinkTech Seminars
ThinkTech
5 min readOct 26, 2021

--

Este semestre estamos analizando las recientes investigaciones del Wall Street Journal sobre Facebook: the Facebook files. A través de estos reportajes, profundizamos en temas como los efectos de la tecnología en nuestra vida, salud mental, algoritmos, responsabilidad, polarización, desinformación.

Photo by Roman Martyniuk on Unsplash

En este seminario abordamos el 4º Facebook file: the outrage algorithm. En este reportaje, se exploran las consecuencias de un cambio importante en el algoritmo que realizó la empresa en 2018. Los documentos que salieron a la luz describen cómo el énfasis en el engagement incentivó la difusión de contenido divisivo, sensacionalista y desinformación.

Nuestra discusión se centra principalmente en esta pregunta: ¿cuánta culpa tiene Facebook? ¿Le podemos exigir más responsabilidad, si no sabemos realmente cuánto pueden controlar? De aquí también derivamos cuestiones como si las empresas tienen la obligación de informar sobre lo que pasa dentro de ellas. O, ¿qué tipo de empresa es Facebook, al ser una empresa privada pero al mismo tiempo manejar enormes cantidades de información pública?

Para poder contestar adecuadamente estas preguntas (o al menos entenderlas mejor), hicimos un repaso de los eventos más importantes en la historia de Facebook de los últimos años:

  • Todo comienza en el 2017, cuando sale a la luz lo sucedido detrás de las elecciones del 2016, tanto en Gran Bretaña como en Estados Unidos. Cuando Cambridge Analytica, una consultora de inteligencia política, diseñó campañas de microtargeting agresivo y específico a personas en Facebook que sabían que todavía no habían decidido su voto para el Brexit. Esto se logró porque los datos personales de millones de usuarios de Facebook fueron filtrados, sin su consentimiento, a Cambridge Analytica a través de una app llamada “This Is Your Digital Life”.
  • La respuesta de Facebook ante esto fue priorizar la protección de la información de sus usuarios. Algunos investigadores dicen que esta realmente no fue la respuesta más apropiada, porque Facebook usó la situación para cerrarse más y volverse más opaco en cuanto a la información que comparte, información valiosa que podría ser usada para investigación, por ejemplo. Por lo tanto, en 2017 Facebook busca reinventarse.
  • El conocido escándalo de Facebook y Cambridge Analytica fue lo que desencadenó muchos de los problemas que vería esta plataforma en los siguientes años. Para comenzar, esto tuvo efectos en los usuarios de Facebook. Principalmente, Facebook nota que el engagement de sus usuarios baja significativamente. Esto hace que la empresa lleve a cabo una revisión de su algoritmo y lo modifique para aumentar lo que ellos llaman “meaningful social interactions”, o MSI. Lo que intentaban hacer es que aumentaran las interacciones con amigos y familiares, para pasar más tiempo en la plataforma. No suena mal, ¿no? No obstante, esta acción tuvo consecuencias no deseadas.
  • Al priorizar el contenido por la cantidad de respuesta e interacciones que recibe, se empiezan a transmitir con más facilidad publicaciones muy emocionales, que reciben reacciones rápidas, normalmente negativas. Es decir, el algoritmo de Facebook, sin quererlo, comienza a darle mayor visibilidad a un contenido con alta carga emocional y que suele ser polarizante y desinformativo.
  • En 2018, algunas empresas y medios de comunicación se dieron cuenta que, para tener más engagement con los usuarios después del cambio en el algoritmo, tenían que crear contenido divisivo. Esto salió a la luz con un correo que Jonah Peretti, CEO de BuzzFeed, envió a un responsable de Facebook en otoño del 2018. Peretti explicaba que el éxito que estaban teniendo las publicaciones con contenido polémico representaban un incentivo para las páginas y usuarios para publicar todavía más contenido con desinformación, toxicidad, y violencia. Facebook también descubrió que algunos partidos políticos estaban reorientando sus publicaciones para hacerlas más extremas y así tener mayor impacto, lo que podría tener un efecto negativo en el sistema democrático.

Todos estos sucesos hacen que nos planteemos muchas preguntas sobre Facebook. En primer lugar, ¿tiene la obligación de informar sobre todo lo que pasa dentro de la empresa?; ¿tenemos el derecho a saber todo lo que ellos saben sobre los efectos que tiene sobre el público? En nuestra discusión hemos encontrado que le podemos exigir a Facebook que comparta esta información cuando: altere el orden público, cuando creen algún daño, o en el caso que ignoren los efectos de algo debiéndolo saber.

La siguiente pregunta que nos hicimos es si Facebook tiene la culpa. Es decir, cualquier algoritmo priorizará algo sobre otras cosas y probablemente todos tendrán efectos secundarios, que no siempre son directamente observables. Entonces, ¿podemos realmente exigirles más responsabilidad? Podría ser que haya omisiones importantes por las que criticar a Facebook pero ¿pueden realmente saber todas las consecuencias que tendrán sus decisiones? ¿Deben? Otro gran problema a discutir es la naturaleza de Facebook: ¿ es un foro público, una plataforma neutra, una empresa privada? Si no sabemos lo que es, no podemos tampoco exigirle acciones más concretas.

También es cierto que Facebook no se ha quedado estático; han intentado hacer cosas para mejorar, y que haya investigaciones detrás así lo demuestra, aunque no hayan tenido buenos resultados. Es muy difícil tener un sistema perfecto, ya que los algoritmos están hechos por personas, y al ser humanos, está en nuestra naturaleza cometer errores. Como podemos ver, ninguna respuesta es blanco o negro.

Ante todo esto, la pregunta que nos hacemos es, ¿qué se puede hacer? Censurar contenido no es una buena respuesta, pues la moderación de contenidos crea debates polémicos sobre la libertad y responsabilidad de expresión en estas plataformas. Exploramos otras opciones: ¿existe la posibilidad de que actores externos realicen auditorías a Facebook? ¿Puede tener Facebook un garante que se haga responsable en situaciones como estas?

Al final, nos quedan dos cosas claras. Aunque todavía quedan muchas preguntas por contestar, y seguramente las respuestas tengan que venir en gran parte desde dentro de Facebook, nosotros también tenemos la responsabilidad de contestar una gran incógnita: ¿Qué esperamos de Facebook?

A cargo de Alexia Tefel-Escudero | LinkedIn

--

--

ThinkTech Seminars
ThinkTech

Somos una comunidad de universitarios de distintas disciplinas. Escribimos sobre tecnología y su papel en el presente y futuro de la sociedad.