DOCUMENTOS FILTRADOS
En un intento por mantener activa la plataforma, Facebook implementó cambios en su algoritmo. Logró su objetivo pero con un costo: también aumentó la violencia.
Mark Zuckerberg, CEO de Facebook.
Publicado en "The Wall Street Journal"
Facebook es una plataforma que creció para y por los usuarios. Si la gente no la usa, la página muere. Para Mark Zuckerberg -quien gracias a la app alcanzó un valor neto de 134.5 billones de dólares en el 2021- este escenario sería la peor de las noticias.
Por eso, es esperable (y casi entendible) que desde Facebook se haga todo lo posible para mantener a la gente interesada. Esto incluye una serie de modificaciones en el algoritmo que no necesariamente son positivas para los usuarios.
Facebook, cada vez más “enojado”
The Wall Street Journal realizó una investigación en en base a documentos internos de Facebook filtrados. Los mails y memos demostraron que, en cuanto a la prevención de los conflictos dentro de la red social, no todo es lo que parece.
De la boca para afuera, Mark Zuckerberg se muestra muy preocupado y comprometido en disminuir la reproducción de violencia, racismo, supremacía blanca y conflictos políticos (entre otras cosas) dentro de su plataforma. Pero cuando las cámaras se apagan, la historia es otra.
Los cambios de algoritmo se aplicaron a partir del 2018. Todo comenzó con Mark Zuckerberg descubriendo que los usuarios se conectaban cada vez menos a Facebook y que las interacciones caían en picada.
La gente casi no comentaba, daba like o compartía las publicaciones. En cambio se estableció un modo de consumo “zombie”. Es decir, los usuarios consumían el contenido de forma apática.
A eso se sumó que una serie de estudios dieron como resultado que esa pasividad a la hora de navegar la red social era perjudicial para la salud mental. A partir de eso, Facebook comenzó a aplicar cambios que buscaban fortalecer las "interacciones sociales significativas" o MSI por su traducción en inglés, siempre con el estandarte de fortalecer los vínculos entre los usuarios y mejorar su calidad de vida.
Mark Zuckerberg comunicó el nuevo rumbo de Facebook como sacrificio de parte de él y de la empresa. En su propia cuenta escribió: "Ahora, quiero ser claro: al hacer estos cambios, espero que el tiempo que la gente pasa en Facebook y algunas medidas de participación disminuyan. Pero también espero que el tiempo que pases en Facebook sea más valioso. Y si hacemos lo correcto, creo que también será bueno para nuestra comunidad y nuestro negocio a largo plazo".
Las modificaciones se basaron en asignar “puntos” a cada tipo de interacción. En pocas palabras, a más comentarios, reacciones, likes y compartidas recibiera una publicación más alcance iba a tener.
Los cambios funcionaron. Pero, ¿A qué costo?
Según los memos internos entre los empleados de la empresa de California, la plataforma se estaba convirtiendo en un espacio cada vez más violento.
El cambio de algoritmo y su efecto en la política
Para poder alcanzar a más personas de manera orgánica -es decir, sin poner plata encima- las páginas de partidos políticos comenzaron a publicar contenido que promovía el sensacionalismo y la indignación.
Las cuentas son simples: si una publicación genera indignación y enojo, la gente se va a poner a discutir en los comentarios. Las discusiones implican largos textos con justificativos, gente compartiendo con bronca y reacciones a los comentarios que son considerados más acertados por otros usuarios. Esto hace que el alcance de un post se dispare.
"La desinformación, la toxicidad y el contenido violento son excesivamente frecuentes entre las redes compartidas", lee uno de los documentos internos, redactado por los investigadores de datos de Facebook.
Dentro de los escritos filtrados se registró que partidos políticos de diferentes partes del mundo adaptaron su estrategia de comunicación para generar reacciones fuertes en sus seguidores, comúnmente la furia y el enojo, y así lograr que sus posteos llegaran a más personas.
Incluso llegaron a admitir que este modelo era preocupante ya que ponía en peligro la democracia.
Años más tarde, esto quedó evidenciado con la toma del Capitolio en Estados Unidos. Grupos simpatizantes de Donald Trump -quien había perdido las elecciones- entraron con armas al edificio mientras se hacía el paso de poder al mandatario actual, Joe Biden. Luego del incidente en donde las vidas de los congresistas corrieron peligro, Facebook fue el centro de las críticas. Desde la empresa no estaban haciendo nada para frenar a las organizaciones políticas extremistas.
Un golpe para los medios de comunicación
No sólo los partidos fueron afectados. El cambio de algoritmo implicó un golpe muy duro para los medios.
Según Comscore, una firma de datos en línea, durante la primera mitad del 2018, BuzzFeed disminuyó un 13% en el tráfico en comparación con los seis meses anteriores, Breitbart perdió un 46% y ABC News perdió un 12%.
La solución que encontraron muchos medios fue bajar la calidad de su contenido para convertirlo en posteos más “compartibles”.
"La clasificación de MSI no es en realidad contenido gratificante que impulse interacciones sociales significativas", expresó el CEO de Buzzfeed, Jonah Peretti, a través de un mail dirigido a un empleado de Facebook.
Peretti luego explicó que el nuevo algoritmo favorecía la violencia racial (un severo conflicto en Estados Unidos), la “ciencia de moda / basura”, las “noticias extremadamente perturbadoras” e imágenes desagradables.
La postura de Mark Zuckerberg
Facebook sabe que esto está sucediendo y Mark Zuckerberg también. El equipo de integridad de la empresa -cuyo objetivo es mantener la calidad y credibilidad del contenido- presentó algunas modificaciones que podían hacerse en el algoritmo para revertir este resultado negativo.
Entre los cambios sugeridos estaban incluidas formas de disminuir la proliferación de fake news y de contenido que generara división. Pero el CEO rechazó muchas de estas opciones ya que afectaban directamente las MSI que tanto favorecían al desempeño de Facebook.
En el 2019 comenzaron a plantearse algunos cambios para prevenir la proliferación de contenido falso que tiene más chances de viralizarse y recién en la primavera del 2020 Facebook realizó este tipo de modificaciones en el contenido relacionado a la salud.
El objetivo era disminuir las fake news en torno a la pandemia. Más tarde, un grupo de científicas de data propusieron extender estas medidas a otro tipo de contenido para comenzar a revertir los daños.
Una vez más, en los documentos filtrados se pudo leer a Mark Zuckerberg aclarando que no realizaría ningún cambio que disminuyera o afectara la presencia de usuarios en su plataforma.
Comentarios
Publicar un comentario