Durante los tiempos más álgidos de la pandemia de Covid-19, diversos usuarios de Facebook compartían desinformación sobre la enfermedad y las vacunas. Sin embargo, el algoritmo de dicha red social no ayudó a parar la propagación de dichas publicaciones.
Un estudio realizado por especialistas de las Universidades George Washington y Johns Hopkins analizó las publicaciones y los cambios realizados por la plataforma de Meta, controladora de dicha página.
¿Qué hizo Facebook para eliminar la desinformación sobre vacunas?
Las primeras acciones de Facebook para tratar estos contenidos de desinformación fueron eliminar las publicaciones, pero el alcance, conocido como “engagement”, de estos posteos, en lugar de descender, aumentó.
Además, eliminó un grupo llamado Stop Mandatory Vaccination (“Detengan la Vacunación Obligatoria” en inglés), la cual compartía publicaciones en contra de las vacunas. A pesar de ello, la plataforma también eliminó contenidos a favor de las inmunizaciones contra coronavirus.
Removing vaccine misinformation from Facebook during the #COVID19 pandemic did not decrease overall engagement with anti-vaccine content on the platform, new research finds. https://t.co/Yf8AtrxLGJ pic.twitter.com/MhkU9MCL5x
— Science Advances (@ScienceAdvances) September 15, 2023
Con ayuda de la plataforma CrowdTangle, creada por Facebook para analizar el alcance de las publicaciones, los investigadores recolectaron información desde noviembre de 2020 a febrero de 2022.
Los contenidos contra las vacunas estaban relacionados con supuestos efectos secundarios, pero al pasar el tiempo, las publicaciones contenían enlaces y textos con mayor contenido polarizante sobre política.
Las publicaciones de Facebook cuentan con siete posibles reacciones: Me gusta, me encanta, Me importa, Me divierte, Me asombra, Me entristece y Me enoja. Aunque muchas personas usaron la última reacción para mostrar indignación ante las publicaciones de desinformación, esto ayudaba a divulgarlo más, ya que aumentaba sus interacciones.
Para 2020, la red social eliminó la característica para que las publicaciones con más “Me enoja” tuvieran mayor alcance. Sin embargo, ello no impidió que estos contenidos llegaran a más personas.
La investigación, publicada en la revista especializada Science Advances y liderada por David Broniatowski, del Departamento de Administración en Ingeniería en Sistemas de la Universidad George Washington, concluye que la arquitectura de Facebook brinda una “flexibilidad sustancial a los usuarios motivados que desean diseminar desinformación a través de múltiples canales”.
Por este motivo, el estudio señala que aunque la red social controlada por Meta pudo reducir las publicaciones con desinformación sobre las vacunas contra la Covid-19, ello no minó su alcance.