WASHINGTON (AP) — Los poderosos algoritmos utilizados por Facebook e Instagram para entregar contenido a sus usuarios han sido acusados cada vez más de amplificar la desinformación y la polarización política en Estados Unidos, pero una serie de estudios innovadores publicados hace una semana deja entrever que abordar estos desafíos no es tan simple como sólo hacer un ajuste en el software de las plataformas.
Los cuatro trabajos de investigación, publicados en las revistas Science and Nature, también revelan el alcance de las cámaras de resonancia política en Facebook, donde los conservadores y los liberales se apoyan en fuentes de información divergentes, interactúan con grupos que se oponen entre sí y consumen cantidades claramente distintas de desinformación.
Los algoritmos son los sistemas automatizados que las plataformas de redes sociales utilizan para sugerir contenido a sus usuarios, al hacer suposiciones con base en los grupos, los amigos, los temas y los titulares en los que un usuario ha hecho clic en el pasado. Si bien se destacan en mantener el interés de la gente, los algoritmos han sido criticados por amplificar la desinformación y el contenido ideológico que ha agudizado las divisiones políticas del país.
Las propuestas para regular estos sistemas se encuentran entre las ideas más discutidas para abordar el papel de las redes sociales en la difusión de desinformación y alentar la polarización. Pero cuando los investigadores cambiaron los algoritmos para algunos usuarios durante las elecciones de 2020, vieron poca diferencia.
"Encontramos que los algoritmos son extremadamente influyentes en las experiencias de las personas en la plataforma, y hay una segregación ideológica significativa en la exposición a noticias políticas", dijo Talia Jomini Stroud, directora del Centro para la Participación en los Medios de la Universidad de Texas en Austin y una de las personas que encabezaron los estudios. "También encontramos que las propuestas populares para cambiar los algoritmos de las redes sociales no influyeron en las actitudes políticas".
Si bien las diferencias políticas son una característica de cualquier democracia saludable, la polarización ocurre cuando esas diferencias comienzan a separar a los ciudadanos entre sí y los lazos sociales que comparten. Pueden socavar la fe en las instituciones democráticas y en la prensa libre.
Una división significativa puede debilitar la confianza en la democracia o las instituciones democráticas y conducir a una "polarización afectiva", cuando los ciudadanos comienzan a verse entre sí más como enemigos que como una oposición legítima. Es una situación que puede conducir a la violencia, que fue lo que sucedió cuando los partidarios del entonces presidente Donald Trump atacaron el Capitolio federal el 6 de enero de 2021.
Para realizar el análisis, los investigadores obtuvieron un acceso sin precedentes a datos de Facebook e Instagram de las elecciones de 2020 a través de una colaboración con Meta, propietaria de las plataformas. Los investigadores dicen que Meta no ejerció control sobre sus hallazgos.
Cuando reemplazaron el algoritmo con una simple lista cronológica de publicaciones de amigos —una opción que Facebook puso recientemente a disposición de sus usuarios—, ello no tuvo un impacto medible en la polarización. Cuando desactivaron la opción de compartir de Facebook, que permite a los usuarios compartir publicaciones virales rápidamente, las personas vieron bastante menos noticias de fuentes no confiables y menos noticias políticas en general, pero no hubo cambios significativos en sus actitudes políticas.
Asimismo, reducir el contenido que los usuarios de Facebook reciben de cuentas con la misma alineación ideológica no tuvo un efecto significativo en la polarización, la susceptibilidad a la desinformación ni las opiniones radicales.
En conjunto, los hallazgos dejan entrever que los usuarios de Facebook buscan contenido que se alinea con sus puntos de vista, y que los algoritmos ayudan "facilitando que las personas hagan lo que están inclinadas a hacer", según David Lazer, profesor de la Universidad del Noreste que trabajó en los cuatro estudios.
Eliminar el algoritmo por completo redujo drásticamente el tiempo que los usuarios pasaban en Facebook o Instagram, y a la vez aumentó su tiempo en TikTok, YouTube u otros sitios, lo que demuestra cuán importantes son estos sistemas para Meta en el panorama cada vez más concurrido de las redes sociales.
En respuesta a los trabajos de investigación, Nick Clegg, presidente de asuntos globales de Meta, dijo que los hallazgos mostraron que "hay poca evidencia de que las características clave de las plataformas de Meta por sí solas causen una polarización ´afectiva´ dañina o tengan un impacto significativo en las actitudes, creencias o comportamientos políticos clave".
Katie Harbath, exdirectora de políticas públicas de Facebook, dijo que mostraron la necesidad de una mayor investigación sobre las redes sociales y cuestionaron las suposiciones sobre el papel que desempeñan estas redes en la democracia estadounidense. Harbath no participó en la investigación.
"La gente quiere una solución sencilla, y lo que estos estudios muestran es que no es sencilla", dijo Harbath, miembro del Centro de Política Bipartidista y directora general de la empresa de política y tecnología Anchor Change. "Para mí, refuerza que, cuando se trata de polarización o de las creencias políticas de las personas, hay mucho más en esto que las redes sociales".
Una organización que ha criticado el papel de Meta en la difusión de desinformación sobre las elecciones y el votar calificó la investigación de "limitada" y señaló que era sólo una imagen instantánea captada durante unos comicios, y no tomó en cuenta los efectos de años de desinformación en las redes sociales.
Free Press, una organización sin fines de lucro que defiende los derechos civiles en la tecnología y los medios, calificó el uso de la investigación por parte de Meta como un "giro calculado".
"Los ejecutivos de Meta están aprovechando investigaciones limitadas para que les sirvan de evidencia de que no deberían compartir la culpa por el aumento de la polarización política y la violencia", dijo en un comunicado Nora Benavidez, asesora principal y directora de justicia digital y derechos civiles del grupo. "Los estudios que Meta respalda, que parecen fragmentados en períodos de tiempo muy cortos, no deberían servir como excusa para permitir que se propaguen mentiras".
Los cuatro estudios también revelaron el alcance de las diferencias ideológicas de los usuarios de Facebook y las distintas maneras en que los conservadores y los liberales usan la plataforma para recibir noticias e información sobre política.
Los usuarios conservadores de Facebook tienen más probabilidades de consumir contenido que ha sido etiquetado como información errónea por sitios de verificación de información. También tienen más fuentes para elegir. El análisis encontró que entre los sitios web incluidos en las publicaciones políticas de Facebook, son mucho más los que se dirigen a los conservadores que los que están enfocados en los liberales.
En general, el 97% de las fuentes de noticias políticas en Facebook que los verificadores de información identificaron que difundieron desinformación fueron más populares entre los conservadores que entre los liberales.
Los autores de los estudios reconocieron algunas limitaciones en su trabajo. Si bien descubrieron que cambiar los algoritmos de Facebook tuvo poco impacto en la polarización, señalan que el estudio sólo cubrió pocos meses durante las elecciones de 2020, y por lo mismo no puede evaluar el impacto a largo plazo que han tenido los algoritmos desde que comenzaron a usarse hace años.
De igual modo refirieron que la mayoría de las personas obtienen sus noticias e información de una variedad de fuentes —televisión, radio, internet y el boca en boca—, y que esas interacciones también podrían afectar sus opiniones. Muchas personas en Estados Unidos culpan a los medios de comunicación de empeorar la polarización.
Para completar sus análisis, los investigadores analizaron datos de millones de usuarios de Facebook e Instagram y encuestaron a usuarios específicos que aceptaron participar. Toda la información de identificación de los usuarios específicos se eliminó por motivos de privacidad.
Lazer, el profesor de la Universidad del Noreste, indicó que al principio se mostró escéptico de que Meta diera a los investigadores el acceso que necesitaban, pero se sorprendió gratamente. Dijo que las condiciones impuestas por la empresa estaban relacionadas con preocupaciones jurídicas y de privacidad razonables. En los próximos meses se publicarán más estudios surgidos a partir de la colaboración.
"No hay ningún estudio como este", dijo sobre la investigación publicada hace una semana. "Ha habido mucha retórica sobre esto, pero en muchos sentidos la investigación ha sido bastante limitada".