Navegar por las redes sociales se ha convertido en como correr por el lodo. Cada paso es incierto; cada publicación parece engañosa o generada por IA. Afirmaciones descabelladas y vídeos impactantes se vuelven virales con regularidad, y los “me gusta” suelen acumularse para este tipo de publicaciones
Sin embargo, las empresas de redes sociales recientemente eliminaron los verificadores de datos y, casualidad o no, la desinformación siguió aumentando. Pero hay un rayo de optimismo. Un gran estudio independiente publicado en la prestigiosa revista PNAS sugiere que la verificación colectiva de datos entre los usuarios de una plataforma puede funcionar espectacularmente bien para detener la propagación de mentiras.
Antes de que la verdad pueda ponerse los pantalones
“Sabemos desde hace tiempo que los rumores y las falsedades viajan más rápido y más lejos que la verdad”, dijo Johan Ugander, profesor asociado de estadística y ciencia de datos en la Facultad de Artes y Ciencias de Yale, subdirector del Instituto de Fundamentos de Ciencia de Datos de Yale y coautor del nuevo estudio.
“Los rumores son emocionantes y, a menudo, sorprendentes”, añadió. “Marcar este tipo de contenido parece una buena idea. Pero lo que desconocíamos era si tales intervenciones eran realmente eficaces para evitar su propagación, y en qué momento”.
Por ello, combatir la desinformación en redes sociales ha sido una batalla constante y cuesta arriba. Millones de personas pueden leer una mentira descarada, e incluso si la verdad sale a la luz, es probable que tenga un alcance mucho menor.
¿Y si los propios usuarios tuvieran una plataforma para etiquetar lo falso? Esa es la premisa de Notas de la comunidad, una función de verificación de datos en X (anteriormente Twitter). En lugar de un enfoque descendente, este sistema permite a los usuarios proponer y calificar notas que aportan contexto a publicaciones potencialmente engañosas. Utiliza un ingenioso algoritmo de “puentes” para buscar consenso, lo que significa que una nota sólo se promociona si personas que suelen discrepar la califican como útil.
El sistema dista mucho de ser perfecto y puede ser alterado. Pero, como descubrieron los investigadores, también puede ser de gran ayuda.
Comprobando los hechos
Un equipo de investigadores, dirigido por John Ugander e Isaac Slaughter, recopiló datos granulares, minuto a minuto, de 40.078 publicaciones con una nota comunitaria propuesta entre marzo y junio de 2023. De estas, 6.757 publicaciones consiguieron adjuntar una nota (el grupo de tratamiento). El resto, donde se propuso una nota pero no superó el algoritmo, se convirtió en el grupo de donantes.
Aquí es donde los investigadores se pusieron creativos. Para cada publicación que recibía una nota, utilizaron un “método de control sintético”. Construyeron un “gemelo digital”, una publicación fantasma contrafactual. Esta publicación fantasma era un promedio ponderado de publicaciones similares del grupo de donantes que coincidía perfectamente con el historial completo de interacción de la publicación tratada (sus “me gusta”, visualizaciones y reenvíos) hasta el segundo exacto en que apareció la Nota de la Comunidad.
Luego, los dejaron competir. Compararon la publicación real (con la nota) con su fantasma (lo que habría sucedido sin la nota). La diferencia entre ellos no fue la correlación; fue el efecto causal frío y contundente de la nota misma.
Los resultados fueron impresionantes. En el momento en que se adjuntó la nota, la trayectoria de la publicación se estancó. Las publicaciones compartidas y los “me gusta” disminuyeron un 40%, y las visualizaciones un 13%.
“Cuando la desinformación se etiqueta, deja de calar”, dijo Ugander. “Es como un arbusto que crece más ancho, pero no más alto”.
El tiempo es esencial
Este complejo diseño de estudio permitió a los investigadores ir más allá y analizar qué constituye una buena nota. El tipo de nota comunitaria fue importante. Una nota que indicaba que una imagen había sido alterada o no era real tuvo un gran impacto, mientras que una nota sobre cómo la publicación contenía información desactualizada tuvo un impacto más moderado. Pero, con diferencia, el factor más impactante fue el momento.
Las notas adjuntas en las 12 horas siguientes redujeron el número de reenvíos futuros en un 24,9%. Las notas que llegaron después de 48 horas fueron prácticamente inútiles. De hecho, los investigadores detectaron un extraño efecto de “contraataque” en estas publicaciones obsoletas. Si bien la nota seguía reduciendo los “me gusta” y los reenvíos, en realidad aumentó las visualizaciones y las respuestas.
“El etiquetado parece tener un efecto significativo, pero el tiempo apremia”, afirmó Ugander. “Un etiquetado más rápido debería ser una prioridad absoluta para las plataformas”.
Los investigadores advierten que este estudio presenta serias limitaciones, pero aun así sugieren que la “sabiduría de la multitud” puede ser un arma importante para combatir la desinformación. Tal como están las cosas, necesitamos toda la ayuda posible.
El estudio fue publicado en PNAS.
Fuente: ZME Science.
