A Meta le gustaría presentar su próximo verificador de datos, uno que detectará falsedades, escribirá correcciones convincentes y advertirá a otros contra el contenido engañoso.
Eres tú.
Mark Zuckerberg, director ejecutivo de Meta, anunció el martes que pondría fin a gran parte de los esfuerzos de moderación de la compañía, como la verificación de datos por parte de terceros y las restricciones de contenido. En cambio, dijo, la compañía entregará las tareas de verificación de datos a los usuarios cotidianos bajo un modelo llamado Notas de la comunidad, que fue popularizado por X y permite a los usuarios dejar una verificación de hechos o una corrección en una publicación en las redes sociales.
El anuncio marca el fin de una era de moderación de contenido y la adopción de pautas más flexibles que, incluso Zuckerberg reconoció, aumentarían la cantidad de contenido falso y engañoso. en la red social más grande del mundo.
“Creo que va a ser un fracaso espectacular”, dijo Alex Mahadevan, director de un programa de alfabetización mediática en el Instituto Poynter llamado MediaWise, que ha estudiado Community Notes sobre X. “La plataforma ahora no tiene responsabilidad por nada de lo que se diga”. . Pueden trasladar la responsabilidad a los propios usuarios”.
Semejante cambio habría sido inimaginable después de las elecciones presidenciales de 2016 o incluso de 2020, cuando las empresas de redes sociales se vieron a sí mismas como guerreros reacios en la primera línea de una guerra de desinformación. Las falsedades generalizadas durante las elecciones presidenciales de 2016 provocaron una reacción pública y un debate dentro de las empresas de redes sociales sobre su papel en la difusión de las llamadas “noticias falsas”.
Las empresas han respondido invirtiendo millones en esfuerzos de moderación de contenido, pagando a verificadores de datos externos, creando algoritmos complejos para limitar el contenido tóxico y emitiendo una avalancha de etiquetas de advertencia para frenar la propagación de falsedades, medidas que se consideran necesarias para restaurar la confianza del público.
Los esfuerzos funcionaron, hasta cierto punto: las etiquetas de verificación de datos fueron efectivas para reducir la creencia en falsedades, encontraron los investigadores, aunque fueron menos efectivas entre los estadounidenses conservadores. Pero los esfuerzos también convirtieron a las plataformas, y a Zuckerberg en particular, en objetivos políticos de Trump y sus aliados, quienes dijeron que la moderación de contenido era nada menos que censura.
Ahora el contexto político ha cambiado. Con Trump a punto de tomar el control de la Casa Blanca y los reguladores que supervisan Meta, Zuckerberg se ha centrado en reparar su relación con Trump, cenando en Mar-a-Lago y añadiendo un aliado de Trump a la junta directiva de Meta. y donar 1 millón de dólares al fondo de inauguración de Trump.
“La reciente elección también se siente como un punto de inflexión cultural hacia una vez más priorizar el discurso”, dijo Zuckerberg en un video anunciando los cambios de moderación.
La apuesta de Zuckerberg por utilizar las Notas de la comunidad para reemplazar a los verificadores de datos profesionales se inspiró en un experimento similar realizado por X que permitió a Elon Musk, su multimillonario propietario, subcontratar la verificación de datos de la empresa a los usuarios.
X ahora pide a los usuarios cotidianos que detecten falsedades y escriban correcciones o agreguen información adicional a las publicaciones en las redes sociales. Se desconocen los detalles exactos del programa de Meta, pero en X, las notas inicialmente sólo son visibles para los usuarios que se registran en el programa Community Notes. Una vez que reciben suficientes votos que los consideran valiosos, se agregan a la publicación en las redes sociales para que todos los vean.
“El sueño de una plataforma de redes sociales es una moderación totalmente automatizada de la que, en primer lugar, no tienen que asumir la responsabilidad y, en segundo lugar, no tienen que pagarle a nadie”, dijo Mahadevan, director de MediaWise. “Así que Community Notes es el sueño absoluto de estas personas: básicamente han intentado diseñar un sistema que automatice la verificación de datos”.
Musk, otro aliado de Trump, fue uno de los primeros en apoyar las Notas Comunitarias. Rápidamente mejoró el programa después de despedir a la mayor parte del equipo de confianza y seguridad de la empresa.
Los estudios han demostrado que Community Notes funciona para disipar algunas falsedades virales. Los investigadores encontraron que el enfoque funciona mejor para temas sobre los que existe un amplio consenso, como la información errónea sobre las vacunas Covid.
En ese caso, las notas “surgieron como una solución innovadora, que proporciona información de salud precisa y creíble”, dijo John W. Ayers, subdirector de innovación en la división de enfermedades infecciosas y salud pública global de la Universidad de California en San Diego. Facultad de Medicina, que escribió un informe en abril sobre el tema.
Pero los usuarios con diferentes opiniones políticas deben ponerse de acuerdo sobre una verificación de datos antes de adjuntarla públicamente a una publicación, lo que significa que las publicaciones engañosas sobre temas políticamente controvertidos a menudo no se controlan. MediaWise descubrió que menos del 10% de las notas comunitarias escritas por los usuarios terminan apareciendo en publicaciones ofensivas. Las cifras son aún más bajas en temas delicados como la inmigración y el aborto.
Los investigadores han descubierto que la mayoría de las publicaciones en X reciben la mayor cantidad de tráfico en las primeras horas, pero pueden pasar días hasta que una nota de la comunidad sea aprobada para que todos la vean.
Desde su debut en 2021, el programa ha despertado el interés de otras plataformas. YouTube anunció el año pasado que estaba lanzando un proyecto piloto que permitiría a los usuarios enviar notas para que aparecieran debajo de videos engañosos. La utilidad de estas verificaciones de datos todavía es evaluada por evaluadores externos, dijo YouTube en una publicación de blog.
Las herramientas de moderación de contenido existentes de Meta parecieron abrumadas por la avalancha de falsedades y contenido engañoso, pero los investigadores consideraron que las intervenciones eran bastante efectivas. Un estudio publicado el año pasado en la revista Nature Human Behavior mostró que las etiquetas de advertencia, como las utilizadas por Facebook para advertir a los usuarios sobre información falsa, reducen la creencia en falsedades en un 28% y reducen la frecuencia con la que se comparte contenido en un 25%. Los investigadores descubrieron que los usuarios de derecha eran mucho más cautelosos con la verificación de datos, pero que las intervenciones aún eran efectivas para reducir su confianza en el contenido falso.
“Todas las investigaciones muestran que, esencialmente, cuanto más obstáculos y fricción hay en una plataforma, menos se difunde información de baja calidad”, dijo Claire Wardle, profesora asociada de comunicaciones en la Universidad de Cornell.
Los investigadores creen que la verificación de datos de la comunidad es eficaz cuando se combina con esfuerzos internos de moderación de contenido. Pero el enfoque no intervencionista de Meta podría resultar arriesgado.
“El enfoque comunitario es una pieza del rompecabezas”, dijo Valerie Wirtschafter, investigadora de la Brookings Institution que ha estudiado Community Notes. “Pero no puede ser lo único y ciertamente no puede presentarse simplemente como una solución completa y no personalizada”.
