Las notas de la comunidad y el futuro de la moderación de las redes sociales
Meta ha anunciado que finalizará su programa de verificación de hechos en Estados Unidos, que será sustituido por notas de la comunidad
Meta ha anunciado que finalizará su programa de verificación de hechos en Estados Unidos, que será sustituido por notas de la comunidad
Las redes sociales ocupan una parte importante de nuestro día a día. Un 40% de los jóvenes se informa sobre temas de actualidad a través de Twitch u otras plataformas y un 70% considera que estas pueden ser una buena fuente de información. Pero no solo eso, según datos del Barómetro de la democracia elaborado por 40dB y publicado en El País, la mayoría de los ciudadanos españoles se encuentran desinformación como mínimo una vez por semana. El 57% de los encuestados señalan las redes como principales difusoras.
El informe Global Risks 2024 publicado por el World Economic Forum destaca la desinformación —y, en consecuencia, la polarización— como el riesgo más grande a corto plazo. Esto es porque la desinformación erosiona nuestro sentido de la verdad y contribuye a un clima de confusión. A escala social, supone un riesgo para la democracia, alimenta la polarización en los debates políticos y sociales y perjudica la salud pública. La desinformación también nos afecta en un plano personal. Necesitamos información de calidad para poder tomar decisiones y nos ponemos en peligro cuando las basamos en información falsa.
Por eso es importante, no solo estar concienciados del peligro, sino también desarrollar herramientas para identificar la desinformación y combatirla. Las compañías tecnológicas tienen el poder de moderar y evitar la propagación de contenido engañoso, protegiendo la democracia y la confianza pública. Si no intervienen, facilitan la manipulación y la creación de narrativas falsas que pueden tener consecuencias graves.
Es en este momento de urgencia, dos semanas antes de que Donald Trump tome posesión de la presidencia de los Estados Unidos, Meta —la empresa propietaria de Facebook, Instagram, Threads y WhatsApp— ha anunciado que finalizará su programa de verificación en el país.
El Programa de Fact-Checking para Terceros se introdujo el año 2016 con el objetivo de frenar la desinformación como respuesta a las críticas sobre el papel de Facebook en la difusión de noticias falsas durante las elecciones presidenciales de los Estados Unidos de ese año. El programa funciona en colaboración con organizaciones de fact-checking independientes que identifican la desinformación de diferentes maneras: o bien mediante un monitoreo de las redes, o bien a través de las solicitudes de verificación que envían los usuarios o los comentarios reportados por Meta. Después, los verificadores revisan estas publicaciones y las etiquetan como “falsas”, “parcialmente falsas”, “fuera de contexto” o “alteradas”. Adicionalmente, se añade información que proporciona contexto y fuentes fiables a los usuarios.
Después del trabajo de los verificadores, Meta considera si hace falta reducir la distribución del contenido falso y engañoso y toma medidas, si hace falta, contra los usuarios que le han publicado, como desactivar la monetización o suspender las cuentas. Es decir, que no son las entidades de fact-checking quienes deciden qué pasa con el contenido después de ser evaluado, sino la plataforma.
Zuckerberg también ha comunicado que, a partir de ahora, se centrarán en “simplificar las políticas y restaurar la libertad de expresión en las plataformas”, eliminando restricciones en temáticas como la migración o la identidad de género. En los Estados Unidos, los filtros automáticos, que hasta ahora moderaban el contenido de las plataformas, pasaran a actuar solo si se trata de una violación severa de las normas de la comunidad o contenido ilegal. Para todo lo demás, hará falta una denuncia de otro usuario.
Parece que el inminente cambio de legislatura en los Estados Unidos ha motivado estos cambios en las políticas de moderación de contenido. En su declaración, el director general habla de trabajar conjuntamente con el presidente Trump contra gobiernos de todo el mundo que buscan censurar el país. Para que esto sea posible, dice Zuckerberg, hace falta apoyo del gobierno y, por eso, “ha sido difícil durante estos últimos cuatro años, cuando incluso el gobierno de los Estados Unidos ha impulsado la censura”.
El fact-checking, sin embargo, no es un sistema de censura y su función no es eliminar o esconder contenido, sino ofrecer contexto y datos fiables y contrastados. Les etiquetas del Programa de fact-checking independiente permiten a los usuarios tomar decisiones más informadas sobre el contenido que consumen. Según datos publicados por Meta, entre julio y diciembre de 2023, más de 68 millones de contenidos visualizados en la UE en Facebook e Instagram fueron etiquetados y, declara Meta, “cuando se coloca una etiqueta de verificación de hechos en una publicación, el 95% de la gente no clica para verla”.
La desinformación a menudo apela a las emociones, buscando provocar miedo, tristeza, rabia… El fact-checking nos permite detenernos antes de hacer clic o interactuar con este tipo de publicaciones, nos ofrece contexto y datos verídicos para que podamos decidir cómo actuar.
Las notas de la comunidad
La propuesta alternativa al Programa de Fact-Checking para Terceros serán las Community Notes, pero, ¿qué son exactamente? Actualmente, en el modelo de X (antes Twitter), cuando un usuario ve una publicación con información que puede ser errónea o engañosa, puede solicitar una revisión desde el menú de los tres puntos. Luego, un grupo de voluntarios (contribuidores a las notas de la comunidad) recibe una notificación de la publicación solicitada para revisarla, verificar si la información es correcta y proponer una nota si considera que la publicación necesita corrección o aclaración. A partir de ahí, otros contribuyentes con perspectivas políticas o ideológicas diferentes revisan la nota y esta se acepta o se rechaza. En caso de ser aprobada, aparece debajo de la publicación y el resto de usuarios pueden valorar si es útil o no.
Meta ha expresado la voluntad de seguir el modelo de X, es decir, que las notas se aplicaran al contenido mediante un algoritmo basado en el acuerdo de usuarios en diferentes puntos del espectro político. Esto implica que ni Meta ni ninguna entidad profesional verificadora escribirá estas notas o decidirá cuáles aparecen, sino que serán escritas y valorados por los usuarios.
¿Funcionan realmente las notas de la comunidad? Diversos estudios apuntan a que estas tienen poca incidencia real a la hora de combatir la desinformación. El principal problema es que la mayoría de contenidos no se acaban verificando. Los usuarios depositan su confianza en las notas, pero estas no siempre verifican desinformación. La investigación nos dice que los usuarios voluntarios tienden a sobrevalorar a sus adversarios políticos. Además, hasta un 90% de notas nunca se acaban mostrando en X.