Les notes de la comunitat i el futur de la moderació a les xarxes socials
Meta ha anunciat que finalitzarà el seu programa de verificació de fets als Estats Units, que serà substituït per notes de la comunitat
Meta ha anunciat que finalitzarà el seu programa de verificació de fets als Estats Units, que serà substituït per notes de la comunitat
Les xarxes socials ocupen una part important del nostre dia a dia. Un 40% dels joves s’informa de temes d’actualitat a través de Twitch o altres plataformes i un 70% considera que aquestes poden ser una bona font d’informació. Però no només això, segons dades del Baròmetre de la democràcia elaborat per 40dB i publicat a El País, la majoria dels ciutadans espanyols se’n troben com a mínim una per setmana. El 57% dels enquestats assenyalen les xarxes com a principals difusores.
L’informe Global Risks 2024 publicat pel World Economic Forum destaca la desinformació —i, en conseqüència, la polarització— com el risc més gran a curt termini. Això és perquè la desinformació erosiona el nostre sentit de la veritat i contribueix a un clima de confusió. A escala social, suposa un risc per a la democràcia, alimenta la polarització en els debats polítics i socials i perjudica la salut pública. La desinformació també ens afecta en un pla personal. Ens cal informació de qualitat per poder prendre decisions i ens posem en perill quan les basem en informació falsa.
Per això és important, no només estar conscienciats del perill, sinó també desenvolupar eines per identificar la desinformació i combatre-la. Les companyies tecnològiques tenen el poder de moderar i evitar la propagació de contingut enganyós, protegint la democràcia i la confiança pública. Si no hi intervenen, faciliten la manipulació i la creació de narratives falses que poden tenir conseqüències greus.
És en aquest moment d’urgència, dues setmanes abans que Donald Trump prengui possessió de la presidència dels Estats Units, Meta —l’empresa propietària de Facebook, Instagram, Threads i WhatsApp— ha anunciat que finalitzarà el seu programa de verificació de fets al país.
El Programa de Fact-Checking per a Tercers es va introduir l’any 2016 amb l’objectiu de frenar la desinformació com a resposta a les crítiques sobre el paper de Facebook en la difusió d’afirmacions falses durant les eleccions presidencials dels Estats Units d’aquell any. El programa funciona amb organitzacions de fact-checking independents que identifiquen la desinformació de diferents maneres: o bé mitjançant un monitoratge de les xarxes, o bé a través de les sol·licituds de verificació que envien els usuaris o els comentaris reportats per Meta. Després, els verificadors revisen aquestes publicacions i les etiqueten com a “falses”, “parcialment falses”, “fora de context” o “alterades”. Addicionalment, s’afegeix informació que proporciona context i fonts fiables als usuaris.
Un cop feta aquesta feina, Meta considera si cal reduir la distribució del contingut fals i enganyós i pren mesures, si cal, contra els usuaris que l’han publicat com desactivar la monetització o suspendre els comptes. És a dir, que no són les entitats de fact-checking les que decideixen què passa amb el contingut un cop avaluat, sinó la plataforma.
Zuckerberg també ha comunicat que, a partir d’ara, se centraran en “simplificar les polítiques i restaurar la llibertat d’expressió a les plataformes”, eliminant restriccions en temàtiques com la migració o la identitat de gènere. En endavant, als Estats Units, els filtres automàtics, que fins ara moderaven el contingut de les plataformes, només actuaran si es tracta d’una violació severa de les Normes de la comunitat o continguts il·legals. Per tota la resta, caldrà una denúncia d’un altre usuari.
Sembla que l’imminent canvi de legislatura als Estats Units ha motivat aquests canvis en les polítiques de moderació de contingut. En la seva declaració, el director general parla de treballar conjuntament amb el president Trump contra els governs d’arreu del món que busquen censurar el país. Perquè sigui possible, diu Zuckerberg, cal un suport del govern i, per això, “ha estat difícil durant els últims quatre anys, quan fins i tot el govern dels Estats Units ha impulsat la censura”.
El fact-checking, però, no és un sistema de censura i la seva funció no és pas eliminar o amagar contingut, sinó oferir context i dades fiables i contrastades. Les etiquetes del Programa de fact-checking independent permeten als usuaris prendre decisions més informades sobre el contingut que consumeixen. Segons dades publicades per Meta, entre juliol i desembre de 2023, més de 68 milions de continguts visualitzats a la UE a Facebook i Instagram havien estat etiquetats i, declara Meta, “quan es col·loca una etiqueta de verificació de fets en una publicació, el 95% de la gent no hi clica per veure-la”.
La desinformació sovint apel·la a les emocions, busca provocar por, tristesa, ràbia… El fact-checking ens permet aturar-nos abans de clicar o interactuar amb aquesta mena de publicacions, ens ofereix context i dades verídics per tal que puguem decidir com actuar.
Les notes de la comunitat
La proposta alternativa al Programa de Fact-Checking per a Tercers seran les Community Notes, però, què són exactament? Ara com ara, el model de X (abans Twitter), quan un usuari veu una publicació amb informació que pot ser errònia o enganyosa, pot sol·licitar una revisió des del menú dels tres punts. Després, un grup de voluntaris (contribuïdors a les notes de la comunitat) rep una notificació de la publicació sol·licitada per revisar-la, comprovar si la informació és correcta i proposar una nota si considera que la publicació necessita correcció o aclariment. A partir d’aquí, altres contribuïdors amb perspectives polítiques o ideològiques diferents revisen la nota i aquesta s’accepta o es rebutja. En cas de ser aprovada, apareix a sota de la publicació i la resta d’usuaris poden valorar si és útil o no.
Meta ha expressat la voluntat de seguir el model de X, és a dir, que les notes s’aplicaran al contingut mitjançant un algoritme basat en l’acord d’usuaris en diferents punts del ventall polític. Això implica que ni Meta ni cap entitat professional verificadora escriurà aquestes notes o decidirà quines apareixen, sinó que seran escrites i valorades pels usuaris.
Però, funcionen les notes de la comunitat? Diversos estudis apunten que aquestes tenen poca incidència real a l’hora de combatre la desinformació. El principal problema és que la majoria de continguts no s’acaben verificant. Els usuaris dipositen la seva confiança en les notes, però aquestes no sempre verifiquen desinformació. La recerca ens diu que els usuaris voluntaris tendeixen a sobrevalorar els seus adversaris polítics. A més a més, fins a un 90% de les notes mai no es mostren a X.