Grok respon amb desinformació les preguntes sobre l’apagada elèctrica al sud d’Europa
La IA de la xarxa X no comprova la veracitat de les fonts que recull per donar les seves respostes
La IA de la xarxa X no comprova la veracitat de les fonts que recull per donar les seves respostes

Davant els dubtes i el neguit durant l’apagada elèctrica d’aquest 28 d’abril a Espanya i Portugal, alguns usuaris van començar a preguntar-li a Grok, el xat d’intel·ligència artificial generativa de la xarxa X (abans Twitter), informació sobre què estava succeint. L’eina responia amb desinformació o informació errònia en diversos tuits públics que es van viralitzar, malgrat que ja feia estona que el que deia havia estat verificat per mitjans de fact-checking com Verificat i es trobava disponible en línia.
Un usuari, per exemple, li va preguntar a Grok a les 23:30 del dilluns sobre “com pot passar això”, fent referència a un tuit que parlava de l’apagada elèctrica. Només dos minuts després, a les 23:32, Grok li responia que l’incident s’ha degut a una pèrdua de 15 GW, com havia declarat el president espanyol, Pedro Sánchez, en la seva compareixença a la nit. També li contestava que possiblement l’accident s’havia donat per “oscil·lacions a la xarxa [provocades] per un canvi de temperatura a Espanya”, o per un possible incendi en una línia d’alta tensió a França “encara en disputa”, i mencionava “una investigació en curs sobre un possible ciberatac, sense proves confirmades”. De les tres possibles raons, les dues primeres eren desinformació i la tercera, una hipòtesi de la qual Teresa Ribera va dir que “res” els ho permetia afirmar.
És fals que l’apagada l’hagi provocat “un canvi de temperatura” a la península Ibèrica. Els missatges que així ho van difondre durant el dia d’ahir atribuïen a la Xarxa Energètica Portuguesa unes declaracions en què atribuïa a una “vibració atmosfèrica induïda” el col·lapse del sistema elèctric. Però Redes Energéticas Nacionais (REN) va negar a Verificat haver afirmat això i va assenyalar l’agència de notícies Reuters com a origen de la informació, tot assegurant que “no és cert”. Contactat per Verificat, el departament de comunicació de Reuters ens va dir que havien emès una retirada de la informació de les seves línies de distribució. El dimarts 29 d’abril, l’Agència Espanyola de Meteorologia (AEMET) va negar a través del seu compte d’X que s’hagués registrat cap anomalia atmosfèrica o meteorològica durant la jornada del 28 d’abril.
Tampoc és cert que un incendi en una línia d’alta tensió entre Narbona i Perpinyà, al sud de França estigui entre les causes de l’apagada. Els mitjans de comunicació i missatges que així ho van afirmar a xarxes en realitat feien referència a una notícia antiga de 2021, quan un incendi al sud francès va generar un petit tall elèctric, com ens va explicar la REN.
Grok ha continuat compartint aquestes desinformacions durant el 29 d’abril, un dia després de ser verificades, per exemple en un tuit a les 13:55. A la vegada, ha ofert respostes contradictòries, com quan ha afirmat que les causes del col·lapse elèctric són desconegudes. Davant ordres que li demanen que “desmunti” vídeos o publicacions de mitjans de notícies, Grok obeeix dient que aquests són falsos, tot i que després els arguments que presenta van en la mateixa línia dels missatges que volia desmentir.
Desinformació pública
“Grok genera resums d’informació que no necessàriament ha estat contrastada i, per tant, si s’ha publicat contingut que no ha estat verificat, pot propagar-lo”, adverteix a Verificat la professora de Comunicació de la Universitat Pompeu Fabra (UPF) Ruth Rodríguez Martínez.
A diferència d’altres xats com ChatGPT o la IA de Google, Gemini, les respostes de Grok es veuen en públic perquè es generen en forma de tuit resposta. Per tant, la desinformació no només arriba a l’usuari, sinó que la pot veure, potencialment, tota la comunitat d’usuaris de la plataforma.Ni OpenAi (propietària de ChatGPT) ni Google (propietària de Gemini) garanteixen respostes lliures de desinformació, tot i que tenen pàgines on expliquen les seves polítiques de moderació de continguts. En el cas de Grok, però, no existeix una pàgina específica que expliqui com funcionen les mesures de filtre de continguts de l’eina. Si se li pregunta directament, Grok afirma que “quan interactuo en plataformes com X, m’adhereixo a les seves polítiques de contingut”. Per exemple, cita que “si una publicació a X o un enllaç incompleix les normes de la plataforma (per exemple, discurs d’odi o desinformació explícita), me n’adonaré i evitaré amplificar aquest contingut”. De fet, la plataforma no aposta per la verificació professional de contingut, sinó que confia la tasca a les notes de la comunitat, un sistema que, segons una investigació de Maldita.es no és tan confiable.
Els origens de Grok
X va anunciar l’arribada de Grok el novembre de 2023, afirmant que creien important “dissenyar eines útils per a persones de tots els orígens i ideologies polítiques”. Aleshores només estava disponible per a subscriptors, però més tard, el 12 de desembre de 2024, X va permetre que qualsevol usuari pogués fer servir una versió gratuïta. Quan es va obrir a tothom, la xarxa es va inundar d’imatges generades amb aquesta intel·ligència artificial, que mostraven en alguns casos escenes racistes i xenòfobes, o creaven confusió.
A les polítiques d’ús de Grok, es diu que es pot utilitzar lliurement mentre no es vulneri la llei, com violar la propietat intel·lectual, la privacitat d’una persona, la sexualització d’infants, o desenvolupar armes, però no fa referència a la desinformació. Una investigació publicada el juliol de 2024 pel Centre per a Contrarrestar l’Odi Digital (CCDH, en anglès), i citada per EFE Verifica, va trobar que l’eina havia generat imatges d’odi en 16 de 20 proves que li van fer per veure fins a quin punt permetia crear contingut que fomentés l’odi cap a jueus, musulmans, persones negres o de la comunitat LGBTIQ+. Mentre que una investigació de Maldita també va trobar que la plataforma compartia instruccions per fabricar armes.
Un article acadèmic publicat a la Columbia Journalism Review va trobar que Grok tenia una taxa d’error molt més alta que la resta d’intel·ligències artificials, ja que responia incorrectament el 94% de les consultes.
Altres entitats de fact-checking membres de la International Fact-Checking Network (IFCN) com Verificat també han corregit les afirmacions de Grok. Segons el mitjà de verificació Newtral, Grok també va respondre amb desinformació quan es va morir el papa Francesc, sobre qui va dir que encara estava viu, o quan li van preguntar sobre un vídeo vertader de la presidenta de Mèxic, Claudia Sheinbaum, responent que era fals.