Grok responde con desinformación a las preguntas sobre el apagón eléctrico en el sur de Europa
La inteligencia artificial de X no comprueba la veracidad de las fuentes que utiliza para dar sus respuestas.
La inteligencia artificial de X no comprueba la veracidad de las fuentes que utiliza para dar sus respuestas.
Ante las dudas y la inquietud durante el apagón eléctrico de este 28 de abril en España y Portugal, algunos usuarios empezaron a preguntarle a Grok, el chat de inteligencia artificial generativa de la red X (antes Twitter), información sobre qué estaba sucediendo. La herramienta respondía con desinformación o información errónea en varios tuits públicos que se viralizaron, a pesar de que ya hacía rato que lo que decía había sido verificado por medios de verificación como Verificat y se encontraba disponible en línea.
Un usuario, por ejemplo, le preguntó a Grok a las 23:30 del lunes sobre “cómo puede ocurrir esto”, haciendo referencia a un tuit que hablaba del apagón eléctrico. Solo dos minutos después, a las 23:32, Grok le respondía que el incidente se había debido a una pérdida de 15 GW, como había declarado el presidente español, Pedro Sánchez, en su comparecencia por la noche. También le contestaba que posiblemente el accidente se había dado por “oscilaciones en la red [provocadas] por un cambio de temperatura en España”, o por un posible incendio en una línea de alta tensión en Francia “todavía en disputa”, y mencionaba “una investigación en curso sobre un posible ciberataque, sin pruebas confirmadas». De las tres posibles razones, las dos primeras eran desinformaciones y la tercera, una hipótesis que Teresa Ribera afirmó que «nada» permitía sostener.
Es falso que el apagón lo haya provocado «un cambio de temperatura» en la península. Los mensajes que así lo difundieron durante el día de ayer atribuían a la Red Energética Portuguesa unas declaraciones en las que atribuía a una «vibración atmosférica inducida» el colapso del sistema eléctrico. Pero Redes Energéticas Nacionais (REN) negó a Verificat haber afirmado esto y señaló a la agencia de noticias Reuters como origen de la información, asegurando que «no era cierto». Contactado por Verificat, el departamento de comunicación de Reuters nos dijo que habían emitido una retirada de la información de sus líneas de distribución. El martes 29 de abril, la Agencia Española de Meteorología (AEMET) negó a través de su cuenta de X que se hubiera registrado alguna anomalía atmosférica o meteorológica durante el día 28 de abril.
Tampoco es cierto que un incendio en una línea de alta tensión entre Narbona y Perpiñán, en el sur de Francia esté entre las causas del apagón. Los medios de comunicación y mensajes que así lo afirmaron en redes en realidad hacían referencia a una noticia antigua de 2021, cuando un incendio en el sur francés generó un pequeño corte eléctrico, como nos explicó la REN.
Grok ha continuado compartiendo estas desinformaciones durante el 29 de abril, un día después de ser verificadas, por ejemplo, en un tuit a las 13:55. A su vez, ha ofrecido respuestas contradictorias, como cuando ha afirmado que las causas del colapso eléctrico son desconocidas. Ante órdenes que le piden que “desmonte” vídeos o publicaciones de medios de noticias, Grok obedece diciendo que éstos son falsos, aunque luego los argumentos que presenta van en la misma línea de los mensajes que quería desmentir.
Desinformación pública
«Grok genera resúmenes de información que no necesariamente ha sido contrastada y, por tanto, si se ha publicado contenido que no ha sido verificado, puede propagarlo», advierte a Verificar la profesora de Comunicación de la Universitat Pompeu Fabra (UPF) Ruth Rodríguez Martínez.
A diferencia de otros chats como ChatGPT o la IA de Google, Gemini, las respuestas de Grok se ven en público porque se generan en forma de tuit respuesta. Por tanto, la desinformación no solo llega al usuario, sino que la puede ver, potencialmente, toda la comunidad de usuarios de la plataforma.
Ni OpenAI (propietaria de ChatGPT) ni Google (propietaria de Gemini) garantizan respuestas libres de desinformación, aunque tienen páginas en las que explican sus políticas de moderación de contenidos. En el caso de Grok, sin embargo, no existe una página específica que explique cómo funcionan las medidas de filtro de contenidos de la herramienta. Si se le pregunta directamente, Grok afirma que “cuando interactúo en plataformas como X, me adhiero a sus políticas de contenido”. Por ejemplo, cita que “si una publicación en X o un enlace incumple las normas de la plataforma (por ejemplo, discurso de odio o desinformación explícita), me daré cuenta y evitaré amplificar este contenido.” De hecho, la plataforma no apuesta por la verificación profesional de contenido, sino que confía la tarea a las notas de la comunidad, un sistema que, según una investigación de Maldita.es no es tan confiable.
Los orígenes de Grok
X anunció la llegada de Grok en noviembre de 2023, afirmando que creían importante «diseñar herramientas útiles para personas de todos los orígenes e ideologías políticas». Entonces solo estaba disponible para suscriptores, pero más tarde, el 12 de diciembre de 2024, X permitió que cualquier usuario pudiera utilizar una versión gratuita. Cuando se abrió a todo el mundo, la red se inundó de imágenes generadas con esta inteligencia artificial, que mostraban en algunos casos escenas racistas y xenófobas, o creaban confusión.
En las políticas de uso de Grok, se dice que puede utilizarse libremente mientras no se vulnere la ley, como violar la propiedad intelectual, la privacidad de una persona, la sexualización de niños, o desarrollar armas, pero no hace referencia a la desinformación. Una investigación publicada en julio de 2024 por el Centro para Contrarrestar el Odio Digital (CCDH, en inglés), y citada por EFE Verifica, encontró que la herramienta había generado imágenes de odio en 16 de 20 pruebas que le hicieron para ver hasta qué punto permitía crear contenido que fomentaba odio hacia judíos, musulmanes, negros o la comunidad LGBTIQ+. Mientras que una investigación de Maldita también halló que la plataforma compartía instrucciones para fabricar armas.
Otro artículo académico publicado en la Columbia Journalism Review encontró que Grok tenía una tasa de error mucho mayor que el resto de inteligencias artificiales, ya que respondía incorrectamente el 94% de las consultas.
Otras entidades de fact-checking miembros de la International Fact-Checking Network (IFCN) como Verificat también han corregido las afirmaciones de Grok. Según el medio de verificación Newtral, Grok también respondió con desinformación cuando murió el papa Francisco, sobre quien dijo que todavía estaba vivo, o cuando le preguntaron sobre un vídeo verdadero de la presidenta de México, Claudia Sheinbaum, respondiendo que era falso.