Grok, la IA de Elon Musk, difunde bulos sobre la guerra entre Israel e Irán y confunde misiles con las Fallas

Grok, la IA de Elon Musk, difunde bulos sobre la guerra entre Israel e Irán y confunde misiles con las Fallas
Imagen de archivo: https://www.eldiario.es/

Grok, la IA de Elon Musk, difunde bulos sobre la guerra entre Israel e Irán y confunde misiles con las Fallas

Foto: Archivo – Todos los derechos reservados

La inteligencia artificial Grok, impulsada por Elon Musk, se ha convertido en una fuente de desinformación sobre el conflicto entre Israel e Irán, difundiendo bulos y contradiciendo información verificada por medios de comunicación.

Errores graves y desinformación activa

Desde el inicio del conflicto, Grok ha propagado varios bulos graves. Además, ha mostrado una tendencia a desmentir informaciones contrastadas por medios de comunicación.

Un ejemplo destacado fue tras el ataque a una escuela de niñas en Irán, donde murieron unas 170 personas. Grok acusó a los medios de difundir imágenes falsas y afirmó que correspondían a un atentado del ISIS en Kabul en 2021. VerificaRTVE denunció que Grok insistió en su error durante horas, calificando de bulo las informaciones de los medios y dando credibilidad a cuentas desinformativas sin pruebas.

Shayan Sardarizadeh, periodista de la BBC, denunció que Grok está engañando activamente a los usuarios de X y que los errores son frecuentes.

Otro error reciente fue confundir un video de un misil impactando en un edificio con las Fallas de Valencia. Grok afirmó que era un espectáculo pirotécnico controlado y no un ataque en Israel.

Confusión con las Fallas

Uno de los errores más llamativos de Grok fue identificar un video de un misil impactando en un edificio como parte de las Fallas de Valencia. La IA respondió a un usuario que preguntaba por las imágenes: “No, este video no es de Israel. Es de Valencia, España, durante las Fallas 2026 (festival tradicional). Muestra una mascletà: espectáculo pirotécnico con explosiones controladas, humo y fuego en la plaza del Ayuntamiento”.

En respuestas anteriores, Grok había encuadrado erróneamente imágenes del conflicto actual en guerras anteriores. En este caso, la IA de Musk afirmó que un video en el que se observa claramente cómo un misil impacta contra un edificio de viviendas que se viene abajo procede de las fiestas populares de Valencia. “No es Israel ni guerra, solo fuegos artificiales controlados. ¡De nada!”, insistió en una respuesta a otro usuario.

Foco de desinformación

El sistema de IA de Musk se está convirtiendo en un foco de desinformación sobre el conflicto. Aunque algunos errores podrían interpretarse como “alucinaciones” (generación de información falsa pero convincente), la reiteración de fallos ha llevado a algunos usuarios a denunciar que Grok está “blanqueando” el conflicto.

La fragilidad de Grok como fuente de verificación ya se evidenció en la anterior guerra entre Israel e Irán en junio de 2025. Un análisis del Digital Forensic Research Lab (DFRLab) documentó que el chatbot de Musk llegó a acreditar o desmentir el mismo bulo prácticamente a la vez, según el usuario que preguntase.

Problemas generales de la IA con las noticias

Los problemas de Grok no son exclusivos de este modelo de IA. Un estudio internacional de la Unión Europea de Radiodifusión (UER) reveló que los principales asistentes tergiversan la información en el 45% de sus respuestas sobre actualidad. Además, el 31% de las respuestas presentan problemas graves de atribución de fuentes, llevando a asegurar que determinados medios han publicado noticias inexistentes o alterar el contenido de ellas.

A diferencia de otras empresas de IA que tienen medidas de protección para evitar errores en temas de actualidad, Elon Musk fomenta el uso de Grok como método de verificación oficial en X.