Internacionales

IA falsifica la guerra en Irán en redes sociales

Imágenes falsas de IA dominan el conflicto en Irán

Una avalancha de imágenes y videos generados por inteligencia artificial con escenas falsas del conflicto en Irán ha inundado las redes sociales, marcando lo que investigadores describen como el nivel más alto de desinformación sintética registrado durante un conflicto militar activo. Solo en las primeras dos semanas, The New York Times identificó más de 110 publicaciones únicas con contenido falso generado por IA, acumulando millones de vistas en X, TikTok y Facebook.

El contenido fabricado incluye videos de misiles impactando Tel Aviv, imágenes satelitales falsas de bases militares destruidas e imágenes de soldados estadounidenses capturados, ninguno de los cuales representa eventos reales. Expertos como Marc Owen Jones, profesor de analítica de medios en la Universidad Northwestern en Catar, señalan que el volumen de contenido falso supera con creces todo lo visto en conflictos anteriores, incluida la guerra en Ucrania.

Plataformas sin respuestas suficientes

Gran parte del contenido promueve narrativas pro-iraníes, exagerando daños en Israel y los estados del Golfo para sugerir que la guerra es más costosa para Estados Unidos y sus aliados de lo que realmente es. Valerie Wirtschafter, investigadora de Brookings Institution, calificó los videos falsos como “una herramienta de guerra” que Irán explota activamente.

La respuesta de las plataformas ha sido lenta e insuficiente. Una investigación de Wired reveló que el chatbot Grok de X no solo falla en detectar los falsos, sino que genera sus propias imágenes sintéticas cuando los usuarios intentan verificar contenido. Meta reconoció que los métodos actuales de etiquetado son inadecuados ante “la escala y velocidad de la desinformación generada por IA durante crisis”.

¿Cómo detectar el contenido falso?

Los verificadores de hechos han identificado señales comunes: texto distorsionado, patrones de explosión perfectamente simétricos, coordenadas incoherentes en imágenes satelitales y objetos con proporciones imposibles. Herramientas como SynthID de Google y Hive Moderation han sido clave para detectar el contenido fabricado, con algunas imágenes registrando un 99% de probabilidad de ser generadas por IA.

Sin embargo, el volumen masivo de publicaciones y la creciente sofisticación de las herramientas generativas hacen que el desafío sea enorme. Como advirtió Rumman Chowdhury, ex directora de ética en X: “Hemos alcanzado un nivel de autenticidad en video y deepfakes que, para la mayoría de las personas, es indistinguible de la realidad”.

Árticulos Destacados

Deja una respuesta

Botón volver arriba
Send this to a friend