ciberseguridadInternacionalesNacionalesNoticiasTecnología

Videos Generados por IA Inundan las Redes Sociales

Plataformas Luchan Contra Contenido Falso de IA

Desde que OpenAI lanzó su herramienta de generación de videos Sora el año pasado, las plataformas de redes sociales han sido inundadas con contenido hiperrealista generado por IA que los expertos advierten está alimentando una nueva y peligrosa ola de desinformación. La aplicación, que alcanzó 1 millón de descargas en menos de cinco días tras el lanzamiento de su última versión en septiembre, ha hecho que crear videos falsos convincentes sea tan simple como escribir un mensaje de texto.

En octubre, un video fabricado apareció en TikTok mostrando a una mujer supuestamente discutiendo la venta de cupones de alimentos por efectivo en una entrevista televisiva. A pesar de las señales obvias de su origen artificial, incluyendo una marca de agua de Sora brevemente visible que fue oscurecida por quien lo subió, miles de espectadores creyeron que el video era genuino y respondieron con condena, algunas teñidas de racismo abierto. El video ejemplifica cuán fácilmente el contenido generado por IA propaga desinformación, particularmente durante debates políticamente cargados sobre programas de asistencia gubernamental.

“Es preocupante para los consumidores que cada día están siendo expuestos a Dios sabe cuántas de estas piezas de contenido”, dijo Hany Farid, profesor de ciencias de la computación en la Universidad de California, Berkeley, al New York Times. “Me preocupa por nuestra democracia. Me preocupa por nuestra economía. Me preocupa por nuestras instituciones”.

República Dominicana También Enfrenta la Amenaza de Videos Falsos

El problema ha alcanzado también a República Dominicana, donde videos generados por IA utilizando la imagen de figuras públicas y personalidades conocidas han circulado ampliamente en redes sociales. Estos videos deepfake muestran a celebridades, políticos y presentadores de televisión dominicanos recomendando servicios financieros fraudulentos, productos milagrosos y esquemas de inversión que prometen ganancias irreales.

Las noticias falsas generadas por IA sobre eventos locales también se han multiplicado en plataformas como Facebook y WhatsApp, creando confusión sobre supuestos incidentes de seguridad, anuncios gubernamentales ficticios y declaraciones inventadas de funcionarios públicos. La familiaridad del rostro y la voz de personalidades reconocidas hace que estos videos sean particularmente efectivos para engañar a usuarios desprevenidos.

Las Plataformas Luchan por Combatir la Inundación de Contenido Falso

Las principales compañías de redes sociales incluyendo Meta, TikTok, YouTube y X han establecido directrices que requieren la divulgación de contenido generado por IA, pero estas medidas han demostrado ser lamentablemente inadecuadas. La marca de agua de Sora, diseñada para ayudar a los espectadores a identificar contenido artificial, puede eliminarse en segundos usando herramientas en línea fácilmente disponibles. Una simple búsqueda de “sora watermark” en cualquier plataforma devuelve múltiples sitios web que ofrecen servicios de eliminación.

Sam Gregory, director ejecutivo de WITNESS, una organización de derechos humanos enfocada en amenazas tecnológicas, enfatizó que la responsabilidad recae en las compañías. “¿Podrían mejorar su moderación de contenido respecto a la desinformación? Absolutamente, claramente están quedando cortos”, dijo. “¿Pueden mejorar sus medidas proactivas para identificar y etiquetar contenido generado por IA? La respuesta también es sí”.

Facebook ha sido particularmente susceptible, con videos generados por IA de presentadores de noticias falsos y arrestos simulados circulando sin ninguna etiqueta o advertencia, engañando a comentaristas que creyeron que el contenido era auténtico. Incluso Fox News enfrentó críticas por publicar una historia presentando beneficiarios falsos de SNAP generados por IA como si fueran reales, corrigiendo posteriormente su cobertura después de que los espectadores señalaran que los videos eran fabricados.

Influencia Extranjera y Preocupaciones Crecientes

Más allá del contenido doméstico engañoso, los videos generados por IA ya han sido desplegados en operaciones de influencia extranjera. Investigadores del Media Forensics Hub de la Universidad de Clemson identificaron redes coordinadas amplificando videos fabricados sobre el conflicto Irán-Israel, incluyendo metraje falso de bombardeos a prisiones y aeronaves derribadas. Algunos videos de guerra generados por IA acumularon millones de vistas en plataformas como X y TikTok antes de ser identificados como falsos.

La escala del problema continúa creciendo. El generador de videos Veo de Google produjo más de 40 millones de videos en semanas tras su lanzamiento, mientras que Meta creó un feed completamente separado dedicado al contenido generado por IA. Más de la mitad de los estadounidenses dicen no estar confiados en su capacidad para distinguir entre contenido humano y generado por IA, según Pew Research.

Farid, quien cofundó la startup de detección de IA GetReal Labs, señaló que incluso él ahora lucha por identificar videos fabricados a primera vista. “Hace un año, podía identificarlos visualmente y luego ejecutar mi análisis para confirmar mis observaciones”, explicó. “Pero ya no puedo hacer eso”.

Árticulos Destacados

Deja una respuesta

Botón volver arriba
Send this to a friend