Home Tecnología Los videos generados con inteligencia artificial invaden las redes sociales y desatan una crisis de desinformación

Los videos generados con inteligencia artificial invaden las redes sociales y desatan una crisis de desinformación

Las nuevas herramientas de creación de videos con IA de OpenAI y Google permiten fabricar contenido prácticamente indistinguible de la realidad. En apenas dos meses, estos materiales engañosos se multiplicaron en todas las plataformas digitales, exponiendo la falta de preparación de las redes sociales ante una tecnología que amenaza con redefinir los límites entre lo verdadero y lo falso

by Luciano Ingaramo

Cuando la ficción se vuelve indistinguible de la realidad

En octubre, un video circuló por TikTok mostrando una supuesta entrevista televisiva donde una mujer admitía vender ilegalmente cupones de alimentos por dinero en efectivo. Las imágenes lucían auténticas, el audio era convincente y miles de usuarios reaccionaron con indignación. Sin embargo, nada de aquello había ocurrido: la entrevista completa fue generada por inteligencia artificial mediante Sora, la herramienta de OpenAI.

Los comentarios revelaron que la mayoría de los espectadores creyeron estar frente a un caso real de fraude al sistema de asistencia alimentaria. Algunos lanzaron insultos racistas contra la protagonista ficticia, mientras otros aprovecharon el contenido falso para atacar los programas gubernamentales de ayuda social, justo cuando se debatía sobre los recortes propuestos por la administración Trump.

Una avalancha de contenido fabricado

Desde el lanzamiento de Sora hace dos meses, la cantidad de videos engañosos aumentó notablemente en TikTok, X, YouTube, Facebook e Instagram. Expertos que rastrean este fenómeno alertan sobre el surgimiento de una nueva generación de falsificaciones que supera ampliamente las capacidades anteriores de manipulación digital.

Las herramientas como Sora y su competidora Veo, desarrollada por Google, pueden producir clips de video realistas a partir de simples indicaciones escritas. Esto democratizó una capacidad que hasta hace poco requería conocimientos técnicos avanzados, convirtiendo la fabricación de contenido falso en una tarea accesible para cualquier persona.

Las plataformas reaccionan tarde y mal

Aunque las principales redes sociales cuentan con políticas que exigen revelar el uso de inteligencia artificial y prohíben el contenido diseñado para engañar, estas salvaguardas resultaron insuficientes. Las empresas tecnológicas confiaron en que los creadores etiquetaran voluntariamente sus videos como generados con IA, pero esta estrategia demostró ser ingenua.

Sam Gregory, director ejecutivo de Witness, una organización dedicada a los derechos humanos en el ámbito digital, señala que las compañías podrían mejorar significativamente tanto en la moderación de contenidos como en la identificación proactiva de material generado artificialmente. Sin embargo, hasta ahora no lo han hecho.

El daño ya está consumado en muchos casos. Fox News, por ejemplo, publicó un artículo basado en otro video falso sobre cupones de alimentos antes de eliminarlo de su sitio web. Un portavoz de la cadena confirmó el retiro del contenido pero no ofreció explicaciones adicionales.

Las marcas de agua no detienen la desinformación

Tanto OpenAI como Google implementaron sistemas de identificación para sus videos generados con IA. Sora coloca una etiqueta visible con su nombre en cada clip, mientras que ambas herramientas incluyen metadatos invisibles que revelan el origen artificial del material.

Sin embargo, estas medidas presentan fallas evidentes. Las etiquetas suelen aparecer después de que millones de personas ya vieron los videos. Además, quienes tienen intenciones maliciosas encontraron formas sencillas de eliminar las marcas de agua o simplemente las ignoran. The New York Times identificó decenas de videos de Sora en YouTube sin ninguna etiqueta automatizada que alertara sobre su naturaleza fabricada.

Del entretenimiento a las operaciones de influencia extranjera

Si bien muchos videos creados con IA son memes absurdos o imágenes tiernas de bebés y mascotas, otros buscan deliberadamente avivar tensiones sociales y políticas. Estos contenidos ya aparecieron en campañas de desinformación organizadas, incluyendo los esfuerzos continuos de Rusia para desprestigiar a Ucrania.

En India, videos generados con IA se utilizaron para atacar a la población musulmana y avivar tensiones religiosas. La tecnología también facilitó el fraude en múltiples países, creando un ecosistema donde distinguir lo verdadero de lo falso se vuelve cada vez más difícil.

Un problema sin solución inmediata

Un análisis realizado por The New York Times utilizando herramientas de IA reveló que casi dos tercios de los más de 3.000 usuarios que comentaron el video sobre cupones de alimentos reaccionaron como si el contenido fuera auténtico.

OpenAI declaró que prohíbe el uso engañoso de Sora y toma medidas contra quienes violan estas normas, pero reconoce que enfrentar la desinformación requiere esfuerzos de todo el ecosistema digital. Meta, propietaria de Facebook e Instagram, admitió que no siempre resulta posible etiquetar cada video, especialmente cuando la tecnología evoluciona tan rápidamente.

Alon Yamin, director ejecutivo de Copyleaks, una empresa especializada en detección de contenido, sugiere que las plataformas carecen de incentivos financieros inmediatos para restringir estos videos mientras los usuarios sigan haciendo clic en ellos. Darjan Vujica, experto en falsificaciones digitales, advierte que la barrera para crear contenido engañoso con IA se desmoronó por completo, y una vez que la desinformación circula, resulta extremadamente difícil corregir el registro público.

Notas relacionadas

Are you sure want to unlock this post?
Unlock left : 0
Are you sure want to cancel subscription?
-
00:00
00:00
Update Required Flash plugin
-
00:00
00:00