En la última década, la inteligencia artificial ha revolucionado la producción audiovisual, pero también ha abierto la puerta a nuevas formas de manipulación digital. Los llamados deepfakes —videos y audios que imitan rostros y voces humanas con un realismo inquietante— se han convertido en una herramienta cada vez más utilizada para campañas de desinformación, fraudes y ataques a la reputación.
“Los deepfakes […] plantean riesgos significativos. Por ejemplo, la manipulación de fotos y videos genera imágenes falsas que pueden parecer auténticas, influyendo en la percepción del público sobre una personalidad, afectando su imagen y credibilidad”, explica el abogado William Llanos, especialista en tecnología y docente de la carrera de Derecho de la Universidad Franz Tamayo, Unifranz.
Para Llanos, la desinformación ya no depende solo de rumores o noticias falsas; hoy puede tomar la forma de una entrevista nunca dada o una declaración que jamás existió, pero que visualmente luce irrefutable.
Señales para identificar un video o audio manipulado
Aunque los deepfakes se perfeccionan rápidamente, aún presentan características que permiten detectarlos. Entre las más comunes destacan:
- Movimientos faciales inusuales o desincronización labial
Pequeñas vibraciones en la piel, parpadeos antinaturales o desfases entre la voz y los labios pueden revelar un montaje digital.
- Audio con calidad irregular.
Según el material revisado, los audios creados con IA suelen presentar “cambios en el tono, el volumen o la claridad de la voz”, fluctuaciones que pueden indicar manipulación.
- Entonación monótona o falta de emoción
Las voces sintéticas aún tienen dificultades para reproducir la complejidad emocional de una conversación humana, especialmente en discursos largos.
- Respuestas incoherentes o fuera de contexto.
Un patrón frecuente son frases sin sentido lógico o reacciones que no coinciden con la situación.
- Evaluación del contexto.
Cuando un video contradice la conducta habitual de una persona o su estilo comunicativo, conviene dudar y verificar.
- Comparación con fuentes confiables.
Revisar apariciones previas, perfiles oficiales o declaraciones verificadas sigue siendo una de las herramientas más efectivas.
Para Llanos, la clave está en no asumir que un video o audio es prueba suficiente por sí mismo:
“La desinformación se manifiesta a través de discursos falsos, entrevistas inventadas o declaraciones ficticias, lo que puede resultar en una desinformación masiva”, puntualiza el jurista .
Entre el riesgo y la responsabilidad colectiva
El propio Llanos advierte sobre el impacto social de esta incertidumbre: “Si una persona puede ser fácilmente representada en un video haciendo algo que nunca hizo, ¿cómo podemos confiar en la veracidad de lo que vemos en línea?”. Para el especialista, el desafío no es solo jurídico o tecnológico: es cultural.
A medida que la IA continúa avanzando, las estrategias de verificación deberán fortalecerse. Plataformas como Meta ya desarrollan sistemas para etiquetar contenido generado por IA, pero los expertos insisten en que la educación digital es irremplazable. Identificar inconsistencias, verificar fuentes y evitar compartir contenido dudoso son hoy prácticas fundamentales.
En una época donde la imagen y la voz pueden imitarse con precisión milimétrica, la capacidad crítica se convierte en una herramienta de autoprotección. Los deepfakes no solo desafían nuestra percepción de la realidad; cuestionan la forma misma en que construimos confianza en el entorno digital.