
Un video que nunca grabaste o un audio en el que decís algo que jamás pronunciaste puede circular por redes sociales como si fuera real. Ese es el riesgo que representan los deepfake: contenidos falsificados que ponen en entredicho la confianza en lo que vemos y escuchamos.
Y, en un contexto electoral, como el que se avecina, el riesgo se multiplica: basta con que un clip manipulado circule en redes para desatar rumores, erosionar reputaciones y alimentar la desinformación.
Por ello, en este Explicador conversamos con expertos para identificar las señales que permiten detectar estas falsificaciones, cada vez más realistas y difíciles de distinguir a simple vista.
¿Qué es un deepfake? 👈
Los deepfakes hacen referencia a la fusión de Inteligencia Artificial con medios manipulados, creando falsificaciones de imágenes, videos o audios que emulan casi a la perfección a las personas reales.
LEA MÁS: ‘Deep fakes’: La inteligencia artificial llega a la desinformación
Esta técnica pone en jaque la capacidad de distinguir entre contenidos auténticos y fabricados, pues ha evolucionado desde el simple intercambio de rostros hasta la imitación de voces. Entre los que te podrías encontrar están:
-Deepvoices: clonación de voces para hacer que una persona diga algo que nunca expresó.
-Deepfakes de video: situaciones falsas en las que se altera o reemplaza el rostro de alguien.
-Deepfakes de imágenes: manipulación de fotografías estáticas.
-Deepfakes en tiempo real: técnicas que permiten suplantar a alguien en vivo con audio y video, lo que dificulta aún más su detección.
LEA MÁS: Transmisión en vivo con video falso de Elon Musk promoviendo criptomonedas reúne 30.000 personas
Deepfakes en la dark web 👈
La Fiscalía General de la República ha advertido que este tipo de falsificaciones no solo los podés encontrar en redes sociales, sino que también se ofrecen en la dark web, el espacio oculto de Internet al que solo se accede con navegadores especiales como TOR.
LEA MÁS: ¿Qué contiene la ‘dark web’? La llamada cara oculta de internet
Allí funcionan miles de portales que comercializan drogas, armas, datos robados y, cada vez más, contenidos manipulados con inteligencia artificial, entre ellos audios y videos falsos. Se trata de un mercado que opera bajo el anonimato, donde los deepfakes pueden venderse como herramientas listas para ejecutar campañas de desinformación, ataques políticos o hasta fraudes.
Este vínculo con la dark web refuerza el riesgo: lo que antes parecía un entretenimiento aislado ahora forma parte de un ecosistema clandestino mucho más amplio, que combina cibercrimen, manipulación política y explotación de datos personales.
¿Cómo identificar las señales? 👈
Óscar Alvarado, investigador sobre temas de IA del Centro de Investigación en Comunicación (Cicom) de la UCR, y Alexánder Cortés M., abogado especialista en Derecho Digital y ciberdelincuencia, compartieron ciertas recomendaciones para que identifiqués contenidos generados con IA:
-En video: Debés identificar movimientos poco fluidos o “no naturales”; manos que se deforman en contacto con otras personas; piel excesivamente perfecta; dientes que cambian de posición cuadro a cuadro; y desajustes entre audio e imagen, explicó Alvarado.
Cortés añade que en versiones poco elaboradas se pueden notar parpadeos erráticos, y deformaciones en bordes faciales o sombras incoherentes. En los casos más avanzados, los errores son mínimos, por lo que la revisión de metadatos y el contexto son clave.
-En imágenes: Alvarado recomienda que te fijés en sombras e iluminación incoherentes, objetos flotantes o mal ubicados, errores en manos y dedos, o estilos mezclados (fotografía, pintura, ilustración digital). Cortés agrega fallas comunes como textos mal formados, perspectivas deformadas y duplicaciones de partes del cuerpo ilógicas.
-En audio: La advertencia es que las voces clonadas tienden a sonar demasiado planas o perfectas, sin la naturalidad del habla humana. También, Cortés menciona que podés identificar respiraciones artificiales, cortes abruptos o pausas mal sincronizadas. Sin embargo, insiste en que ninguna señal por sí sola es concluyente; se requiere un análisis integral con soporte técnico.
Herramientas disponibles 👈
Debés de entender que la calidad de los deepfakes avanza a gran velocidad y que hoy se requiere análisis especializados para detectarlos. Esto genera una carrera constante entre creadores y verificadores, además de un desafío legal.
Alvarado recomienda algunas herramientas que podrías usar como Killbox, GPTZero, ZeroGPT y extensiones de Grammarly. No obstante, aclara que son solo guías: producen falsos positivos y pueden ser burladas con técnicas de “humanización”.
Sin embargo, las herramientas más robustas requieren licencias comerciales y conocimiento especializado.
¿Qué puede hacer un ciudadano común?👈
Para Cortés, lo fundamental es que acudás a fuentes confiables, identifiqués el origen del material y evités compartir contenidos de cuentas anónimas o poco verificables. En casos sensibles, lo recomendable es que consultés con expertos en verificación digital o a medios con equipos de fact checking.
Alvarado, por su parte, insiste en que la mejor defensa es la alfabetización mediática: que desarrollés una actitud crítica frente a lo que circula en redes, contrastés siempre la información con medios formales y científicos, y asumás que las plataformas sociales son más espacios de entretenimiento más que fuentes de información verificada.
Ambos coinciden en que, de cara a los procesos electorales, circularán cada vez más contenidos falsos generados con IA. Ante ello, debés mantenerte alerta, frenar la difusión de desinformación y exigir regulaciones para sancionar la manipulación política o la vulneración de derechos humanos.
¿Y las instituciones, cuán preparadas están? 👈
Cortés advierte que la preparación de las instituciones frente a los deepfakes es desigual. Para avanzar, se requiere inversión en capacitación de personal, fortalecimiento de la infraestructura tecnológica, creación de normativas claras y, sobre todo, cooperación entre distintas instituciones.
Estos esfuerzos son especialmente importantes en contextos electorales y judiciales, donde la integridad de la información resulta crítica y cualquier falsificación puede tener consecuencias graves.
En Costa Rica, el Tribunal Supremo de Elecciones (TSE) reconoce que las próximas elecciones serán el primer proceso presidencial donde podrías observar un uso extendido y de bajo costo de inteligencia artificial generativa.
Según explicó Gustavo Román, vocero del TSE, la institución interviene únicamente cuando la desinformación, generada con o sin IA, tiene la capacidad de afectar tu derecho al voto o poner en duda la pureza del proceso.
Por eso, el TSE ha empezado a capacitar a su personal en la identificación de contenidos manipulados, con apoyo de organismos como IDEA Internacional, y solicitó a la OEA un refuerzo especializado en detección de materiales creados con IA.
“Estamos en un proceso permanente de formación para discernir estos contenidos y enfrentarlos”, señaló Román.