
Bien lo decía un estimado colega, fotógrafo y periodista: “No es la flecha, es el indio”. En estos tiempos, se discute intensamente sobre las bondades y las carencias del uso de la inteligencia artificial generativa en el quehacer humano. A mi juicio, la creación de contenidos asistidos por IA no es inherentemente engañosa, aunque en manos de personas inescrupulosas, su uso inadecuado puede corroer la confianza y la legitimidad de su potencial creativo.
El problema no son las herramientas tecnológicas en sí, ni su incorporación a nuestros flujos de trabajo. Lo preocupante es la ausencia de un uso ético por parte de quienes las emplean, lo que puede conducir a escenarios donde el engaño se convierte en el objetivo oculto: una simulación de una verdad sintética que busca manipular nuestras opiniones y reacciones.
A mediados de junio, una realidad cuidadosamente fabricada con inteligencia artificial (IA) obtuvo un galardón prestigioso en creatividad publicitaria. Días después, La Nación reportó que un impostor logró enviar mensajes de texto y voz simulando el estilo y el timbre de voz del secretario de Estado de EE. UU., Marco Rubio, a diplomáticos de diversos países, a un gobernador y a un congresista estadounidense, con el propósito de obtener información sensible y acceder a cuentas protegidas.
Ambas situaciones sacudieron los respectivos ámbitos en los que ocurrieron e impulsaron investigaciones y ajustes en los protocolos de seguridad y verificación para evitar futuras disrupciones.
El primer caso corresponde a la edición 2025 del Festival Internacional de la Creatividad Cannes Lions, en Francia. En junio, la agencia publicitaria brasileña DB9, subsidiaria de la global DDB, fue protagonista de una controversia por utilizar IA para fabricar tomas y modificar segmentos en una campaña que simulaba una cobertura periodística. El video, de carácter documental, pretendía promocionar acciones de la marca de electrodomésticos Consul en beneficio de los usuarios. El audiovisual engañó al jurado del certamen, que le confirió el Grand Prix en la categoría de uso creativo de datos, así como un León de bronce en comercio creativo. Todo esto se realizó, según los representantes de DB9, sin el conocimiento ni consentimiento de la marca.
El hecho derivó en una investigación minuciosa por parte de la organización del Festival. Como resultado, y por acuerdo mutuo, DB9 y Cannes Lions decidieron retirar los galardones de la campaña titulada “Una manera eficiente de pagar” para Consul, junto con otras dos piezas en competencia para OKA Biotech y Urihi Yanomami, debido a cuestionamientos sobre su legitimidad.
Las consecuencias no tardaron en llegar: Cannes Lions anunció la elaboración de nuevos lineamientos para la consideración de contenidos generados con IA para el concurso. Por su parte, el presidente ejecutivo de DB9, Pipo Calasanz, prometió la creación de un comité de ética en su agencia. El director creativo de la agencia, Ícaro Doria, asumió la responsabilidad del escándalo y renunció a su cargo.
En el caso de la crisis provocada por impostores que simularon mensajes provenientes del secretario de Estado Marco Rubio con herramientas de IA, se evidenció un problema estructural en la seguridad de las comunicaciones del Poder Ejecutivo estadounidense. Más allá de que miembros del gabinete de Trump hayan utilizado plataformas que no cumplen con los estándares de seguridad requeridos por altos mandos de su gobierno, resulta aún más inquietante la facilidad con la que estas vulnerabilidades permiten infiltrar contenido sintético con fines maliciosos.
¿Cómo podemos acoger esta realidad y protegernos de potenciales engaños con IA?
La filósofa británica Miranda Fricker, experta en injusticia epistémica, sostiene que el engaño mediante IA afecta nuestra capacidad de incorporar conocimiento proveniente de otros y, además, irrumpe en los marcos conceptuales que usamos para comprender nuestro entorno.
Desde esta mirada, ambos casos revelan cómo contenidos creados con IA que buscan construir credibilidad artificial minan la confianza en los emisores y distorsionan la comprensión colectiva de la realidad.
Los filósofos Linda Zagzebski y Jason Baehr también advierten de que la fabricación de verdades sintéticas no solo interfiere en la búsqueda de hechos fidedignos, sino que debilita el hábito mismo de perseguir la verdad con responsabilidad. En sus palabras, la manipulación mediante IA carcome la virtud epistémica: la actitud consciente y ética de quien busca saber.
A pesar de estos tropiezos en el uso de IA sin responsabilidad ética, no podemos condenar la inteligencia artificial generativa como nociva para la sociedad solo por las intenciones de ciertos creadores que se aprovechan de su realismo. La crisis en la creación de contenidos con IA no es tecnológica; es epistemológica. Nace del uso indebido por parte de personas, no de fallas en la herramienta.
Hasta que los creadores de contenido que utilizan IA generativa antepongan la ética como su principal instrumento, nos veremos obligados a etiquetar con advertencias todo el quehacer humano. ¿Quién quiere vivir en un mundo así?