Una semana antes, lanzó ChatGPT Pulse, con esta promesa: “Lleva a cabo investigaciones de forma totalmente proactiva, a fin de ofrecerte actualizaciones personalizadas basadas en tus conversaciones, comentarios y aplicaciones conectadas”. Es decir, espía y “predice” preferencias y las manosea y explota sin nuestra intervención.
El 1.° de este mes, Mark Zuckerberg, gran chamán de Meta –dueña de Facebook, Instagram y WhatsApp– anunció que la empresa comenzaría a usar las interacciones de los usuarios con sus herramientas de IA para “personalizar” anuncios y otros contenidos.
Nada de lo anterior es nuevo, pero la IA otorga a estos y otros artilugios, dominados por megacorporaciones, un poder extremo para intervenir y manipular la realidad. En el ámbito más personal, para escrutar con minuciosa precisión las huellas que dejamos en las redes sobre gustos, conexiones, aplicaciones y comportamientos íntimos, y explotarlos con contenidos “a la medida”. En la esfera más amplia o social, para potenciar la capacidad de simular lugares, personas, acciones y palabras, y borrar casi del todo la frontera entre verdad y ficción (o mentira): deep fakes extremos.
Añadamos a estas formas de tomar la realidad su facilidad de uso y moderación cada vez más debilitada, y tendremos lo obvio: una capacidad de falsificación, control y adicción simbólica sin precedentes; la receta ideal para la desinformación desbordada.
A ella nos exponemos en la campaña electoral que comienza. Los titiriteros en este entramado no seremos tanto los ciudadanos pegados a las redes, sino las empresas que manejan los algoritmos y los sectores políticos con capacidad y pocos escrúpulos para maximizar su impacto. Más que instrumentos de comunicación cívica, serán vías para capturar poder.
¿Podremos contenerlos de aquí al 1.° de febrero? Lo dudo. Al menos, sin embargo, debemos activar las alertas y oponerles resistencia.
Correo: radarcostarrica@gmail.com
Red X: @eduardoulibarr1
Eduardo Ulibarri es periodista y analista.