NUEVA YORK– Muchos creen que el futuro de la humanidad se verá algún día amenazado por el avance de la inteligencia artificial (IA), tal vez encarnada en malévolos robots. Sin embargo, mientras entramos en la tercera década del milenio, no debemos temer lo extraño, sino a un enemigo mucho más antiguo: nosotros mismos. Pensemos menos en Terminator y más en Minority Report (Sentencia previa).
Estamos desarrollando rápidamente una tecnología que literalmente es capaz de leer mentes sin un marco para controlarla. Imaginemos, por un momento, que los humanos hubiéramos evolucionado para leer las mentes de los demás. ¿Qué nos habría pasado?
Para responder esta pregunta, consideremos nuestros propios diálogos internos. Podemos suponer, sin temor a equivocarnos, que todos hemos tenido pensamientos que resultarían chocantes incluso, o especialmente, para nuestros seres más cercanos. ¿Cómo reaccionarían quienes no nos quieren, si nos escucharan despotricar internamente, como lo hacemos de tanto en tanto? ¿Serían capaces de discernir correctamente y dejar pasar esas palabras, reconociéndolas como una emoción pasajera? ¿O tendrían una respuesta oportunista y se aprovecharían de esos pensamientos que preferiríamos guardarnos?
La evolución no nos permitió leer mentes porque ese poder podría habernos llevado a la extinción. En lugar de eso, mientras nuestros ancestros lejanos se organizaron en grupos para protegerse, la mayor parte de nosotros aprendimos qué se puede decir y qué es mejor callar. Con el tiempo, esto se convirtió en una característica humana muy evolucionada, la cual posibilitó la formación de sociedades, la aparición de ciudades e incluso que cientos de personas estresadas viajen apretujadas en un tubo volador, habitualmente, sin atacar a sus compañeros de asiento. Forma parte central de lo que actualmente llamamos inteligencia emocional (IE).
Sin embargo, la tecnología ha comenzado a amenazar esta adaptación evolutiva y necesaria de manera fundamental.
La primera etapa tuvo lugar en las redes sociales. Facebook puso de relieve esta trayectoria cuando la manipulación rusa de esa plataforma afectó la elección presidencial estadounidense en el 2016. Y Twitter, que permite a sus usuarios escribir a las apuradas una idea pasajera o emoción que podría ser compartida con millones, amplifica esta tendencia. Imaginen las dificultades que tuvieron los líderes norcoreanos para interpretar el tuit del presidente Donald Trump sobre el “fuego y la furia” nucleares.
¿Era una amenaza real, de un nuevo e imprevisible líder estadounidense, o solo una exhalación momentánea, un fogonazo mental sin filtro, que era mejor ignorar? En la época del mundo bipolar con dos superpotencias, se instaló el icónico teléfono rojo entre Estados Unidos y la Unión Soviética para aclarar las intenciones de cada bando y evitar que un malentendido hiciera desaparecer al mundo bajo el hongo de una nube nuclear.
Hoy, en un mundo que se rige por amenazas multipolares asimétricas mucho más complejas, las redes sociales ponen a disposición de quien quiera usarlo un altavoz gigante y libre de ediciones. Las redes sociales se han convertido en una herramienta capaz de socavar la democracia; sin embargo, son un juego de niños comparadas con lo que se nos está viniendo encima.
Recientemente, desde empresas emergentes hasta conglomerados multinacionales han anunciado innovaciones sorprendentes que permiten leer la mente. Neuralink, empresa de Elon Musk, está tratando de obtener autorización para probar en humanos un dispositivo que se implanta en los cerebros de la gente para leer sus mentes.
Nissan ha desarrollado la tecnología Brain-to-Vehicle (cerebro a vehículo), que permite a los automóviles leer instrucciones desde la mente del conductor. Facebook ha financiado a científicos que usan las ondas cerebrales para decodificar el habla. Una publicación científica reciente en la revista Nature explica cómo la IA puede hablar a partir del análisis de las ondas cerebrales. Los investigadores en la Universidad de Columbia han desarrollado una tecnología que puede analizar la actividad del cerebro para determinar qué desea el usuario y vocalizarlo a través de un sintetizador.
Claramente, este tipo de avances pueden ofrecer beneficios reales, como ayudar a quienes sufren parálisis o enfermedades neurológicas. Ya se están usando los primeros ejemplos de neuroprótesis, como implantes cocleares, que permiten a los sordos escuchar, o prometedores dispositivos que podrían permitir que los ciegos vean.
Pero también hay aplicaciones posiblemente más oscuras, como permitir que los anunciantes microajusten sus ofertas a los deseos íntimos de las personas, que los empleadores espíen a sus empleados, o que la policía monitoree las posibles intenciones criminales de los ciudadanos a gran escala, como ocurre en Londres actualmente, donde siguen por circuito cerrado de televisión a los residentes.
Una alerta temprana es ToTok, una de las aplicaciones de las redes sociales más descargadas, que, como se reveló recientemente, había usado el gobierno de los Emiratos Árabes Unidos para espiar a sus usuarios. ¿Qué pasaría si los dispositivos capaces de leer mentes son hackeados? Resulta difícil imaginar un área de privacidad de datos más relevante que la del cerebro humano.
Musk cree que serán necesarias interfaces cerebrales para que los humanos puedan seguir el ritmo a la IA. Esto nos lleva nuevamente a la historia de terror de ciencia ficción escrita por Philip K. Dick, The Minority Report, en la que se basó la película del 2002.
Pensemos en las innumerables y espinosas implicaciones legales, éticas y para el orden social que plantea un policía que detiene un crimen antes de que ocurra porque puede “evaluar” las probables intenciones de una persona a partir de sus ondas cerebrales. ¿Cuándo se comete un crimen? ¿Cuándo se concibe? ¿Cuando las acciones manifiestan ese pensamiento en la realidad? ¿Cuando se apunta un arma? ¿Cuando se tensa el dedo sobre el gatillo?
Uno de los principales desafíos que plantean las innovaciones tecnológicas es que habitualmente le lleva mucho tiempo a la sociedad ponerse al día y entender las implicaciones más amplias sobre cómo se pueden usar, abusar de ellas y crear los marcos legales y regulatorios adecuados.
En la segunda década de este milenio, las redes sociales pasaron de ser una herramienta para conectarse a ser una plataforma con inmenso poder para difundir mentiras y manipular elecciones. La sociedad está tratando ahora de aprovechar lo mejor de esta innovación y, al mismo tiempo, mitigar su posible abuso. Tal vez, antes de que encontremos la solución, la tercera década del milenio nos enfrente a cambios tecnológicos mucho más trascendentales.
Alexander Friedman: inversionista, fue director ejecutivo de GAM Investments, director de inversiones de UBS, director financiero de la Fundación Bill y Melinda Gates, y White House Fellow, programa extremadamente competitivo de la Casa Blanca que otorga experiencia de primera mano en el funcionamiento del Gobierno Federal.
© Project Syndicate 1995–2020