El 17 de noviembre, la Junta Directiva de OpenAI, empresa desarrolladora del ChatGPT, despidió a su director ejecutivo (CEO) por razones que posiblemente nunca se sabrán. Oficialmente se alegó una pérdida de confianza y se le acusó de no ser “consistentemente cándido en su comunicación”. Sam Altman, CEO y cofundador de la empresa, ganó gran notoriedad desde que hace un año ChatGPT irrumpió en el mercado y estableció un récord de número de usuarios, con 100 millones en tan solo dos meses.
La destreza de esta inteligencia artificial (IA) provocó llamamientos a la regulación para evitar efectos nocivos, como sucedió con las redes sociales. Sobre todo, llamados a la cautela por quienes consideran que la IA representa un peligro existencial para la humanidad e incluso lo equiparan con el riesgo de las armas nucleares.
Los capítulos de telenovela (algunos los compararon con la serie Succession) terminaron el 20 de noviembre con la restitución de Altman en su puesto y el despido de los directivos que lo habían destituido. La intervención de Microsoft (principal inversionista) resultó decisiva. La enorme empresa tecnológica no contaba con un asiento en la Directiva. Cuando se dio el despido, ofreció empleo a Altman y Greg Brockman, cofundador de la empresa que participaba en la Directiva pero no apoyó el despido. También fue determinante una carta firmada por la gran mayoría de los 770 empleados de OpenAI para exigir la restitución de Altman y la renuncia de los directivos. Si OpenAI ignoraba sus exigencias, dijeron, se irían con Altman a Microsoft. Jaque mate.
Los análisis en la prensa internacional son amplios y especulativos, ya que las verdaderas razones de lo sucedido probablemente nunca se conocerán. Está claro que en el campo de la IA hay dos bandos: los optimistas y los pesimistas. La prestigiosa cadena informativa BBC los llama los pragmáticos y los idealistas. Altman pertenece a los primeros, reacios a atender los llamados a restringir la velocidad del desarrollo en nombre de la seguridad.
Las causas de la confrontación están en el origen de OpenAI. Como su nombre lo indica, en un principio (2015) era una empresa de código abierto sin fines de lucro. Los jóvenes ingenieros de software estaban seguros de poder producir una inteligencia artificial general (AGI, por sus siglas en inglés) en poco tiempo y con pocos recursos. La IA actual, sin entender ni razonar, logra resultados sorprendentes a partir de análisis estadístico para predecir la próxima palabra, basada en enormes bases de datos y grandes modelos de lenguaje (LLM, por sus siglas en inglés).
Pero los jóvenes idealistas que querían producir una IA segura y confiable para el beneficio de la humanidad pronto entendieron la necesidad de enormes recursos computacionales para entrenar y luego ejecutar los enormes modelos y servir a cientos de millones de usuarios. Para lograrlo, formaron una empresa con fines de lucro, subsidiaria de la empresa sin fines de lucro. Así consiguieron reunir suficiente dinero para ejecutar el proyecto que, hace un año, tomó al mundo por sorpresa. Microsoft, se dice, ha invertido $13.000 millones y ya está utilizando el ChatGPT en muchos de sus productos estrella. El mes pasado, OpenAI tuvo ventas equivalentes a una empresa de $1.300 millones anuales. Su valor se estima en $86.000 millones, aunque es una empresa sin fines de lucro.
Con razón su gobernanza es muy compleja. Los directivos destituidos tenían más experiencia académica que comercial. Los directores eran en total seis, de modo que con el voto de cuatro fue posible empezar toda la trama novelesca del despido y la restitución. La nueva junta directiva tiene gente de mucha experiencia en el sector tecnológico. Será ampliada a nueve miembros e incluirá un representante de Microsoft. Pero la dueña sigue siendo una compañía sin fines de lucro.
Lo preocupante es que OpenAI genera más del 50 % de las transacciones globales de IA y parece haber cambiado de posición, de pesimista (doomer) a optimista (boomer). Los boomers, además de optimistas o pragmáticos, son motivados por el lucro, y las sumas de dinero involucradas son realmente desproporcionadas, dado el tamaño de la industria y los pocos años de su existencia. Los peligros asociados a la IA no son menores, desde riesgos geopolíticos y el posible desarrollo de armas “inteligentes” hasta la posibilidad de que la IA adquiera independencia de los seres humanos reescribiendo su propio código. Confiar en empresas motivadas por el lucro para que restrinjan la velocidad del desarrollo en aras de la seguridad es ilusorio.
Un corolario importante de la novela es el enorme valor del recurso humano en este campo. Hay una escasez crónica de expertos en IA, lo cual los ha tornado extremadamente valiosos. Esa característica del mercado decidió la pugna dentro de OpenAI. En Costa Rica, debemos tomar el reto doble, por un lado, producir muchos y muy buenos profesionales en IA y, por el otro, enfocarnos en cómo garantizar la seguridad sin quitar el pie del acelerador.
