Computación en la Nube, como la conocemos hoy, es relativamente reciente. Amazon fundó su subsidiaria AWS (Amazon Web Services) en 2002. En 2006, Google lanzó las aplicaciones Google Docs, que son software como servicio (SaaS, en inglés). Microsoft lanzó Azure en 2010, y en 2011, IBM lanzó IBM Smart Cloud y Apple lanzó iCloud. En el Club de Investigación tecnológica tuvimos la primera presentación de Computación en la Nube en 2008.
Desde hace 15 años, el movimiento hacia la Nube es inexorable. A nivel personal, ya casi nadie guarda sus cosas en discos duros. Demasiadas malas experiencias y, además, un costo innecesario, y no existen discos duros que no se llenen eventualmente y obliguen al usuario a tomar decisiones horribles sobre qué borrar y qué guardar. Mucho más fácil pagar un rojo al mes y tener un montón de espacio disponible (y, por supuesto, no borrar nada).
A nivel empresarial, la transición hacia la Nube también ha sido constante, sobre todo con sistemas modernos. Los sistemas legados son otro cuento; esos todavía están en el canasto de lo demasiado difícil. A nivel institucional, la cosa es más peliaguda, ha costado más, pero ya se ven indicaciones del movimiento hacia la Nube.
La Nube no es otra cosa que grandes centros de datos corriendo cientos de miles de servidores virtualizados (implementación moderna del concepto de máquina virtual desarrollado por IBM circa 1970), conectados al mundo por enormes cables de fibra óptica. En estos modelos, las economías de escala son una de las principales motivaciones.
El centro de datos más grande del mundo está en China. Es un edificio de una sola planta, de un millón de metros cuadrados. Eso es 100 hectáreas, más grande que La Sabana. Actualmente, hay un proyecto en construcción de uno más grande todavía en Texas, con un costo estimado de $100.000 millones, que se espera inaugurar el año entrante.
Pero más importante que el tamaño y el costo, es el consumo de electricidad. El centro de datos de China Telecom solo consume 150 Mega Watts (MW) mientras que el que está en Nevada, de 720.000 metros cuadrados, consume 650 MW. En Costa Rica, la capacidad total instalada es de 3,6 Giga Watts (GW).
No es ningún secreto que existe una carrera por construir suficientes cetros de datos para poder satisfacer la demanda generada por la inteligencia artificial (IA), sobre todo la generativa.
Recientemente, McKinsey publicó un informe titulado “La carrera de $7 trillones para escalar centros de datos”. En castellano, son billones: eso es millones de millones. Esa es la estimación que hicieron de la inversión requerida de aquí al 2030 para satisfacer la demanda. Una estimación bastante complicada por muchas razones.
El sistema Deep Seek (chino), que conmovió el mercado bursátil hace unos meses, es muchas veces más eficiente que los sistemas norteamericanos, tanto durante el entrenamiento del modelo como cuando hace inferencia (utilización del modelo). Esto sucedió debido a las restricciones impuestas por EE. UU. a la exportación de los chips más sofisticados (y caros), lo cual obligó a los chinos a utilizar el ingenio para resolver el problema con chips menos poderosos, con un mejor software y diseño. Esto, a su vez, produjo una nueva restricción de exportación a los chips que utilizaron. ¿Producirá esto una nueva innovación?
La cifra a la que llega el informe de McKinsey es $6,7 billones; de esos, $150B son una estimación mucho más precisa, ya que es lo que estima que los sistemas convencionales (sin IA) van a requerir, y $5,2B serán requeridos solo para la IA.
El informe es muy minucioso y explica toda la cadena de valor del poder de cómputo que va desde bienes raíces (búsqueda y adquisición de terrenos, la construcción con sistemas redundantes), hasta la generación eléctrica, pasando por la producción de chips, sistemas de enfriamiento y servidores virtualizables.
En tiempos de cambios cada vez más rápidos y drásticos, se abren ventanas de oportunidad. Estas ventanas pueden ser muy pequeñas y las oportunidades, muy grandes.
La estimación de $7B de inversión incluye un aumento de 125 GW en la capacidad de centros de datos solo para IA. Pero si la demanda de IA se acelerara, podrían ser necesarios 205GW, y si la demanda se restringiera, solo se necesitarían 78GW. Todas estas cifras son enormes para un país pequeño. Eso, me parece a mí, quiere decir que tenemos una oportunidad de participar con mucho menor riesgo a una escala menor.
Unos (dos o tres) centros de datos de 500 MW no son algo descabellado de imaginar, todos con energía 100% renovable. Podríamos generar con energía fluctuante (solar y eólica), la cual es muy rápida de instalar y respaldar. Eso, con las enormes baterías que tenemos desde hace muchos años que se llaman represas. También podríamos importar baterías de las otras y empezar a reutilizar baterías de vehículos (el estadio de Ajax, en Ámsterdam, funciona todo con baterías de segunda mano).
Es muy probable que una aventura así deba ser financiada, por lo menos en parte, con inversión extranjera directa. Para complementar el proyecto, no podemos realísticamente aportar ni hardware ni software, pero sí tenemos mucho brainware que aportar. Diseñar nuevos modelos que permitan entrenar y ejecutar IA de manera mucho más eficiente es equivalente a ahorrarnos billones en inversión.
Decir que lo único que podemos hacer ante la revolución de la IA es aprender a utilizarla y hacernos más productivos utilizándola en una gran variedad de labores, es quedarnos cortos y desaprovechar la oportunidad.
Roberto Sasso es ingeniero, presidente del Club de Investigación Tecnológica y organizador del TEDxPuraVida.
