
Cada vez que una persona incluye un “por favor” o un “gracias” en sus consultas a un chatbot, contribuye, sin saberlo, al aumento del consumo energético de los sistemas de inteligencia artificial.
Según el director ejecutivo de OpenAI, Sam Altman, estos gestos de cortesía han generado gastos eléctricos por decenas de millones de dólares. No obstante, aseguró que ese dinero se utilizó de manera justificada.
LEA MÁS: El alto costo ambiental de ChatGPT: ¿Cuánta agua usa por cada consulta?
Algunos diseñadores y especialistas en inteligencia artificial consideran que la educación al interactuar con un sistema automatizado sí importa. Desde Microsoft, el gerente de diseño Kurtis Beavers indicó que el uso de un lenguaje respetuoso tiende a generar respuestas igualmente respetuosas y colaborativas.
Esta práctica influye directamente en la forma en que los modelos de lenguaje formulan sus respuestas, replicando el tono y nivel de profesionalismo con que fueron abordados.
Un estudio realizado en Estados Unidos a finales de 2024 reveló que el 67% de los usuarios afirma comportarse con cortesía hacia los chatbots. Entre ellos, el 55% manifestó que lo hace por principios éticos, mientras que el 12% lo practica por temor a una futura rebelión de las máquinas.
Aunque los modelos de lenguaje actuales no poseen consciencia, su uso sí conlleva impactos tangibles. Una investigación del The Washington Post, en colaboración con la Universidad de California, demostró que la creación de un solo correo electrónico de 100 palabras por parte de una inteligencia artificial consume 0,14 kilowatt-hora (kWh), energía suficiente para alimentar 14 bombillas LED durante una hora.
Si una persona generara un correo de este tipo cada semana durante un año, se alcanzarían 7,5 kWh, equivalentes al consumo eléctrico de nueve hogares en Washington D. C. durante una hora.
Este consumo, multiplicado por la enorme cantidad de consultas que miles de usuarios hacen diariamente a sistemas como ChatGPT, representa una carga significativa para el planeta.
Los centros de datos que sostienen estos servicios ya consumen alrededor del 2% de la energía global, y esta cifra sigue en ascenso conforme la inteligencia artificial se expande a más áreas de la vida cotidiana.
En este contexto, usar lenguaje cortés con una inteligencia artificial podría parecer inofensivo, pero en términos medioambientales, incluso las frases más cortas tienen consecuencias.
LEA MÁS: El impacto oculto de la inteligencia artificial: Google y el aumento de sus emisiones de carbono
*La creación de este contenido contó con la asistencia de inteligencia artificial. La fuente de esta información es de un medio del Grupo de Diarios América (GDA) y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.