
En TikTok se han viralizado varios videos que ponen a prueba las capacidades de ChatGPT con un reto singular: contar de uno a un millón. Usuarios de la plataforma, como @luchocuchara, han compartido clips donde se observa a la inteligencia artificial iniciando el conteo, pero sin lograr completarlo, a pesar de las insistencias.
En otros de los videos, el usuario le pide a ChatGPT que inicie el conteo sin interrupciones. La herramienta responde con frases como “uno, dos, tres... y así sucesivamente”, lo que genera frustración en quien realiza la petición. A pesar de intentarlo varias veces, la inteligencia artificial nunca logra avanzar de forma sostenida más allá de unas pocas cifras.
LEA MÁS: La tendencia que pone a prueba su ego: así funciona el ‘roast me’ de ChatGPT
¿Por qué ChatGPT no puede contar de 1 a un millón?
Aunque parezca simple, contar desde 1 hasta un millón representa un reto significativo para modelos de lenguaje como ChatGPT, diseñados para generar texto, no para realizar procesos secuenciales extensos o cálculos exactos.
Su arquitectura se basa en modelos de lenguaje entrenados para predecir el siguiente “token” (unidad de texto), no para ejecutar algoritmos matemáticos como los de una calculadora. Este enfoque probabilístico se adapta bien a tareas como redactar correos o responder preguntas, pero no a una acción sistemática como contar sin error.
Según un artículo del investigador Murray Shanahan, publicado en la revista Communications of the ACM, los modelos como ChatGPT generan el token más probable según el contexto previo, lo que significa que no “razonan” ni siguen procedimientos paso a paso como un humano o una máquina de cálculo.
Aunque sus respuestas puedan parecer inteligentes, en realidad se limitan a predecir qué palabra es más probable que aparezca después de otra, según patrones estadísticos aprendidos de millones de textos.
Esto significa que ChatGPT no tiene conciencia del objetivo que se le plantea. No sabe que debe contar ni entiende qué implica hacerlo bien. Por eso, si se le pide llegar hasta un millón, simplemente replica secuencias de números que ha visto antes, sin un plan ni una lógica interna que garantice llegar al final.
Shanahan advierte que estos sistemas no poseen creencias, ni conocimientos reales, ni capacidad para verificar si algo es cierto o falso. No entienden a quién responden ni por qué lo hacen, porque su estructura carece de intencionalidad.
LEA MÁS: ¿Por qué ChatGPT se volvió más ‘frío’? Usuarios aseguran que ‘perdieron a un amigo’
*La creación de este contenido contó con la asistencia de inteligencia artificial. La información fue investigada y seleccionada por un periodista y revisada por un editor para asegurar su precisión. El contenido no se generó automáticamente.