ChatGPT, impulsado por el modelo GPT-5.2 de OpenAI lanzado en diciembre de 2025, identifica incorrectamente dos r en la palabra fresa, que contiene tres, porque su proceso de tokenización divide la palabra en fresa, cruda y baya, y solo dos tokens contienen r. Los sistemas de inteligencia artificial modernos demuestran competencia para generar imágenes de marketing únicas, compilar informes a través de navegadores agentes y producir canciones que encabezan las listas de éxitos. Estas capacidades destacan una amplia capacitación en vastos conjuntos de datos, lo que permite el reconocimiento de patrones para resultados complejos. Por el contrario, ciertas tareas básicas desafían estos modelos. Contar las letras de una sola palabra representa una de esas tareas, accesible sin dificultad a un niño de siete años. La pregunta específica que se examina es cuántas r aparecen en la fresa. La palabra fresa se compone de las letras fresa. La inspección visual confirma tres erres: una después de la t y dos consecutivas en la porción de bayas. Esta consulta ha persistido como prueba del rendimiento de la IA en múltiples iteraciones del modelo. Tras el lanzamiento en diciembre de 2025 de GPT-5.2las pruebas confirmaron que la respuesta de ChatGPT seguía siendo dos erres. Las versiones anteriores mostraban incertidumbre o comportamiento errático sobre esta cuestión. El último modelo arrojó una respuesta directa de dos, sin desviarse. Este resultado persiste a pesar de las inversiones que superan los miles de millones de dólares, las elevadas demandas de hardware, incluidos los aumentos de precios de la RAM, y el sustancial consumo global de agua vinculado a la infraestructura de capacitación. El problema surge del diseño tokenizado de entrada y salida de grandes modelos de lenguaje como ChatGPT. El texto ingresado se divide en tokens, que son fragmentos como palabras completas, sílabas o partes de palabras. El modelo procesa estos tokens en lugar de letras individuales. En consecuencia, el recuento de letras se basa en el contenido simbólico más que en una enumeración precisa de las letras. La herramienta OpenAI Tokenizer ilustra este proceso. Al ingresar a la fresa, se obtienen tres fichas: st, cruda, baya. La primera ficha st no contiene r. El segundo token sin procesar incluye una r. La tercera baya simbólica incluye dos r pero funciona como una sola ficha. El modelo asocia las r con dos fichas, lo que lleva a la cuenta de dos. Este patrón de tokenización afecta a palabras similares. Raspberry se divide en tokens comparables, lo que hace que ChatGPT también informe dos r para esa palabra. La ficha de baya comprime varias letras en una unidad, infravalorando las instancias de letras individuales dentro de ella. ChatGPT funciona como un motor de predicción, aprovechando patrones de datos de entrenamiento para anticipar elementos posteriores. GPT-5.x incorpora el método de tokenización o200k_harmony, introducido con los modelos OpenAI o4-mini y GPT-4o. Este esquema actualizado apunta a la eficiencia pero conserva la discrepancia en el recuento de r de fresa. ChatGPT se lanzó a finales de 2022 en medio de numerosos desafíos basados en tokens. Frases específicas desencadenaron respuestas excesivas o fallas de procesamiento. OpenAI abordó muchos de ellos mediante ajustes de capacitación y mejoras del sistema en los años siguientes. Las pruebas de verificación de problemas clásicos mostraron mejoras. ChatGPT deletrea con precisión Mississippi, identificando las letras mississippi con las frecuencias correctas: una m, cuatro i, cuatro s, dos p. También invierte lollipop en popillol, preservando todas las letras en la secuencia adecuada. Los modelos de lenguaje grandes exhiben limitaciones persistentes en el conteo exacto de cantidades pequeñas. Se desempeñan bien en matemáticas y resolución de problemas, pero fallan en el recuento preciso de letras o palabras en cadenas breves. Un ejemplo histórico notable es el de la cadena solidgoldmagikarp. En GPT-3, esta frase interrumpió la tokenización, provocando resultados erráticos que incluían insultos de los usuarios y texto ininteligible. Consultar GPT-5.2 en solidgoldmagikarp produjo una alucinación. El modelo lo describió como una broma secreta de Pokémon incrustada en los repositorios de GitHub por los desarrolladores. La activación supuestamente transforma avatares, íconos de repositorio y otras características en elementos con temática de Pokémon. Esta afirmación carece de fundamento en la realidad y refleja efectos residuales de problemas de tokenización anteriores. Las pruebas comparativas con otros modelos de IA arrojaron resultados correctos para la pregunta de la fresa. La perplejidad contó las tres erres. Claude proporcionó la cuenta exacta de tres. Grok identificó las tres erres en la fresa. Géminis respondió correctamente con tres. Qwen confirmó las tres erres. Copilot también informó las tres erres. Estos modelos emplean distintos sistemas de tokenización, lo que permite una identificación precisa de las letras incluso cuando funcionan con las arquitecturas subyacentes de OpenAI.





