Un nuevo estudio publicado en Naturaleza Comportamiento Humano desafía la suposición predominante de que la inteligencia artificial generativa se comporta consistentemente en diferentes idiomas, revelando en cambio que los modelos de lenguajes grandes (LLM) exhiben distintas tendencias culturales dependiendo de si se les solicita en inglés o chino. Los investigadores Jackson G. Lu y Lu Doris Zhang examinaron dos modelos principales, GPT de OpenAI y ERNIE de Baidu, y descubrieron que el lenguaje del mensaje cambia efectivamente la «personalidad cultural» de la IA, influyendo en cómo interpreta la información, evalúa opciones y formula recomendaciones estratégicas.
La investigación utilizó marcos de la psicología cultural para medir dos constructos principales: la orientación social y el estilo cognitivo. Cuando se les preguntó en inglés, ambos modelos mostraron una orientación social «independiente», valorando la autonomía y la autodirección, y un estilo cognitivo «analítico», caracterizado por una dependencia de la lógica formal y el razonamiento basado en reglas. Por el contrario, cuando se les pidió en chino, los modelos cambiaron hacia una orientación «interdependiente» que enfatizaba la armonía y la conformidad social, junto con un estilo cognitivo «holístico» que prioriza el contexto y las relaciones sobre los objetos focales.
Estas divergencias se manifestaron en escenarios comerciales prácticos. Por ejemplo, cuando se le pidió que explicara el comportamiento de una persona, las indicaciones en inglés llevaron a la IA a atribuir acciones a la personalidad del individuo, mientras que las indicaciones en chino dieron como resultado atribuciones basadas en el contexto social. En una tarea de marketing, los modelos prefirieron eslóganes que resaltaran el bienestar individual cuando se les preguntó en inglés, pero favorecieron aquellos que enfatizaban el bienestar colectivo cuando se les preguntó en chino. El estudio señala que simplemente traducir una campaña generada en inglés para un mercado chino podría, por lo tanto, resultar en un desajuste cultural que haga que el mensaje fracase.
Sin embargo, los investigadores descubrieron que estos sesgos no son inmutables. Al utilizar «indicaciones culturales», como ordenar explícitamente a la IA que adopte la perspectiva de una persona promedio que vive en China, los usuarios podrían recalibrar las respuestas en inglés del modelo para imitar los patrones interdependientes y holísticos que generalmente se ven en las respuestas chinas. Para gestionar estos sesgos ocultos, los autores aconsejan a los líderes organizacionales que traten la elección del idioma como una decisión estratégica, alineen los idiomas de las indicaciones con el contexto cultural de la audiencia objetivo y utilicen las indicaciones de la personalidad cultural para guiar el razonamiento de la IA hacia ideas más apropiadas.





