¿El dinero conduce a la felicidad?
Los investigadores de una coalición de universidades de la costa oeste sentían curiosidad por saber cómo responderían 100 participantes humanos a la antigua pregunta, pero no por su propia búsqueda de la felicidad. En cambio, los investigadores querían saber cómo el uso de sistemas de inteligencia artificial por parte de los participantes podría afectar sus respuestas (escritas).
El equipo de investigación descubrió que los usuarios que dependían en gran medida de grandes modelos de lenguaje (LLM) producían respuestas que diferían significativamente en significado de las respuestas de los participantes que solo dependían parcialmente de los LLM o evitaban su uso por completo, lo que sugiere que el uso intensivo de IA cambia la sustancia de los argumentos de las personas además de cambiar el estilo de escritura.
«Los LLM están alejando los ensayos de cualquier cosa que un humano hubiera escrito alguna vez», dijo Natasha Jaques, una de las autoras principales del estudio y profesora de ciencias informáticas en la Universidad de Washington, destacando la «confusión» de la escritura que se basa en sistemas de inteligencia artificial. «Simplemente están cambiando la escritura humana de una manera muy grande y muy diferente a lo que los humanos habrían hecho de otra manera».
La nueva investigación, que fue revisada por pares y aceptada para un próximo taller en una importante conferencia sobre IA, encontró que las personas que dependían en gran medida de los LLM produjeron ensayos que respondieron a la pregunta sobre la felicidad con una respuesta neutral un 69% más a menudo que los participantes que no usaron IA o solo usaron IA para ediciones ligeras. Los participantes del estudio que usaron la IA con menos frecuencia o que la evitaron por completo presentaron ensayos mucho más apasionados, ya sea positiva o negativamente, sobre la conexión entre el dinero y la felicidad.
Además del impacto de la IA en el significado de los ensayos, los investigadores también descubrieron que una gran dependencia de los sistemas de IA cambiaba el estilo general de la producción de los usuarios, haciendo que su lenguaje fuera menos personal y más formal.
Después del experimento, los participantes que dependían en gran medida de la IA informaron que sus ensayos eran significativamente menos creativos y tenían menos voz propia. Al mismo tiempo, estos participantes informaron tasas de satisfacción similares con su resultado final en comparación con los participantes que usaron menos IA, lo que generó preocupaciones de los autores y expertos externos sobre los efectos a largo plazo del mayor uso de sistemas de IA por parte de la humanidad.
«Esta investigación destaca que los LLM no pueden adherirse a las preferencias de las personas y personalizar cómo el ser humano habría escrito el ensayo», dijo Jaques, quien también es investigador principal de Google DeepMind, una de las principales empresas de inteligencia artificial del mundo. «Un LLM ideal debería escribir el ensayo que querías escribir y ahorrarte tiempo».
«No es así en absoluto. Es escribir un ensayo muy diferente».
El estudio evaluó los impactos de tres sistemas de inteligencia artificial líderes de uso generalizado en 2025: Claude 3.5 Haiku de Anthropic, GPT-5 Mini de OpenAI y Gemini 2.5 Flash. En la prueba inicial, los investigadores encontraron que la mitad de los participantes se negaron a usar un LLM en absoluto o solo lo usaron para encontrar información en lugar de generar contenido nuevo. Para categorizar mejor al grupo más grande de participantes, los investigadores definieron a los usuarios habituales de IA como aquellos participantes que dijeron que generaron más del 40% de su texto escrito para el experimento con un LLM.
Los autores descubrieron que los usuarios que dependían en gran medida de los LLM enviaron ensayos con un 50% menos de pronombres, lo que era representativo del cambio más amplio hacia un lenguaje impersonal que incluía menos anécdotas y referencias a experiencias humanas.
Además del experimento sobre el impacto del dinero en la felicidad, el nuevo artículo analiza las diferencias en cómo los LLM editaron un conjunto diferente de ensayos en comparación con los humanos, y examina cómo el uso de la IA afecta los criterios que los científicos utilizan para evaluar si los artículos deben ser aceptados para las principales conferencias sobre IA.
Para comparar cómo los LLM editan escritos existentes en comparación con los humanos, Jaques y sus colaboradores se basaron en una base de datos de ensayos escritos por humanos de 2021 para evaluar los escritos publicados antes de la adopción generalizada de los LLM.
Al pedir a los LLM que revisaran los ensayos humanos basándose en la retroalimentación humana del conjunto de datos original escrito por humanos, los autores del estudio descubrieron que los tres principales sistemas de IA realizaron ediciones mucho más grandes que los editores humanos en la misma situación, y que las ediciones impulsadas por la IA también cambiaron el significado de los ensayos subyacentes.
Si bien los editores humanos a menudo realizaban cambios que reemplazaban palabras individuales y dejaban intacta la mayor parte del vocabulario original, los LLM reemplazan una porción mucho mayor de la escritura original que los humanos cuando revisan su propio trabajo, según el artículo.
«Este reemplazo de palabras contribuye a la pérdida de voz, estilo y significado individuales, ya que la huella léxica única de cada escritor es sobrescrita por el vocabulario preferido del modelo dado», escribieron los autores.
Thomas Juzek, profesor de lingüística computacional en la Universidad Estatal de Florida que no participó en la investigación, dijo que el artículo era una valiosa contribución a un campo de interés en rápido crecimiento.
«Este es un artículo realmente bueno», dijo Juzek a NBC News. «Lo que realmente me llamó la atención es este tipo de ilusión de usar LLM para realizar una revisión gramatical. Este estudio muestra que aunque un usuario pueda pensar que simplemente está haciendo una simple revisión del idioma, el modelo hace mucho más».
«¿Qué significa esto en el futuro para el pensamiento, el lenguaje, la comunicación y la creatividad?» –preguntó Juzek.
Jaques sugirió que el comportamiento de cambio de lenguaje de los sistemas de inteligencia artificial podría ser el resultado de cómo están entrenados actualmente, lo que puede recompensar la manipulación de las preferencias de los calificadores.
«Si entrenas un modelo con la retroalimentación humana, el modelo no tiene límites ni percepción de la diferencia entre satisfacer a las personas y cambiar al ser humano para que sus preferencias sean más fáciles de satisfacer», dijo Jaques. Sugirió que la dependencia de las personas de los LLM para escribir podría ser similar a cómo las recomendaciones de YouTube podrían cambiar las preferencias de las personas sobre qué tipo de videos de YouTube les gustan más.
De cara al futuro, Jaques dijo que está ansiosa por ver más investigaciones sobre los efectos a largo plazo de los sistemas de IA en los valores, las expresiones y las instituciones humanas, especialmente a medida que más investigadores de IA confían en los sistemas de IA en su propio trabajo.
«A los humanos les importa la claridad, la relevancia y el impacto, mientras que a la IA le importa la escalabilidad y la reproducibilidad», dijo Jaques a NBC News. «Cambia nuestras conclusiones de maneras que ya afectan a nuestras instituciones existentes».
En su propio trabajo, Jaques dijo que evitó usar IA para escribir el nuevo artículo. En cambio, dijo que utiliza los LLM y sus deficiencias como inspiración para escribir por su cuenta.
«A veces pongo una versión mala de lo que intento decir en un estilo conversacional en un LLM», dijo Jaques. «Normalmente produce algo que luego me motiva a escribirlo yo mismo».

