
VER RESUMEN
Herramienta desarrollada por BioBioChile
Investigadores de Microsoft y la Universidad Carnegie Mellon revelaron que el uso de inteligencia artificial generativa en el trabajo está perjudicando el pensamiento crítico de las personas. La confianza en la IA generativa se relaciona con menor esfuerzo de pensamiento crítico, lo que puede llevar a una dependencia excesiva a largo plazo.
Investigadores de Microsoft y de la Universidad Carnegie Mellon (Pensilvania, EE.UU.) estudiaron el uso de la IA generativa en el trabajo y encontraron que está afectando el pensamiento crítico de las personas.
El estudio concluyó que, tener una mayor confianza en la IA generativa, está asociado a un menor esfuerzo de pensamiento crítico, mientras que la confianza propia produce más pensamiento crítico.
“Si bien la IA generativa puede mejorar la eficiencia del trabajador, puede inhibir el compromiso crítico con el trabajo y potencialmente conducir a una dependencia excesiva a largo plazo de la herramienta y a una disminución de la habilidad para la resolución independiente de problemas“, dicen los investigadores.
¿Qué pasa con la IA generativa y los trabajadores?
Los investigadores describen que, cuando las personas utilizan herramientas de IA en sus trabajos, el objetivo únicamente es verificar que la ayuda de la IA sea correcta o lo suficientemente buena para usarla.
Esto último, hace que los trabajadores dejen de aplicar sus habilidades de pensamiento crítico para crear, evaluar o analizar información, ya que solo intervienen en el resultado de una IA si es que encuentra errores o deficiencias.
Así, pierden “oportunidades rutinarias para practicar su juicio y fortalecer su musculatura cognitiva, dejándolos atrofiados y desprevenidos cuando surgen las excepciones”, señala el paper.
Los expertos dieron con estos resultados luego de una encuesta que hicieron a “knowledge workers”, o trabajadores del conocimiento, en español, que son grupos que en lugar de practicar un oficio manual, requieren de sus conocimientos especializados para resolver problemas, como ingenieros, abogados, arquitectos, médicos, y otros.
En total fueron 319 personas, que admitieron usar la IA generativa al menos una vez a la semana en sus trabajos. Se les pidió que entregaran tres ejemplos de cómo la usan y con estos resultados se formaron tres categorías.
1)Creación: para escribir correos, por ejemplo.
2)Información: para investigar un tema o resumir un artículo largo.
3)Consejo: para pedir orientación o hacer gráficos a partir de datos entregados.
Luego, les preguntaron si realizar estas tareas con IA generativa les suponía algún esfuerzo de pensamiento crítico, y cuánta confianza tenían en la IA, en sí mismos y en sus capacidades para revisar un resultado de IA.
Del total, solo un 36% respondieron que utilizaban su pensamiento crítico para revisar las respuestas de la IA y mejorar aspectos negativos.
El problema fue que muchos de los encuestados no estaban al tanto de cómo funciona la IA para generar estas respuestas, lo que hizo que verificaran menos y confiaran más en las herramientas.
“Los posibles daños posteriores de las respuestas de IA generativa pueden motivar el pensamiento crítico, pero solo si el usuario es consciente de dichos daños”, reflexionan en el estudio.
“Los trabajadores del conocimiento se enfrentan a nuevos desafíos en el pensamiento crítico al incorporar IA generativa en sus flujos de trabajo. Para ello, sugerimos que las herramientas de IA generativa deben diseñarse para apoyar el pensamiento crítico de los trabajadores del conocimiento, abordando sus barreras de consciencia, motivación y capacidad“, concluyen.
El estudio aún no ha sido revisado por pares, pero será presentado a finales de abril en la Conference on Human Factors in Computing Systems (CHI).
Referencias:
Hao-Ping Lee y otros autores, The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers. Universidad Carnegie Mellon e investigadores de Microsoft. Conferenceon Human Factors in Computing Systems (CHI’25), 2025.