Editorial

Inteligencia artificial y pensamiento crítico

inteligencia artificial, cerebro, Pixabay
inteligencia artificial, cerebro / FUENTE: Pixabay

Las herramientas de inteligencia artificial llegaron a nuestras oficinas y universidades prometiendo eficiencia. Lo que no esperábamos era que también generaran cambios en nuestros procesos cognitivos.

Una investigación de Carnegie Mellon y Microsoft Research documenta que cuanto más los trabajadores confían en la IA generativa, menos ejercitan su pensamiento crítico. Lee et al. (2022) siguieron a profesionales que usan estas herramientas diariamente y encontraron que la comodidad de obtener respuestas rápidas está trasladando el esfuerzo cognitivo desde pensar a, simplemente, verificar.

Investigadores de Bristol y King's College London observaron que ChatGPT, efectivamente, ayuda a los estudiantes en tareas básicas —recordar datos, resumir textos, organizar ideas—, pero no logra impulsar la creación original. Essien et al. (2023) concluyen que la IA nos hace más eficientes en lo rutinario, pero no necesariamente más creativos o críticos.

Desde Indonesia, Darwin et al. (2023) reportan que los estudiantes valoran la IA precisamente porque los ayuda a cuestionar teorías establecidas y explorar nuevas perspectivas, de la misma forma que investigadores latinoamericanos encontraron que el 64% de los universitarios cree que estas herramientas mejoran su capacidad analítica.

No obstante, persiste una trampa. Larson et al. (2023), desde la Northeastern University, advierten que la IA produce respuestas con una autoridad tan aparente que inhibe el cuestionamiento. La información pulida y bien estructurada parece ser aceptarse más fácilmente que la mediada por el humano, lo que puede conducir a errores.

El problema, entonces, parece radicar en la capacidad de detectar sesgos, identificar perspectivas ausentes y desafiar las narrativas dominantes. La IA ha sido y sigue siendo entrenada con datos que reflejan los prejuicios existentes, lo que puede perpetuar las desigualdades de ayer y hoy.

Por lo mismo, las soluciones no implican rechazar la tecnología, sino que aprovechar su eficiencia sin renunciar a nuestro criterio. Esto significa entrenar usuarios que sepan cuándo confiar en la IA y cuándo cuestionarla, y que usen sus resultados como punto de partida y no como verdad definitiva.

El futuro está en combinar la velocidad de la IA con la profundidad del pensamiento humano, y eso requiere alfabetización y desarrollo de capacidades.

Etiquetas:




matomo