Regístrate Regístrate en nuestro newsletter
Radio San Cristobal 97.5 FM San Cristobal
Diario Papel digital
La Tribuna
Columnista

Inteligencia artificial y justicia social

Felipe Garrido Vera

Jefe carrera de Trabajo Social
Universidad Santo Tomás

por Felipe Garrido Vera

En enero de 2026 se realizaron las XXII Jornadas de Gestión en Educación Superior, cuyo eje central fue el uso de la inteligencia artificial (IA) en este ámbito. Académicos de trayectoria nacional e internacional, junto a equipos de diversas instituciones de educación superior, expusieron experiencias concretas sobre cómo han incorporado herramientas de IA generativa con distintos fines: docencia, gestión académica, investigación y servicios estudiantiles.

Entre los avances y oportunidades presentados, también se abordaron, aunque con menor profundidad, los desafíos y deudas pendientes en torno a esta transformación tecnológica. Una de las preguntas más relevantes fue quiénes podrían verse perjudicados o afectados negativamente por la expansión de la IA. La primera imagen que surge suele ser la sustitución de empleos: hoy los chatbots y asistentes virtuales ya forman parte habitual de múltiples servicios, y no es difícil anticipar una nueva ola de automatización y externalización que muchas empresas podrían justificar en nombre de la eficiencia de recursos.

Sin embargo, los impactos de la IA no se limitan al mercado laboral. Otro aspecto crítico es la forma en que su uso se proyecta hacia los usuarios, especialmente en servicios de atención. La experiencia cotidiana muestra que la exposición creciente a sistemas automatizados suele generar sensación de no resolución y altos niveles de frustración. Las respuestas genéricas, la dificultad para explicar situaciones complejas y la ausencia de trato humano se han vuelto frecuentes en canales de atención al cliente.

En el ámbito de los servicios públicos, este escenario parece acercarse rápidamente. La posibilidad de que las personas sean atendidas por simuladores de funcionarios que entreguen información estandarizada, sin considerar trayectorias de vida, contextos sociales ni subjetividades, representa un riesgo profundo para la calidad de la atención estatal. Precisamente esos elementos: la escucha, el análisis contextual y el reconocimiento de la singularidad son los que históricamente han dado sentido al vínculo entre el Estado y la ciudadanía.

De mantenerse esta tendencia sin una reflexión pública seria, es posible que en los próximos años emerja una nueva forma de desigualdad: entre quienes logran ser atendidos por personas y quienes quedan relegados a sistemas automatizados. Las respuestas impersonales no solo empobrecen la experiencia de atención, sino que pueden profundizar la exclusión de quienes ya enfrentan mayores barreras sociales, económicas y educativas. En lugar de facilitar el acceso a derechos, la tecnología podría convertirse en un nuevo filtro de exclusión.

Por ello, resulta fundamental que el Estado incorpore una mirada crítica y ética en la implementación de la inteligencia artificial. En los servicios destinados a poblaciones en situación de mayor vulnerabilidad, la atención humana no es un lujo: es una condición básica de justicia social. Preservar espacios de trato directo, acompañamiento y comprensión contextual debiera constituir un consenso transversal, tanto político como ciudadano, en este segundo cuarto del siglo XXI.

En este debate, las y los trabajadores sociales tienen un rol clave. Como profesionales comprometidos con la justicia social, la promoción de derechos humanos y el análisis crítico de las políticas públicas, deben participar activamente en estas discusiones. No se trata de rechazar la tecnología, sino de orientar su uso hacia el bienestar social, evitando que la eficiencia técnica termine erosionando la dignidad, la inclusión y el acceso efectivo a derechos.

Felipe Garrido Vera

Jefe carrera de Trabajo Social

Universidad Santo Tomás

Síguenos: Google News
banner redes
banner redes banner redes banner redes banner redes banner redes

¿Quieres contactarnos? Escríbenos a [email protected]

Contáctanos
EN VIVO

Más visto