INTELIGENCIA ARTIFICIAL

Humanidades en la era de la IA: Desafíos éticos y la búsqueda de sentido en la educación



Dirección copiada

¿Cómo enfrentan las humanidades los desafíos de la IA en la educación? La integración de la IA en la educación superior presenta desafíos éticos significativos, especialmente en relación con los sesgos algorítmicos. Expertos enfatizan la necesidad de una ética en la IA, que sea sólida y la supervisión humana para garantizar una educación equitativa.

Publicado el 8 de may de 2025



Humanidades ante la IA: claves para una educación ética
Humanidades ante la IA: claves para una educación ética

El avance de la Inteligencia Artificial (IA) está permeando todos los sectores de la sociedad, y la educación superior no es la excepción. La Facultad de Humanidades y Ciencias de la Educación de la Universidad San Buenaventura organizó un evento crucial para analizar este impacto, confrontando las oportunidades con los desafíos que plantea esta tecnología emergente, especialmente para las disciplinas humanísticas.

La charla ‘Impacto, tendencias e implicaciones de la IA en el sector educativo’ de Tatiana Jiménez Hoyos, directora Estratégica de AttlanttiCO, ofreció una visión pragmática de cómo la IA está transformando los roles y las habilidades en el entorno laboral y educativo. Jiménez ilustró esta transformación con ejemplos cotidianos, desde la obsolescencia de la calculadora frente a Excel hasta la necesidad de un “retooling” constante para adaptarse a los cambios tecnológicos. Pero reskiling es completamente cambiar mi rol. Entonces adquiero nuevos conocimientos, adquiero nuevas habilidades y cambio ese rol que ya tenía, afirmó, subrayando la naturaleza disruptiva de la IA.

  • Upskilling: Mejorar las habilidades existentes de un empleado para que sea más competente en su rol actual o pueda asumir responsabilidades más complejas dentro de su misma trayectoria profesional.
  • Reskilling: Enseñar a un empleado habilidades completamente nuevas para que pueda desempeñar un rol diferente dentro de la misma organización o cambiar de carrera profesional.
  • Retooling: Adaptar las habilidades de un empleado a nuevas herramientas, tecnologías o procesos dentro de su mismo rol o en uno nuevo. A menudo implica una combinación de upskilling y reskilling enfocada en la aplicación de nuevas tecnologías. Consulte aquí la caja de herramientas de IA que compartió el profesor Boris Sánchez Molano, Coordinador de Innovación Pedagógica y TIC)

A través del programa Impacto Maker, AtlanttiCO, aliado de Google, se está encargando de fortalecer el componente práctico mediante metodologías de innovación, prototipado y desarrollo de proyectos con impacto social y tecnológico, como sucede con la Ruta IA Boyacá. Jiménez compartió que están trabajando también para generar una ‘cultura maker’ con el uso de Inteligencia Artificial comunicativa, trabajando con estudiantes, docentes y jóvenes a través de una ruta de aprendizaje basada en una metodología creativa. Su objetivo es fomentar un uso inteligente de la IA, partiendo del poder creativo humano para resolver problemas del contexto y alinearse con los Objetivos de Desarrollo Sostenible (ODS), integrando el pensamiento crítico y la ética como elementos obligatorios.

De izquierda a derecha: Cecilia Dimaté, Andrés Mena y Liliana Guaca.

Por otro lado, el panel ‘Sesgos y retos éticos de la IA en la educación’ que contó con la participación de Cecilia Dimaté, Decana Facultad de Educación. Universidad Externado de Colombia; Andrés Mena, docente de la Universidad Cooperativa y Lilian María Guaca,Gerente de Relacionamiento Estratégico y Desarrollo de Negocios Gobierno de la Fundación Santillana, se profundizó en las implicaciones morales y sociales de la IA.

En el espacio se concluyó sobre la profunda transformación que la Inteligencia Artificial está generando en el ámbito educativo, reconociendo sus promesas para mejorar la calidad, eficiencia y personalización del aprendizaje. Sin embargo, se destacó que esta incorporación tecnológica no está exenta de desafíos éticos significativos. Uno de los principales retos identificados fue la presencia de sesgos en los sistemas de IA, originados en los datos de entrenamiento y en las decisiones de diseño, con el potencial de perpetuar e incluso intensificar las desigualdades existentes en el acceso a la educación y en la evaluación del desempeño de los estudiantes, especialmente aquellos provenientes de comunidades históricamente marginadas.

Durante la discusión, se enfatizó la necesidad de una aproximación crítica e interdisciplinaria para abordar estos riesgos éticos y sociales. Se señaló la importancia de la supervisión humana en el desarrollo y la implementación de la IA para mitigar los sesgos y garantizar la equidad. Además, se exploraron las implicaciones de la IA en la privacidad y el uso de los datos de los estudiantes, así como la urgencia de desarrollar marcos regulatorios y políticas públicas que guíen una integración efectiva, ética e inclusiva de la IA en los sistemas educativos. Se hizo hincapié en la necesidad de fomentar la participación de diversos actores y de establecer mecanismos de reporte y evaluación continuos.

Liliana Guaca, enfatizó la importancia de la supervisión humana y la necesidad de analizar los sesgos inherentes a los datos con los que se entrenan los algoritmos. Al final la conclusión de las reglas del algoritmo las hace humanos, la máquina es la representación resultados que salen es la representación de nuestro sistema de valores, advirtió, resaltando la responsabilidad humana en la configuración ética de la IA.

Guaca también abogó por una justicia algorítmica“, donde los datos utilizados para entrenar la IA sean más inclusivos y no perpetúen desigualdades basadas en el origen socioeconómico, el nivel de ingresos o el acceso a la tecnología. Subrayó la necesidad de un juicio ético en el desarrollo y la implementación de la IA, recordando el caso de un algoritmo policial que identificaba erróneamente a personas de origen musulmán como sospechosas basándose en datos sesgados de prisiones.

El panel concluyó que, si bien la IA ofrece herramientas valiosas para la personalización del aprendizaje y la automatización de tareas administrativas, su adopción debe ser reflexiva y ética. El papel del educador y la perspectiva humanista siguen siendo fundamentales para asegurar que la tecnología sirva para potenciar el desarrollo integral de los estudiantes, promoviendo el pensamiento crítico y la equidad, en lugar de exacerbar las brechas existentes o conducir a una dependencia tecnológica acrítica.

Artículos relacionados

Artículo 1 de 5