Reflexiones sobre la inteligencia artificial, el humanismo y la academia

Conoce las principales reflexiones del rector de la Universidad de La Sabana, Dr. Rolando Roncancio, en el Acto de Apertura del semestre 2025-2 y las perspectivas de diferentes expertos de la Universidad sobre la inteligencia artificial.
Durante la intervención, el rector se refirió a la responsabilidad de la universidad de formar ciudadanos con criterio, pensamiento crítico y mente transformadora que aporte en la resolución de problemas reales. Esto dijo el Rector:
Rolando Roncancio, rector de la Universidad de La Sabana
"La Universidad tiene la responsabilidad de formar ciudadanos no solo tecnológicamente competentes, sino humanamente lúcidos, convencidos de que nuestro verdadero diferencial ha de estar en formar personas con criterio, empatía, pensamiento crítico y espíritu transformador. Y, para lograrlo, nosotros tenemos que serlo primero".
De otro lado, expertos de La Sabana advirtieron que el uso de la IA generativa implica asumirla como una fuente más de información, sujeta a procesos de evaluación y curaduría tan estrictos como los aplicados a contenidos web y redes sociales. Señalaron que es clave enseñar a los estudiantes a usarla no como un sistema que piensa por ellos, sino como una herramienta potente para fortalecer y acelerar su aprendizaje.
Aquí algunas de las reflexiones abordadas durante el Acto de Apertura.
Las principales ideas del rector en el Acto de Apertura del semestre 2025-2
- No podemos dejar de ser hombres y mujeres pensantes para convertirnos en hombres y mujeres que solo hacen. El hombre de hoy no puede estar al servicio de la tecnología, olvidando que la técnica es para el hombre y no el hombre para la técnica. Absorbido por ella, puede perder su capacidad de reflexión, de pensamiento y, sobre todo, de amar; esto es lo único que nos hace diferentes de los otros animales y especialmente fuertes frente a la inteligencia artificial.
- La Universidad tiene la responsabilidad de formar ciudadanos no solo tecnológicamente competentes, sino humanamente lúcidos, convencidos de que nuestro verdadero diferencial ha de estar en formar personas con criterio, empatía, pensamiento crítico y espíritu transformador. Y, para lograrlo, nosotros tenemos que serlo primero.
- ¿Cómo podemos potenciar la inteligencia natural (humana) de nuestra comunidad universitaria, para estimular la creatividad, la memoria, el pensamiento crítico, la empatía y el juicio ético en el trabajo/estudio cotidiano, en el marco de la era digital en donde se tiende a utilizar cada vez más la inteligencia artificial?
- Decía el padre Hernán Salcedo, citando al escritor alemán Rainer Rilke, que "educar es amar las preguntas, dejar que vivan, que hagan su proceso. Quién tiene miedo de las preguntas es porque tiene miedo de las respuestas".
- Buscamos ser una universidad humanista, que tiene y pone en el centro a la persona, no al robot ni al instrumento creado por la inteligencia artificial; pero que se basa en ella para potenciar la capacidad humana y hacernos más humanos.
- Solo las personas son capaces de preocuparse auténtica y genuinamente por los demás. La inteligencia artificial "se hace cargo" solo cuando la sensibilidad humana detecta lo que demandan las personas y el entorno. Y, para eso, hay que darse cuenta, y uno se da cuenta solo cuando contempla, "estando cerca" de las personas y sus circunstancias.
- No es en vano que el Proyecto Educativo Institucional (PEI) señale que nuestro trabajo está irradiado por una visión cristiana del hombre y el mundo y, por eso, se compromete a que la realización del trabajo y el estudio se convierta en medios de perfeccionamiento personal y social, de crecimiento y trascendencia del hombre. Esa es la esencia de lo que somos y lo que nos va a empujar a ser más humanos en todo el quehacer de la vida universitaria, especialmente.
- Crear un humanismo aumentado por partida doble: por un lado, una visión educativa que privilegie la dignidad, la creatividad y la posibilidad del ser humano, como el centro del proceso educativo; y, por otro, que integre tecnologías emergentes relacionadas con inteligencia artificial, datos y herramientas digitales, para potenciar el aprendizaje y la acción.
- En las páginas del libro Cointeligencia se plantea un peligro latente con la evolución creciente y sostenida de la inteligencia artificial: "resultará tentador delegarlo todo en ella, confiar en su eficiencia y velocidad para hacer el trabajo...", características que la hacen fuerte, pero que solo arrojarán efectos importantes si sabemos hacer las preguntas concretas, en el momento indicado y con la sapiencia propia de la inteligencia humana.
Miguel Uribe, director del Doctorado en Inteligencia Artificial
"Los estudiantes deben comprender la IA generativa como una fuente adicional de información que requiere ser evaluada y curada con la misma rigurosidad que un sitio web o una publicación en redes sociales".
¿Cómo equilibrar el uso de IA con el desarrollo del pensamiento crítico, la autonomía intelectual y la formación ética de los estudiantes?
Para Miguel Uribe, director del Doctorado en Inteligencia Artificial, el acelerado desarrollo tecnológico del último siglo transformó de forma radical el acceso y la producción de información. Lo que antes estaba limitado a libros y periódicos, y por tanto a una minoría, se amplió progresivamente con la radio, la televisión, los computadores y, especialmente, con la masificación de internet. Este proceso democratizó el acceso al conocimiento y permitió que cualquier persona pueda hoy generar y difundir contenidos.
Sin embargo, este nuevo escenario también dio paso a un fenómeno creciente: la desinformación, impulsada por la circulación de contenidos no verificados. En ese contexto surge la IA generativa como una fuente adicional de información que, por su carácter centralizado y su entrenamiento con grandes volúmenes de datos, puede percibirse erróneamente como más confiable. Uribe advierte que estas herramientas no “piensan”, sino que generan texto de manera probabilística a partir de información humana, con sus aciertos, pero también con sus sesgos y errores.
Aunque las empresas desarrolladoras incorporan mecanismos para mitigar estos riesgos, no existen garantías absolutas sobre la neutralidad o veracidad de sus respuestas. Por ello, la IA generativa debe incorporarse al ámbito educativo sin idealizaciones: no como una fuente de verdad, sino como una tecnología que exige análisis crítico, contraste con otras fuentes y una evaluación ética permanente, responsabilidad que recae en toda la comunidad académica.
Competencias emergentes para un uso consciente y responsable de la inteligencia artificial
Entonces surge una gran pregunta y es ¿qué tipo de competencias deberían ser impartidas en la formación académica?, ¿esto ayudaría a conseguir un uso consciente y responsable de la IA?. Uribe, considera que lo primordial es comprender el funcionamiento de un modelo de lenguaje grande (Large Language Model, LLM), no es solo el detalle del algoritmo, sino su dinámica básica: qué información toma como entrada, cómo genera la salida, con qué datos ha sido entrenado y qué reglas adicionales condicionan sus respuestas.
De otro lado, en un contexto marcado por el cambio permanente, la clave está en "aprender a aprender". En este escenario, la inteligencia artificial generativa ofrece un aporte relevante al ampliar el acceso a información y recursos. Sin embargo, su incorporación en el aula exige un enfoque pedagógico claro: no debe utilizarse como un sustituto del pensamiento, sino como una herramienta para apoyar y acelerar los procesos de aprendizaje. Lograr este equilibrio no es simple y plantea un desafío mayor para el profesor, que asume una responsabilidad y enfrenta un camino aún en construcción.
¿Qué responsabilidad ética tienen las universidades en la formación de ciudadanos que integrarán la IA a su forma de pensar y actuar?
Otro de los aspectos señalados por los expertos es la responsabilidad moral de la universidad en la formación de ciudadanos. En ese tema, si bien las herramientas cambian, y la tecnología avanza, las responsabilidades morales permanecen inmutables. Las universidades siempre han tenido la responsabilidad de formar ciudadanos que contribuyan a la sociedad y respondan con su conocimiento y sus virtudes a los múltiples problemas que la aquejan.
La disponibilidad de herramientas de IA nos obliga como universidad a estar muy atentos a cuáles son esas actividades que generarán valor en el futuro a la hora de resolver un problema, destaca el profesor Uribe. Si el foco de enseñanza está en actividades fácilmente reemplazables con IA, nuestros estudiantes no podrán verdaderamente contribuir y se quedarán atrás. El reto entonces es formarlos para lo que la IA no puede hacer.
Martha Cobo, decana de la Facultad de Ingeniería
"La IA puede aportar su capacidad de procesar grandes volúmenes de datos, generar modelos predictivos robustos y acelerar algunas tareas repetitivas, como la generación de código".
El rol que cumple la IA en la ciencia y la investigación, especialmente en áreas de alto impacto
Para Martha Cobo, decana de la Facultad de Ingeniería el foco está en el potencial de la inteligencia artificial aplicada a la investigación científica, particularmente, en áreas como la genómica, el descubrimiento de fármacos y la ciencia de materiales. En conjunto con la experimentación, la IA aporta su capacidad para procesar grandes volúmenes de datos, generar modelos predictivos robustos y acelerar tareas repetitivas, como la programación. Estos aportes permiten reducir los tiempos de experimentación y aumentar la precisión en la identificación de patrones complejos.
En esa línea, la inteligencia artificial promete acelerar la investigación científica, pero también plantea desafíos clave. La falta de transparencia de muchos modelos y el uso de datos sesgados o de baja calidad ponen en riesgo la validez y la réplica de los resultados. Aunque sus aplicaciones aún son incipientes y no sustituirán todos los desarrollos científicos, la IA puede convertirse en un apoyo decisivo para avanzar con mayor rapidez en áreas donde los fenómenos aún no pueden describirse con precisión matemática.
Ventajas y desventajas de la inteligencia artificial en la sostenibilidad medioambiental y el equilibrio entre tecnología y cuidado del planeta
En cuanto a la sostenibilidad, la literatura evidencia ventajas concretas, como la optimización de redes energéticas inteligentes para integrar fuentes renovables y la mejora en sistemas de monitoreo ambiental mediante IA, lo que permite detectar emisiones o deforestación en tiempo real.
No obstante, se han documentado desventajas: el alto consumo energético del entrenamiento de modelos avanzados, que en algunos casos se equipara al gasto de miles de hogares, y la brecha de acceso tecnológico, que limita la adopción de estas soluciones en regiones con menor infraestructura. La IA podrá aportar en muchos campos relacionados con la sostenibilidad en el futuro, como modelos complejos de comportamiento climático. Sin embargo, aún se están desarrollando.
En conclusión, la investigación científica tiene su base en la comprobación de hipótesis, por lo que este enfoque debe seguirse manteniendo con el uso de modelos que pueden no estar prediciendo lo que se pretende. La IA puede ayudar a avanzar en esa comprobación, pero hay que asumirla con cautela y utilizarla como una herramienta más, sometiendo sus resultados a revisión constante y a la duda metódica, que es la base del método científico.
Ronald Forero, profesor de la Facultad de Filosofía y Ciencias Humanas
"La autorreflexión, la autonomía y la honestidad resultan principios éticos para comprender que no se puede delegar el pensamiento, la toma de decisiones ni presentar como propios conocimientos que no lo son".
¿Cómo cambia la inteligencia artificial nuestra forma de entender el conocimiento, la autoría y la creatividad?
Según Ronald Forero, profesor de la Facultad de Filosofía y Ciencias Humanas, las inteligencias artificiales generativas están creando una “quimera epistemológica” que obliga a replantear categorías que antes se consideraban exclusivamente humanas. Estas herramientas producen datos, análisis e información que parecen nuevos o correctos, pero en realidad son un collage probabilístico construido a partir de los datos disponibles. Desde la perspectiva filosófica de Parménides, los algoritmos no siguen el logos —la conexión entre palabra y razón— ni pueden realizar procesos investigativos básicos como la formulación de hipótesis, la experimentación o la validación científica.
Tampoco transforman el saber previo ni generan nuevas preguntas que inicien el nuevo ciclo investigativo que impulsa el avance de las ciencias. Lo que sí ocurre con frecuencia son las denominadas "alucinaciones de la inteligencia artificial", término que describe las falsedades o inexactitudes que ofrecen como verdaderas.
Además, conceptos como creatividad, autoría y responsabilidad sobre el conocimiento se ven interpelados: ¿puede una IA ser considerada autora o coautora? ¿Hasta qué punto los sesgos y decisiones de quienes diseñan los algoritmos influyen en lo que estas herramientas generan? Las respuestas, según el experto, dependerán de cada disciplina y serán clave para entender cómo la inteligencia artificial está transformando la creación, la investigación y nuestra relación con el conocimiento.
¿Qué principios de la ética y la filosofía pueden guiar el uso responsable de la IA en la educación?
La llegada de una nueva tecnología a los procesos educativos siempre ha generado inquietudes sobre la externalización del conocimiento y sus efectos en las funciones cognitivas. En los diálogos de Platón, por ejemplo, Sócrates advertía sobre los riesgos de incorporar la escritura en la educación. Sostenía que los escritos impedían el proceso mayéutico, que consistía en “dar a luz” el conocimiento por medio de un proceso dialéctico. También temía que la escritura debilitara la memoria y otras capacidades mentales. Aunque es cierto que las letras mudas e inmóviles no pueden responder preguntas para un escrutinio crítico, su aporte a la educación ha sido fundamental, especialmente si consideramos el beneficio de recobrar enseñanzas milenarias o la posibilidad del estudio independiente.
Hoy enfrentamos amenazas análogas. La agilidad de las inteligencias artificiales generativas para ofrecer respuestas inmediatas muchas veces nos hace pasar por alto el cuestionamiento de la palabra escrita y sus fuentes, pues no siempre expresan información completamente fiable. Asimismo, pueden poner en riesgo procesos de aprendizaje, como la curiosidad, la motivación, la activación y conexión de conocimientos previos, la metacognición y la formación de redes neuronales, que se desarrollan mediante estos mecanismos.
Urge entonces establecer criterios para el uso de las IA en la educación, guiados por el sentido de la deliberación, el cual, según Aristóteles, permite discernir cómo debemos actuar; en este caso, cómo emplear la tecnología en favor de la enseñanza y el aprendizaje. La autorreflexión, la autonomía y la honestidad resultan principios éticos para comprender que no se puede delegar el pensamiento, la toma de decisiones ni presentar como propios conocimientos que no lo son.
Las reflexiones en este campo deben encaminarse hacia la utilización de las IA como herramientas para facilitar y ampliar nuestras capacidades. En este escenario, los profesores debemos actuar como guías y referentes en su integración en las clases, para ayudar a los estudiantes a comprender sus alcances, sus limitaciones y las consecuencias del uso acrítico.
¿Cuál es la responsabilidad moral de una universidad en la formación de ciudadanos que utilizarán la IA como una extensión de su pensamiento y su acción en el mundo?
La universidad, como institución de educación superior, no puede limitarse a enseñar el uso de tecnologías emergentes. En el caso de la Universidad de La Sabana, su PEI declara que el núcleo de su misión es la formación integral de la persona, la búsqueda de la verdad y la contribución al bien común desde una perspectiva cristiana. Lo anterior implica que la Institución forma ciudadanos capaces de usar la IA con ética y criterio.
Los profesores debemos instruir a los estudiantes en la comprensión de su aplicación a cada disciplina, pero, sobre todo, en las implicaciones de su uso en todos los ámbitos. Si bien las IA pueden facilitar procesos de aprendizaje e investigación, es imperativo recalcar en las aulas que, a pesar de su eficiencia, carecen de conciencia (histórica) y del sentido de humanidad. Tampoco pueden deliberar ni pedir consejo a otras personas. A ello se suman los sesgos presentes en su programación, así como limitaciones para contrastar la información con la realidad.
En términos aristotélicos, los estudiantes al final de su formación deben ser capaces de aplicar la phrónesis —la sabiduría práctica que implica la deliberación y la búsqueda del bien— en el uso de una IA, es decir, comprender que no pueden delegarle la toma de decisiones, la elaboración de juicios, la proposición de objetivos, la interpretación de normas, etc., ya que eso podría llevarlos a cometer errores graves o a atentar contra la dignidad humana. La educación en este contexto debe conducir no solo a comprender la utilidad de las IA, sino también a reconocer las ventajas de su uso en favor de la construcción de un mundo mejor.
Natalia Leal, directora de programa de Ciencia de Datos
"Se hace indispensable la discusión en torno al uso responsable de la inteligencia artificial y el marco regulatorio que debe empezar a estructurarse, para que su uso asegure un impacto organizacional sostenible y equitativo".
¿Cómo está transformando la inteligencia artificial la forma en que analizamos e interpretamos grandes volúmenes de datos, y qué implicaciones tiene esto para la toma de decisiones estratégicas en las organizaciones?
Para Natalia Leal, directora del programa de Ciencia de Datos la inteligencia artificial ha venido potenciando la forma en que recolectamos, procesamos y usamos la información. Al automatizar tareas repetitivas y de índole técnico, nos brinda la oportunidad de enfocarnos en el análisis estratégico para impactar las organizaciones a través de una toma de decisiones mucho más consciente y veraz. Con el uso de la IA puede acelerarse el procesamiento de grandes volúmenes de información, haciendo posible, por ejemplo, la detección de patrones, la predicción y también la generación de sistemas de recomendación que hoy en día son especialmente útiles para mejorar la experiencia del cliente.
En otras palabras, la implementación de la IA ha permitido a las organizaciones desentrañar las historias que cuentan los datos de manera más rápida y eficiente, sin reemplazar el rol de quienes tienen por tarea interpretar sus resultados y tomar las decisiones correspondientes.
Sin embargo, también surgen retos importantes en torno a la legislación y gobernanza de datos, sobre todo de cara a la circulación y difusión masiva de información: se hace indispensable la discusión en torno al uso responsable de la inteligencia artificial y el marco regulatorio que debe empezar a estructurarse, para que su uso asegure un impacto organizacional sostenible y equitativo.
¿Cómo puede la IA ayudarnos a gestionar mejor los datos y qué se requiere para un uso ético?
Para empezar, y para que la IA realmente ayude con la gestión de la información, debemos garantizar la calidad y la gobernanza de datos; sin estos elementos, la IA se convierte en un mecanismo automatizado que produce resultados poco útiles o incluso erróneos.
También es necesaria una formación consciente, robusta y ética en torno a su implementación, que de paso abra las puertas a la innovación responsable, y que evite sesgos o interpretaciones inaplicables. Para que el uso de la IA realmente sea eficiente, debe entenderse como una herramienta que permite formular soluciones alineadas con la misión, la visión y las metas estratégicas de la institución, y no solamente como un recurso a explotar sin dirección, o como una simple vía para reemplazar ciertas tareas o roles sin un análisis de fondo.
Obdulio Velásquez, director general de INALDE Business School.
"El ser humano debe tener siempre la primacía y la responsabilidad sobre los resultados que la inteligencia artificial genere”.
¿Cómo puede garantizarse una gobernanza responsable de la IA en la educación?
Para Obdulio Velásquez, director general de INALDE Business School, desarrollar un marco de gobernanza de la inteligencia artificial exige la creación y aplicación de políticas, normas y regulaciones que garanticen su desarrollo y uso responsable. Esto implica considerar no solo criterios éticos, sino también —y de manera prioritaria— los legales, con el fin de evitar riesgos jurídicos; sin que ello signifique caer en la inacción derivada de la incertidumbre legal que muchos de los temas asociados a la inteligencia artificial plantean.
Actualmente, la Unión Europea cuenta con un cuerpo jurídico en la materia; en Colombia existe un proyecto de ley en curso y, además, numerosas organizaciones han diseñado protocolos y lineamientos que pueden servir de referencia para que cada institución elabore los propios.
¿Qué rol deben tener los comités de ética y órganos de gobierno en el uso de la IA?
Los comités de ética, más que tribunales de censura, son cuerpos colegiados e interdisciplinarios que orientan la formación de criterio para la adopción de la inteligencia artificial en la Universidad, de manera que se enseñe a usarla con conciencia y propósito, dentro de un marco de valores institucionales y de principios rectores del uso ético de la inteligencia artificial, tales como: crecimiento inclusivo, desarrollo sostenible, bienestar; respeto al Estado, derecho, derechos humanos y valores democráticos; transparencia y seguridad; y, por último, rendición de cuentas, es decir, responsable de sus acciones y decisiones.
¿Cuál es la responsabilidad moral de una universidad frente a la IA como extensión del pensamiento y la acción humana?
Finalmente, la principal responsabilidad moral de la Universidad en sus procesos de formación, con respecto a la inteligencia artificial, está frente a sus estudiantes de todos los niveles, es decir, en la apropiación de la tecnología centrada en la persona humana. La inteligencia artificial puede ser de varios niveles: como una herramienta, un asistente, un colega o como un jefe; es importante no perder de vista que el ser humano debe tener siempre la primacía y la responsabilidad sobre los resultados que la inteligencia artificial genere.
Conoce el portafolio de programas relacionados con inteligencia artificial:
- Pregrado en Ciencia de Datos
- Doctorado en Inteligencia Artificial
- Maestría en Analítica Aplicada
- Maestría en Inteligencia Artificial
- Especializaciones en:
- Diplomados y cursos en:
- IA Aplicada a los Negocios
- Estrategias de IA para Marketing Digital
- Inteligencia Artificial en Salud
- Ciencia de Datos con Python
- Curso en Experto en Inteligencia Artificial para Profesionales Innovadores
- Diseño Estratégico con IA: Transformando Ideas en Proyectos Visuales Impactantes
- Coaching y Liderazgo: Liderazgo en la Era Digital IA
- Educación en Salud Potenciada con IA
- Análisis y Visualización de Datos con IA
- Inteligencia Artificial con Deep Learning
- IA Generativa y Comportamiento
- Curso en IA en el sector legal
- Inteligencia Artificial Aplicada a la Educación
- Inteligencia Artificial Generativa: Ingeniería de Prompts y Agentes Inteligentes
- Minor Neurociencias Aplicadas
- Bootcamp en habilidades en IA (para gerencia media)
Artículos relacionados

CONTACTO
Tus comentarios y preguntas son importantes para nosotros. Diligencia este formulario y nos pondremos en contacto. También puedes venir a visitarnos y resolveremos tus dudas.
