







Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Prepara tus exámenes
Prepara tus exámenes y mejora tus resultados gracias a la gran cantidad de recursos disponibles en Docsity
Prepara tus exámenes con los documentos que comparten otros estudiantes como tú en Docsity
Los mejores documentos en venta realizados por estudiantes que han terminado sus estudios
Estudia con lecciones y exámenes resueltos basados en los programas académicos de las mejores universidades
Responde a preguntas de exámenes reales y pon a prueba tu preparación
Consigue puntos base para descargar
Gana puntos ayudando a otros estudiantes o consíguelos activando un Plan Premium
Comunidad
Pide ayuda a la comunidad y resuelve tus dudas de estudio
Descubre las mejores universidades de tu país según los usuarios de Docsity
Ebooks gratuitos
Descarga nuestras guías gratuitas sobre técnicas de estudio, métodos para controlar la ansiedad y consejos para la tesis preparadas por los tutores de Docsity
Esta monografía analiza críticamente la implementación de la inteligencia artificial (ia) en universidades, específicamente en la ueb, basándose en cuatro artículos de scielo. examina las implicaciones éticas, de privacidad y seguridad, y propone lineamientos para un uso responsable de la ia en la educación superior. Se discuten temas como la responsabilidad de los desarrolladores y usuarios, la protección de datos, y la necesidad de un marco normativo adecuado. Una perspectiva valiosa sobre los desafíos y oportunidades que presenta la ia en el ámbito educativo.
Tipo: Monografías, Ensayos
1 / 13
Esta página no es visible en la vista previa
¡No te pierdas las partes importantes!
En términos de alfabetización en IA, Tramallino y Zeni (2024) realizan una revisión sistemática que evidencia un crecimiento exponencial en la producción científica sobre el tema desde 2021. Sin embargo, gran parte de esta literatura sigue centrada en enfoques instrumentales, mientras los debates profundos sobre ética, privacidad y derechos digitales apenas comienzan a consolidarse. Finalmente, Gil-Vera (2024) señala que, si bien herramientas como ChatGPT han mostrado eficiencia para tareas como redacción, generación de resúmenes o resolución de problemas básicos, su uso indiscriminado ha traído consigo riesgos importantes: dependencia intelectual, desinformación, y una alarmante dilución de la autoría académica. 2.1. OBJETIVOS 2.1.1. Objetivo General Analizar críticamente el impacto del uso de la inteligencia artificial en la Universidad Evangélica Boliviana (UEB), enfatizando los aspectos éticos, de responsabilidad, privacidad y seguridad, a partir de literatura científica reciente. 2.1.2. Objetivos Específicos Examinar el desarrollo de la inteligencia artificial en el ámbito universitario y su vínculo con la ética institucional. Identificar los niveles de responsabilidad de los desarrolladores y usuarios dentro del contexto universitario boliviano. Evaluar las implicaciones de la falta de privacidad y seguridad en la implementación de IA en la UEB. Proponer lineamientos para un uso ético, seguro y responsable de la IA en las universidades públicas.
3. MARCO TEÓRICO
La inteligencia artificial (IA) aplicada a la educación se sustenta en teorías de aprendizaje constructivistas y conectivistas que privilegian la personalización del proceso formativo y la co- construcción del conocimiento. Desde esta perspectiva, sistemas de IA generativa—como los analizados por Tramallino y Zeni (2024)—actúan como “facilitadores cognitivos” que ofrecen retroalimentación adaptada al nivel y estilo de aprendizaje de cada estudiante, permitiendo un aprendizaje más autónomo y autorregulado (Tramallino & Zeni, 2024). No obstante, la eficacia pedagógica de estas herramientas depende de la adecuación de sus algoritmos a los objetivos curriculares y de la capacidad del docente para integrarlas de forma crítica en el diseño instruccional. 3.2 ENFOQUES ÉTICOS Y DE RESPONSABILIDAD La filosofía de la tecnología aporta un marco para entender la IA como artefacto valorativo, es decir, como herramienta que no solo despliega capacidades técnicas, sino también implica juicios de valor respecto a qué se considera “bueno” o “justo” en educación (Gil-Vera, 2024). En este sentido, los principios de justicia, autonomía y no maleficencia—heredados de la ética biomédica—se han adaptado al contexto educativo para exigir transparencia en los algoritmos, rendición de cuentas de los desarrolladores y corresponsabilidad de los usuarios (Rodríguez & Blandimiro, 2024). La “ética algorítmica” propone, por tanto, que los sistemas de IA sean auditables y explicables, de modo que docentes y estudiantes puedan comprender cómo y por qué se generan ciertas recomendaciones o evaluaciones. 3.3 PRIVACIDAD Y SEGURIDAD COMO CONSTRUCTOS TEÓRICOS Las teorías de la privacidad y la seguridad en entornos digitales se apoyan en el reconocimiento de los datos personales como extensión de la identidad de los sujetos. Según Gil-Vera (2024), la IA educativa recopila metadatos de interacción—patrones de escritura, tiempos de respuesta, errores frecuentes—que, de no gestionarse correctamente, pueden infringir el derecho a la intimidad y la integridad de los usuarios. Alineado con Rodríguez y Blandimiro (2024), se plantea que la seguridad no es únicamente un asunto técnico de cifrado o infraestructura, sino un componente
La presente investigación adopta un enfoque cualitativo-descriptivo, centrado en un análisis de literatura de cuatro estudios recientes publicados en SciELO que abordan distintos aspectos de la IA en la educación superior. Se trata de un estudio documental cuyo objetivo es integrar hallazgos dispersos en torno a ética, responsabilidad, privacidad y seguridad, adaptándolos al contexto de la UEB. 4.2 SELECCIÓN Y CARACTERIZACIÓN DE FUENTES Las cuatro obras incluidas fueron seleccionadas por su relevancia y actualidad (2024): Tramallino y Zeni (2024) : revisión sistemática de literatura sobre IA en educación desde 2021, que fundamenta la base pedagógica y ética. Rodríguez y Blandimiro (2024) : estudio descriptivo cualitativo con entrevistas y encuestas a 45 docentes de una universidad pública peruana, que aporta perspectiva de usuarios. Gil-Vera (2024) : análisis correlacional con muestra de 200 estudiantes universitarios que emplearon ChatGPT, ofreciendo datos empíricos sobre riesgos de integridad y privacidad. Campos-Miño (2024) : estudio de caso narrativo de prácticas de IA en investigación clínica, utilizado como referencia regulatoria y de responsabilidad profesional. 4.3 TÉCNICAS E INSTRUMENTOS DE RECOLECCIÓN Para cada fuente se aplicó un protocolo de fichaje crítico que registró:
El fichaje se organizó en una matriz de análisis para identificar convergencias y divergencias temáticas, especialmente en torno a la ética y la gestión de datos. 4.4 PROCEDIMIENTO DE ANÁLISIS Empleando un análisis de contenido temático, los resultados de las cuatro fuentes se codificaron en categorías predefinidas (ética, responsabilidad, privacidad, seguridad) y emergentes. Se realizó triangulación cruzada para: Verificar la coherencia interna de cada estudio. Contrastar percepciones docentes (Rodríguez & Blandimiro, 2024) con datos empíricos de estudiantes (Gil-Vera, 2024). Confrontar estándares regulatorios de investigación clínica (Campos-Miño, 2024) con vacíos identificados en el ámbito educativo (Tramallino & Zeni, 2024). El proceso culminó en un informe analítico que integra dichos hallazgos, sobre el cual se basa la discusión y las recomendaciones presentadas en otros apartados de la monografía.
5. DISCUSIÓN 5.1. DESARROLLO DE LA IA EN LA UNIVERSIDAD: ÉTICA Y RESPONSABILIDAD 5.1.1. Análisis del desarrollo de la IA en la Universidad y sus implicaciones éticas El avance de la IA en el contexto universitario ha sido impulsado principalmente por su capacidad para optimizar tareas repetitivas, generar contenido, y personalizar procesos de enseñanza y aprendizaje. No obstante, como advierten Tramallino y Zeni (2024), esta evolución no ha ido acompañada, en muchos casos, de una reflexión ética adecuada. La mayoría de las universidades, incluida la UEB, están integrando estas tecnologías sin contar con marcos normativos sólidos que regulen su aplicación. Las decisiones sobre el uso de IA muchas veces se toman desde los departamentos tecnológicos o administrativos, sin participación docente o estudiantil, lo cual afecta la legitimidad ética de su implementación.
sancionadas ni discutidas abiertamente, se establece una cultura de permisividad académica que erosiona la credibilidad institucional. Otra implicación es el deterioro del juicio crítico. Cuando estudiantes y docentes confían ciegamente en los resultados de la IA sin validar fuentes ni contenidos, se produce una transferencia de autoridad epistémica hacia una entidad automatizada que no puede rendir cuentas ni adaptarse contextualmente. Esto pone en riesgo la misión formativa de la universidad como espacio de pensamiento autónomo y reflexión ética. 5.2. PRIVACIDAD Y SEGURIDAD EN LA IA EN LA UNIVERSIDAD 5.2.1 Análisis de la privacidad y seguridad en la IA en la Universidad Uno de los aspectos menos discutidos, pero más sensibles en la implementación de IA en la universidad, es el relacionado con la privacidad de los datos personales y académicos. Como señala Gil-Vera (2024), muchas herramientas de IA almacenan grandes cantidades de información, desde patrones de escritura hasta respuestas a evaluaciones, sin garantizar un manejo seguro y confidencial. Esto es particularmente problemático en instituciones como la UEB, donde los recursos tecnológicos son limitados y los protocolos de ciberseguridad aún están en desarrollo. A menudo, las plataformas de IA utilizadas en la universidad no están alojadas en servidores internos, sino que dependen de proveedores externos con políticas de datos ajenas a las normativas nacionales. Esto implica un riesgo de exposición de información académica y personal a terceros no autorizados. Además, la falta de capacitación en seguridad digital entre docentes y estudiantes hace que contraseñas débiles, clics en enlaces maliciosos o almacenamiento inseguro de archivos generados por IA se conviertan en amenazas constantes. Rodríguez y Blandimiro (2024) añaden que la infraestructura deficiente en universidades públicas del Perú —una situación extrapolable a la UEB— impide implementar sistemas robustos de encriptación, análisis forense o auditorías regulares de uso, lo que agrava el panorama de vulnerabilidad.
5.2.2. Implicaciones éticas de la falta de privacidad y seguridad en la IA en la Universidad Las implicaciones éticas de esta falta de privacidad no son menores. Cuando un estudiante interactúa con una IA para recibir retroalimentación personalizada, está compartiendo fragmentos de su desempeño, sus dificultades, su estilo cognitivo. Si esta información es mal manejada, puede ser utilizada para tomar decisiones discriminatorias, etiquetar perfiles o condicionar futuras oportunidades. Además, el acceso no autorizado a estos datos puede derivar en ciberacoso, chantaje académico o incluso vulneraciones a la integridad psicológica del estudiante. Tramallino y Zeni (2024) subrayan que, sin políticas claras de protección de datos, la confianza en las herramientas digitales se ve debilitada, lo que impacta negativamente en su adopción e integración. En el caso de los docentes, también se vulnera la privacidad cuando sistemas de IA analizan automáticamente sus prácticas pedagógicas o corrigen sus clases sin autorización expresa. Este tipo de vigilancia algorítmica, aunque motivada por una supuesta eficiencia, erosiona la autonomía profesional y plantea dilemas sobre la dignidad laboral. 5.3. SÍNTESIS La integración de las IA en universidades como la UEB presenta un claro potencial para mejorar la enseñanza personalizada y la eficiencia en la gestión académica, tal como lo documentan Tramallino y Zeni (2024). Sin embargo, la discusión evidencia tres ejes centrales de tensión: la disonancia entre innovación y ética, el vacío de responsabilidad compartida, y las vulnerabilidades de privacidad y seguridad. En primer lugar, aunque las teorías del aprendizaje promueven la adaptabilidad de la IA, la falta de un marco ético integral genera riesgos de sesgo y exclusión (Tramallino & Zeni, 2024). Los hallazgos de Gil-Vera (2024) sobre la dependencia de estudiantes a ChatGPT ilustran cómo la autonomía académica puede verse comprometida si no se establecen protocolos claros de verificación y transparencia algorítmica. En segundo término, la asignación ambigua de responsabilidades—entre proveedores de tecnología, unidades de TI y usuarios finales—conforma un entorno institucional en el cual los errores o sesgos quedan sin responsables definidos (Rodríguez & Blandimiro, 2024). La propuesta
Campos-Miño, S. (2024). Inteligencia artificial en la investigación clínica y redacción de artículos científicos. Metro Ciencia, 32(3), 3–4. https://www.scielo.org.mx/scielo.php?script=sci_arttext&pid=S1870- 879X2024000200105&lang=es Gil-Vera, V. D. (2024). Uso de ChatGPT por estudiantes universitarios: un análisis relacional. Formación Universitaria, 17(5). https://www.scielo.cl/scielo.php?script=sci_arttext&pid=S0718- 50062024000500129&lang=es Rodríguez, E., & Blandimiro, E. (2024). Docentes ante la inteligencia artificial en una universidad pública del norte del Perú. Educación, 33(64), 8–28. http://www.scielo.org.pe/scielo.php?pid=S1019- 94032024000100008&script=sci_arttext&tlng=pt Tramallino, C. P., & Zeni, A. M. (2024). Avances y discusiones sobre el uso de inteligencia artificial (IA) en educación. Educación, 33(64), 29–54. http://www.scielo.org.pe/scielo.php? pid=S1019-94032024000100029&script=sci_arttext&tlng=es