•  
  •  
 

The ethics of generative artificial intelligence in education under debate. A perspective from the development of a theoretical-practical case study

DOI

10.22550/2174-0909.4577

Resumen

El artículo analiza la ética de la inteligencia artificial generativa (IAGen) en la educación superior desde un enfoque teórico-práctico. Se enmarca en la creciente relevancia de la enseñanza de la ética en tecnologías de la información y en su impacto en la sociedad. El objetivo principal es desarrollar un modelo formativo que integre la reflexión ética sobre la IAGen en la formación de ingenieros informáticos. Para ello, se emplea un estudio de caso basado en la asignatura Aspectos Sociales y Medioambientales de la Informática de la Universidad Politécnica de Cataluña, en la que se aplican los principios teóricos de la ética de la inteligencia artificial (IA) a partir de un caso de aplicación de IAGen en la propia asignatura. Se introducen varios ejemplos de sistemas de IAGen en el dominio de la IA aplicada a la educación. Uno de los ejemplos, desarrollado por los autores, utiliza un asistente de IA creado con el framework LAMB, que permite a los estudiantes analizar el caso propuesto mediante el método PESTLE (political, economic, social, technological, legal, and environmental) y el uso del asistente como experto. Con posterioridad, los estudiantes deben analizar un caso de estudio análogo en otro dominio. Los resultados sugieren que este enfoque teórico-práctico, en el que los conceptos abstractos de ética y seguridad de la IA se aterrizan en decisiones de aplicación específicas y en artefactos tecnológicos concretos, es efectivo para integrar la reflexión ética en la enseñanza de la ingeniería y subraya la necesidad de implementar enfoques multidisciplinares para abordar los desafíos éticos emergentes de la IA en la educación.

Financiación | Funding

Esta investigación está parcialmente financiada por el Ministerio de Ciencia e Innovación a través del proyecto AvisSA (referencia PID2020- 118345RB-I00), por el Departament de Recerca i Universitats de la Generalitat de Catalunya a través de la ayuda para grupos de investigación 2021 SGR 01412 y por la Universidad del País Vasco/Euskal Herriko Unibertsitatea a través del contrato GIU21/037, dentro del programa «Convocatoria para la Concesión de Ayudas a los Grupos de Investigación en la Universidad del País Vasco/Euskal Herriko Unibertsitatea (2021)».

Referencias | References

ABET - Engineering Accreditation Commission. (2021). 2022-2023 Criteria for Accrediting Engineering Programs [2022-2023 Criterios de acreditación de los programas de ingeniería]. https://d66z.short.gy/WvENCg.

Alier, M. (2024, 24 de octubre). Beyond the palantír. Safe AI in education from ethics to tools [Más allá del palantír. La IA segura en la educación: de la ética a las herramientas] [Discurso Inaugural]. Technological Ecosystems for Enhancing Multiculturality 2024 (TEEM 2024), Alicante, España.

Alier, M., Pereira, J., Garcia-Peñalvo, F. J., Casañ, M. J., y Cabré, J. (2025). LAMB: An open-source software framework to create artificial intelligence assistants deployed and integrated into learning management systems [LAMB: un marco de software de código abierto para crear asistentes de inteligencia artificial desplegados e integrados en sistemas de gestión del aprendizaje]. Computer Standards y Interfaces, 92, 103940. https://doi.org/10.1016/j.csi.2024.103940

Alier, M., García-Peñalvo, F. J., y Camba, J. D. (2024a). Generative artificial intelligence in education: From deceptive to disruptive [Inteligencia artificial generativa en la educación: de engañosa a disruptiva]. International Journal of Interactive Multimedia and Artificial Intelligence, 8(5), 5-14. https://doi.org/10.9781/ijimai.2024.02.011

Alier, M., García-Peñalvo, F. J., Casañ, M. J., Pereira, J. A., y Llorens-Largo, F. (2024b). Manifiesto para una IA Segura en la Educación (versión en español). Version 0.4.0. https://manifesto.safeaieducation.org/index_es.html

Alier, M., García-Peñalvo, F. J., Casañ, M. J., Pereira, J. A., y Llorens-Largo, F. (2024c). Safe AI in Education Manifesto. Version 0.4.0 [Manifiesto para una IA Segura en la Educación]. https://manifesto.safeaieducation.org

Altman, S., Brockman, G., y Sutskever, I. (2023, 22 de mayo). Governance of superintelligence [El gobierno de la superinteligencia]. OpenAI. https://openai.com/index/governance-of-su-perintelligence/

Anurag, Vyas, N., y Lilhore, U. K. (2023). Transforming work: The impact of artificial intelligence (AI) on modern workplace [Transformar el trabajo: el impacto de la inteligencia artificial (IA) en el lugar de trabajo moderno]. En N. Chaudhary (Ed.), Proceedings of the 2023 3rd Inter- national Conference on Technological Advancements in Computational Sciences (ICTACS) (pp. 602-607). IEEE. https://doi.org/10.1109/ICTACS59847.2023.10390258

Bellogín, A., Grau, O., Larsson, S., Schimpf, G., Sengupta, B., y Solmaz, G. (2024). The EU AI act and the wager on trustworthy AI [La ley de inteligencia artificial de la UE y la apuesta por una IA fiable]. Communications of the ACM, 67(12), 58-65. https://doi.org/10.1145/3665322

Bostrom, N. (2014). Superintelligence: Paths, dangers, strategies [Superinteligencia: caminos, peligros, estrategias]. Oxford University Press.

Bowden, P. (2010). Teaching ethics to engineers - A research-based perspective [Enseñar éti- ca a los ingenieros - Una perspectiva basada en la investigación]. European Journal of Engineering Education, 35(5), 563-572. https://doi.org/10.1080/03043797.2010.497549

Bynum, T. W., Maner, W., y Fodor, J. L. (Eds.). (1992). Teaching computer ethics [Enseñar ética informática]. Southern Connecticut State University.

Cameron, J. (Director) (1984). The Terminator [Película]. Orion Pictures.

Casañ, M. J., y Alier, M. (2024). Case studies about moral dilemas to apply ethical theories in en- gineering education [Casos prácticos sobre dilemas morales para aplicar las teorías éticas en la enseñanza de la ingeniería]. IEEE Revista Iberoamericana de Tecnologias del Apren- dizaje, 19, 1-6. https://doi.org/10.1109/RITA.2024.3368609

Casañ, M. J., Alier, M., y Llorens, A. (2020). Teaching ethics and sustainability to informatics en- gineering students, an almost 30 years’ experience [Enseñar ética y sostenibilidad a estu- diantes de ingeniería informática, una experiencia de casi 30 años]. Sustainability, 12(14), 5499. https://doi.org/10.3390/su12145499

Casañ, M. J., Alier, M., Pereira, J., y García-Peñalvo, F. J. (2024). Asistentes de aprendizaje basa- dos en inteligencia artificial: principios de seguridad y experiencias de implementación en educación superior. En M. Navarro, J. J. Sánchez, P. Berbel, y C. Rodríguez-Jiménez (Eds.), Investigación y conocimientos en la educación actual (pp. 13-35). Dykinson.

Casañ, M. J., Llorens, A., Alier, M., y Pereira, J. (2025). Using an AI based learning assistant for a PESTLE case study learning activity [Uso de un asistente de aprendizaje basado en IA para una acti- vidad de aprendizaje de un estudio de caso PESTLE]. En Proceedings of the 12th International Conference on Technological Ecosystems for Enhancing Multiculturality (TEEM) 2024. Springer. Dal Bó, E. (2006). Regulatory capture: A review [Captura normativa: una revisión]. Oxford Review of Economic Policy, 22(2), 203-225. https://doi.org/10.1093/oxrep/grj013

Diamandis, P. H., y Kotler, S. (2012). Abundance: The future is better than you think [Abundancia: el futuro es mejor de lo que crees]. The Free Press.

Elmoudden, S., y Wrench, J. S. (Eds.). (2024). The role of generative AI in the communication classroom [El papel de la IA generativa en el aula de comunicación]. IGI Global. https://doi.org/10.4018/979-8-3693-0831-8

Epstein, Z., Hertzmann, A., Akten, M., Farid, H., Fjeld, J., Frank, M. R., Groh, M., Herman, L., Leach, N., Mahari, R., Pentland, A., Russakovsky, O., Schroeder, H., y Smith, A. (2023). Art and the science of generative AI [Arte y ciencia de la IA generativa]. Science, 380(6650), 1110-1111. https://doi.org/10.1126/science.adh4451

Escobar, D. (2024, 10 de septiembre). Reemplazan profesores por inteligencia artificial: la educación de los niños con realidad virtual y mucho más. Infobae. https://d66z.short.gy/vvFgTW

European Parliament, y Council of the European Union. (2016). Regulation (EU) 2016/679 of the European Parliament and of the Council of 27 April 2016 on the protection of natural persons with regard to the processing of personal data and on the free movement of such data, and repealing Directive 95/46/EC (General Data Protection Regulation) [Reglamento (UE) 2016/679 del Parlamento Europeo y del Consejo, de 27 de abril de 2016, relativo a la protección de las personas físicas en lo que respecta al tratamiento de datos personales y a la libre circulación de estos datos y por el que se deroga la Directiva 95/46/CE (Reglamento general de protección de datos)]. https://bit.ly/2O2juE9

Flores-Vivar, J. M., y García-Peñalvo, F. J. (2023). Reflections on the ethics, potential, and challenges of artificial intelligence in the framework of quality education (SDG4) [Reflexiones sobre la ética, potencialidades y retos de la Inteligencia Artificial en el marco de la Educación de Calidad (ODS4)]. Comunicar, 31(74), 35-44. https://doi.org/10.3916/C74-2023-03

García-Peñalvo, F. J., y Vázquez-Ingelmo, A. (2023). What do we mean by GenAI? A systematic mapping of the evolution, trends, and techniques involved in generative AI [¿Qué entendemos por GenAI? Un mapeo sistemático de la evolución, las tendencias y las técnicas implicadas en la IA generativa]. International Journal of Interactive Multimedia and Artificial Intelligence, 8(4), 7-16. https://doi.org/10.9781/ijimai.2023.07.006

García-Peñalvo, F. J., Llorens-Largo, F., y Vidal, J. (2024). The new reality of education in the face of advances in generative artificial intelligence [La nueva realidad de la educación ante los avances de la inteligencia artificial generativa]. RIED: revista iberoamericana de educación a distancia, 27(1), 9-39. https://doi.org/10.5944/ried.27.1.37716

González-Geraldo, J. L., y Ortega-López, L. (2024). Can AI fool us? University students’ lack of ability to detect ChatGPT [¿Puede engañarnos una IA? Carencias del estudiantado univer- sitario para detectar ChatGPT]. Education in the Knowledge Society, 25, e31760. https://doi.org/10.14201/eks.31760

Gotterbarn, D., Miller, K., y Rogerson, S. (1997). Software engineering code of ethics [Código ético de la ingeniería del software]. Communications of the ACM, 40(11), 110-118. https://doi. org/10.1145/265684.265699

Harari, Y. N. (2015). Homo Deus: A brief history of tomorrow [Homo Deus: breve historia del mañana]. Harvill Secker.

Harari, Y. N. (2024). Nexus: A brief history of information networks from the Stone Age to AI [Nexus: una breve historia de las redes de información desde la Edad de Piedra hasta la IA]. Random House.

Henriksen, D., Oster, N., Mishra, P., y McCaleb, L. (2025). Generative AI, creativity, culture, and the future of learning: A conversation with Mairéad Pratschke [IA generativa, creatividad, cultura y futuro del aprendizaje: conversación con Mairéad Pratschke]. TechTrends, 69(1), 3-9. https://doi.org/10.1007/s11528-024-01036-y

Hoyos, D. (2011). Revisiones de la ética de la virtud. Estudios de Filosofía, (44), 61-75.

Johnson, D. G. (2009). Computer ethics: Analyzing information technology [Ética informática: análisis de las tecnologías de la información] (4th ed.). Prentice Hall.

Johnson, D. G. (2017). Can engineering ethics be taught? [¿Puede enseñarse la ética de la ingeniería?]. The Bridge, 47, 59-64.

Jonze, S. (director) (2013). Her [Película]. Warner Bros. Pictures.

Jovanović, M., y Campbell, M. (2022). Generative artificial intelligence: Trends and prospects [Inteligencia artificial generativa: tendencias y perspectivas]. Computer, 55(10), 107-112. https://doi.org/10.1109/MC.2022.3192720

Kanbach, D. K., Heiduk, L., Blueher, G., Schreiter, M., y Lahmann, A. (2024). The GenAI is out of the bottle: Generative artificial intelligence from a business model innovation perspective [La GenAI ha salido de la botella: la inteligencia artificial generativa desde la perspectiva de la innovación del modelo de negocio]. Review of Managerial Science, 18(4), 1189-1220. https://doi.org/10.1007/s11846-023-00696-z

Kar, A. K., Choudhary, S. K., y Singh, V. K. (2022). How can artificial intelligence impact sustainability: A systematic literature review [Cómo puede influir la inteligencia artificial en la sostenibilidad: una revisión bibliográfica sistemática]. Journal of Cleaner Production, 376, 134120. https://doi.org/10.1016/j.jclepro.2022.134120

Kumar, A. N., Raj, R. K., Aly, S. G., Anderson, M. D., Becker, B. A., Blumenthal, R. L., Eaton, E., Epstein, S. L., Goldweber, M., Jalote, P., Lea, D., Oudshoorn, M., Pias, M., Reiser, S., Servin, C., Simha, R., Winters, T., y Xiang, Q. (2024). Computer Science Curricula 2023 [Planes de estudios de Informática 2023]. ACM Press, IEEE Computer Society Press and AAAI Press. https://doi.org/10.1145/3664191

Kurzweil, R. (2005). The singularity is near: When humans transcend biology [La singularidad está más cerca: cuando nos fusionamos con la IA]. Viking Penguin.

Leal, J. G. (1982). La teoría del contrato social: Spinoza frente a Hobbes. Revista de estudios políticos, (28), 125-194.

Maner, W. (1980). Starter kit in computer ethics [Kit de iniciación a la ética informática]. Helvetia Press; National Information and Resource Center for Teaching Philosophy.

Martínez-Arboleda, A. (2024). Language sustainability in the age of artificial intelligence [La sostenibilidad lingüística en la era de la inteligencia artificial]. Alfinge, 36(36), 1-37. https://doi.org/10.21071/arf.v36i.17761

Meyer, B. (2011, 28 de octubre). John McCarthy. BLOG@CACM. https://d66z.short.gy/P91Wo6

Miñano, R., Uribe, D., Moreno-Romero, A., y Yáñez, S. (2019). Embedding sustainability competences into engineering education. The case of informatics engineering and industrial engineering degree programs at Spanish universities [Incorporación de las competencias de sostenibilidad en la formación de ingenieros. El caso de las titulaciones de ingeniería informática e ingeniería industrial en las universidades españolas]. Sustainability, 11(20), 5832. https://doi.org/10.3390/su11205832

Moore, G. (1965). Cramming more components onto integrated circuits [Más componentes en los circuitos integrados]. Electronics Magazine, 38(8), 114-117.

Morrison, R. (2024, 12 de noviembre). Sam Altman claims AGI is coming in 2025 and machines will be able to think like humans when it happens [Sam Altman afirma que la AGI llegará en 2025 y que las máquinas podrán pensar como los humanos cuando suceda]. Tom’s guide. https://d66z.short.gy/dJBnLv

Parra, Y. J., Theran, C., y Aló, R. (2024). Ethical considerations of generative AI: A survey exploring the role of decision makers in the loop [Consideraciones éticas de la IA generativa: una encuesta que explora el papel de los responsables de la toma de decisiones en el bucle]. Proceedings of the AAAI Symposium Series, 3(1), 391-398. https://doi.org/10.1609/aaaiss.v3i1.31243

Prieto, E. (2016). La ley del reloj. Arquitectura, máquinas y cultura moderna. Ediciones Cátedra. Quote Investigator. (2010, 7 de diciembre). Quote origin: To err is human; to really foul things up requires a computer [Origen de la cita: Errar es humano; para meter la pata de verdad hace falta un ordenador]. Quote Investigator. https://d66z.short.gy/wYawuu

Quote Investigator. (2024, 20 de junio). Quote origin: As soon as it works, no one calls it AI an- ymore [Origen de la cita: En cuanto funciona, ya nadie lo llama IA]. Quote Investigator. https://d66z.short.gy/dTNx8W

Saltelli, A., Dankel, D. J., Di Fiore, M., Holland, N., y Pigeon, M. (2022). Science, the endless frontier of regulatory capture [La ciencia, frontera infinita de la captura normativa]. Futures, 135, 102860. https://doi.org/10.1016/j.futures.2021.102860

Samsi, S., Zhao, D., McDonald, J., Li, B., Michaleas, A., Jones, M., Bergeron, W., Kepner, J., Tiwari, D., y Gadepally, V. (2023). From words to watts: Benchmarking the energy costs of large language model inference [De palabras a vatios: evaluación comparativa de los costes energéticos de la inferencia de grandes modelos lingüísticos]. En 2023 IEEE High Performance Extreme Computing Conference (HPEC). IEEE. https://doi.org/10.1109/HPEC58863.2023.10363447

Sevilla, S. (2014). La actualidad de la ética kantiana como metacrítica. En J. J. García, R. Rodriguez, y M. J. Callejo (Eds.), De la libertad del mundo: homenaje a Juan Manuel Navarro Cordón (pp. 375-391). Escolar y Mayo.

Shelley, M. (1831). Frankenstein, or the modern Prometheus [Frankenstein, o el moderno Prometeo]. H. Colburn and R. Bentley.

Smith, A., y Yandle, B. (2014). Bootleggers and baptists: How economic forces and moral persuasion interact to shape regulatory politics [Bootleggers and baptists: cómo interactúan las fuerzas económicas y la persuasión moral para configurar la política reguladora]. Cato Institute.

Spiekermann, S. (2015). Ethical IT innovation: A value-based system design approach [Innovación ética en TI: un enfoque de diseño de sistemas basado en valores]. Auerbach Publications.

Tolkien, J. R. R. (1954). The two towers [Las dos torres]. George Allen y Unwin.

Wei, K., Ezell, C., Gabrieli, N., y Deshpande, C. (2024). How do AI companies “fine-tune” policy? Examining regulatory capture in AI governance [¿Cómo «afinan» la política las empresas de IA? Examen de la captura normativa en la gobernanza de la IA]. Proceedings of the AAAI/ACM Conference on AI, Ethics, and Society, 7(1), 1539-1555. https://doi.org/10.1609/aies.v7i1.31745

Wiener, N. (1950). The human use of human beings. Cybernetics and society [El uso humano de los seres humanos. Cibernética y sociedad]. Houghton Mifflin.

Yandle, B. (1983). Bootleggers and Baptists: The education of a regulatory economist [Bootleggers and Baptists: la formación de un economista regulador]. Regulation, 7(3), 12-16.

Zavala, N. L. (1999). Tecnología y ética. Universidad Nacional Autónoma de México.

Zhao, W. X., Zhou, K., Li, J., Tang, T., Wang, X., Hou, Y., Min, Y., Zhang, B., Zhang, J., Dong, Z., Du, Y., Yang, C., Chen, Y., Chen, Z., Jiang, J., Ren, R., Li, Y., Tang, X., Liu, Z., Liu, P., Nie, J.-Y., y Wen, J.-R. (2024). A survey of large language models [Estudio de grandes modelos lingüísticos]. arXiv, Article arXiv:2303.18223v15. https://doi.org/10.48550/arXiv.2303.18223

Biografía de Autor

Francisco-José García-Peñalvo. Doctor en Informática por la Universidad de Salamanca. Es catedrático de universidad del Departamento de Informática y Automática en la Universidad de Salamanca (USAL), con cuatro sexenios de investigación, un sexenio de transferencia y cinco quinquenios docentes reconocidos. Recibió el premio Gloria Begué a la excelencia docente en 2019 y el premio María de Maeztu a la excelencia investigadora en 2023. Desde 2006, es el director del grupo de investigación reconocido por la USAL GRIAL (GRupo de investigación en InterAcción e eLearning), grupo que es unidad de investigación consolidada de la Junta de Castilla y León (UIC 81). En la actualidad, es el subdirector del Instituto Universitario de Ciencias de la Educación (IUCE) y el coordinador del Programa de Doctorado en Formación en la Sociedad del Conocimiento en la Universidad de Salamanca.

https://orcid.org/0000-0001-9987-5584

María-José Casañ-Guerrero. Ingeniera informática por la Universidad Politécnica de Cataluña (UPC) (1997), con un doctorado en Ciencias (2013) por la misma universidad. Desde 2004, ha trabajado como investigadora y profesora; ha impartido clases en la Facultad de Informática de la UPC. También ha sido instructora de cursos en la Universidad Abierta de Cataluña (UOC). Cuenta con un sexenio de investigación y cuatro quinquenios de docencia reconocida (dos de ellos con mención a especial calidad docente). En la actualidad, enseña asignaturas relacionadas con proyectos de ingeniería de software, bases de datos, aspectos sociales y ambientales de la informática, así como historia de la informática.

https://orcid.org/0000-0002-5072-6745

Marc Alier-Forment. Profesor agregado en la Universidad Politécnica de Cataluña (UPC) desde 2002. Es ingeniero informático y doctor en Sostenibilidad por la propia UPC, con dos sexenios de investigación y cuatro quinquenios de docencia reconocida (tres de ellos con mención a especial calidad docente). Sus áreas de trabajo incluyen la informática, los sistemas de información, la educación en línea y la ética de la tecnología. Ha participado de forma activa en la comunidad de Moodle, donde ha colaborado en la creación de módulos como Wiki, capas de servicios web y la implementación del estándar IMS LTI. Con más de 25 años de experiencia en investigación y desarrollo de software educativo, ha publicado más de 190 artículos científicos y forma parte del grupo de investigación EduSTEAM. En la actualidad, dirige el programa de doctorado en Educación en Ingeniería y Tecnología de la UPC y enseña varias asignaturas en la Facultad de Informática de Barcelona. Fuera del ámbito académico, es lutier de guitarras y produce varios pódcast desde 2007.

https://orcid.org/0000-0003-3922-1516

Juan-Antonio Pereira-Varela. Es profesor agregado en la Facultad de Informática de la Universidad del País Vasco (UPV/EHU), donde lleva impartiendo clase desde hace 20 años. Doctor en Ingeniería Informática (2014), su investigación se centra en la IA generativa aplicada a la ingeniería de software, así como en el estudio del desarrollo de software open source en esta área. Ha publicado numerosos artículos al respecto en ambas áreas y ha participado en varios proyectos de investigación nacionales y en un proyecto europeo. Es autor de un libro sobre HTML5 y API de JavaScript (2021). Ha recibido reconocimiento por la excelencia en la enseñanza basada en las evaluaciones de los estudiantes durante cuatro años consecutivos (2016-2020). Ha sido corresponsable del aula de ciberseguridad ZIUR y ha entrenado a varios equipos para el concurso de programación SWERC. En la actualidad, es el desarrollador principal de dos proyectos relacionados con la IA generativa: RepoSearch, un buscador semántico de memorias de TFG de informática a nivel estatal y LAMB (learning assistant manager and builder), un proyecto de código abierto para crear asistentes IA de ayuda al aprendizaje.

https://orcid.org/0000-0002-7935-3612

Licencia Creative Commons | Creative Commons License

Creative Commons Attribution-NonCommercial 4.0 International License

Esta obra está bajo una licencia internacional Creative Commons Atribución-NoComercial 4.0.
This work is licensed under a Creative Commons Attribution-NonCommercial 4.0 International License

Included in

Education Commons

Share

COinS

Palabras clave | Keywords

Ética de la inteligencia artificial, educación superior, inteligencia artificial generativa, educación en ingeniería, método PESTLE, inteligencia artificial en educación, regulación de la IA, competencias éticas.