Salamanca, España
Este artículo propone una vía pragmática y proporcionada para integrar la inteligencia artificial generativa en la educación superior mediante tres escenarios graduados por autonomía, agencia y riesgo (apoyo responsable, colaboración guiada y cocreación con declaración reforzada) que convierten principios amplios en decisiones docentes verificables y trazables a lo largo del ciclo docente (planificación, creación de materiales, apoyo y evaluación). El hilo conductor es la inteligencia artificial como complemento bajo juicio académico, nunca sustituto, con transparencia (declaración de uso y marcado de contenido sintético), verificación externa de hechos y citas, y equidad e inclusión por diseño, en coherencia con la guía de la UNESCO (visión centrada en las personas, acciones inmediatas y refuerzo de capacidades), el AI Act (Artículo 50 sobre obligaciones de transparencia y marcado), el Safe AI in Education Manifesto (supervisión humana, privacidad, precisión, explicabilidad, transparencia) y el marco SAFE (Seguridad, Rendición de cuentas, Justicia y Eficacia) como puente operativo entre política y aula. En el Escenario 1 se priorizan bajo riesgo y alta transparencia; en el 2, la iteración trazable con post-edición humana significativa; en el 3, evidencias robustas y auditoría (prompts, versiones, verificación, sesgos/idiomas, revisión humana/pares), con controles reforzados por su mayor impacto. Este gradiente se alinea con la orientación sectorial, que promueve autenticidad, agencia y propiedad del proceso y desaconseja depender de detectores, reforzando diseños que comprueban agencia y trazabilidad. Dos instrumentos facilitan la adopción y la evaluación homogénea. Por un lado, una rúbrica transversal (veracidad y actualidad, trazabilidad, corrección de alucinaciones, equidad e idioma, calidad de interacción) y, por otro lado, listas de verificación por tipo de tarea. El resultado es un mapa operativo para marcar, verificar y documentar con proporcionalidad al riesgo, que permite convertir la inteligencia artificial en oportunidad pedagógica sin ceder en rigor, justicia y responsabilidad.
This article proposes a pragmatic and proportionate pathway for integrating generative artificial intelligence into higher education through three scenarios graduated by autonomy, agency, and risk (responsible support, guided collaboration, and co-creation with a strengthened declaration). These scenarios convert broad principles into verifiable and traceable teaching decisions throughout the teaching cycle (planning, material creation, support, and assessment). The common thread is the use of artificial intelligence as a supplement to academic judgment, never as a substitute, with transparency (including disclosure and marking of synthetic content), external verification of facts and citations, and equity and inclusion by design. This is consistent with UNESCO’s guidance (a human-centred vision, immediate actions, and capacity building), the AI Act (Article 50 on transparency and marking obligations), the Safe AI in Education Manifesto (human supervision, privacy, accuracy, explainability, transparency), and the SAFE framework (Safety, Accountability, Fairness, and Efficacy) as an operational bridge between policy and the classroom. Scenario 1 prioritises low risk and high transparency; Scenario 2 focuses on traceable iteration with significant human post-editing; and Scenario 3 demands robust evidence and auditing (prompts, versions, verification, bias/language checks, human/peer review), with strengthened controls due to its higher impact. This gradient aligns with sector guidance, which promotes authenticity, agency, and ownership of the process and advises against relying on detectors, thereby reinforcing designs that verify agency and traceability. Two instruments facilitate adoption and consistent evaluation: firstly, a cross-cutting rubric (veracity and currency, traceability, correction of hallucinations, equity and language, and quality of interaction); and secondly, checklists for each type of task. The result is an operational map for marking, verifying, and documenting in proportion to risk, which enables artificial intelligence to be leveraged as a pedagogical opportunity without compromising on rigour, fairness, and responsibility.