Este artículo examina la evaluación en proyectos educativos europeos y aporta una contribución práctica: enlaza marcos consolidados (CIPP, EFQM) y guías recientes de la Comisión Europea con ejemplos de proyecto y un paquete mínimo de evaluación. Tras revisar el ciclo de vida –diagnóstico, seguimiento formativo y evaluación final– se estructuran indicadores por nivel (recursos, procesos, productos, resultados/impacto) y se sintetizan métodos de recogida. Con una muestra de trece proyectos etiquetados como “buenas prácticas”, el análisis identifica patrones y brechas: prevalecen instrumentos centrados en procesos y logros inmediatos; la publicación de instrumentos/protocolos es irregular y la persistencia de webs y datos, limitada. Se demuestra el valor de difundir libros de códigos y conjuntos de datos con DOI. Se propone un paquete mínimo replicable –modelo lógico, pre-post ligero o comparación cuasiexperimental, seguimiento formativo con rúbricas e indicadores de adopción a 6-12-24 meses–, junto con apertura y plan de persistencia, para reforzar transparencia, comparabilidad y sostenibilidad.
This article examines evaluation in European educational projects and offers a practical contribution: it links established frameworks (CIPP, EFQM) and recent European Commission guidance with project examples and a minimum evaluation package. After reviewing the life-cycle–needs analysis, formative monitoring and summative evaluation–indicators are structured by level (inputs, processes, outputs, outcomes/impact) and data-collection methods are synthesised. Using a sample of thirteen projects labelled “good practice”, the case analysis identifies patterns and gaps: instruments focused on processes and short-term results are prevalent; public release of instruments/protocols is uneven, and the persistence of websites and data limited. The value of publishing codebooks and datasets with DOIs is highlighted. A replicable minimum package is proposed–logic model, light pre-post or simple quasi-comparison, formative monitoring with rubrics, and adoption indicators at 6–12–24 months–together with open release and a persistence plan, to strengthen transparency, comparability and sustainability.