Show simple item record

dc.contributor.advisorCastillo Faulí, Vicente
dc.contributor.authorAguilar Guiñez, Jenny Paula
dc.date.accessioned2026-01-16T14:57:22Z
dc.date.available2026-01-16T14:57:22Z
dc.date.issued2025-09
dc.identifier.citationAguilar Guiñez, J. P. (2025). Impacto y degradación de modelos explicables de machine learning aplicados a las áreas de salud, seguridad y defensa nacional de España ante ataques de envenenamiento de datos. [Trabajo Fin de Estudios, Universidad Europea de Valencia]. Repositorio de Trabajos Fin de Estudios TITULAes
dc.identifier.urihttps://hdl.handle.net/20.500.12880/14088
dc.description.abstractEn el contexto actual del avance acelerado de las tecnologías basadas en inteligencia artificial, ante la creciente presión por alcanzar una posición competitiva a nivel internacional, la adopción de modelos de aprendizaje automático ha crecido exponencialmente en los sectores públicos y privados, en áreas tan críticas como el sector salud, seguridad y defensa nacional. Estos sectores exigen cada vez más el uso de modelos de inteligencia artificial que sean explicables, como los árboles de decisión, debido a la necesidad de garantizar la trazabilidad, interpretabilidad y rendición de cuentas en los procesos que han sido automatizados. Sin embargo, esta misma característica, que los hace valiosos, también los convierte en objetivos vulnerables para ataques como el envenenamiento de datos, capaces de alterar su funcionamiento desde la etapa de entrenamiento sin generar indicadores detectables inicialmente. El objetivo de este trabajo es demostrar cómo, pese a sus ventajas, estos modelos pueden deteriorarse de manera significativa ante ataques dirigidos o indiscriminados, comprometiendo no solo su precisión, sino también su lógica interna. Para ello, se llevará a cabo un experimento en dos fases: una primera con entrenamiento con datos sin envenenar para establecer métricas de referencia, y una segunda con datos envenenados que permitirá observar el impacto adverso en su rendimiento y estructura. A través de este análisis, se pretende alertar sobre la necesidad de implementar estrategias de defensa para modelos explicables en contextos críticos, subrayando que la transparencia que proporcionan no garantiza por sí sola la seguridad. Esta línea de investigación se alinea con los Objetivos de Desarrollo Sostenible, al contribuir al desarrollo de sistemas confiables, éticos y tecnológicamente responsables en servicios esenciales para la sociedad.es
dc.language.isoSPAes
dc.rightsAttribution-NonCommercial-NoDerivatives 4.0 Internacionales
dc.rights.urihttp://creativecommons.org/licenses/by-nc-nd/4.0/es
dc.titleImpacto y degradación de modelos explicables de machine learning aplicados a las áreas de salud, seguridad y defensa nacional de España ante ataques de envenenamiento de datoses
dc.typeTFMes
dc.description.affiliationUniversidad Europea de Valenciaes
dc.description.degreeMáster de Formación Permanente en Inteligencia Artificiales
dc.rights.accessRightsopenAccesses
dc.subject.keywordAprendizaje automáticoes
dc.subject.keywordExplicabilidades
dc.subject.keywordCiberseguridades
dc.subject.keywordÁrboles de decisiónes
dc.subject.keywordEnvenenamiento de datoses
dc.description.methodologyPresencial


Files in this item

ADOBE PDF

This item appears in the following Collection(s)

Show simple item record