| dc.contributor.advisor | Castillo Faulí, Vicente | |
| dc.contributor.author | Aguilar Guiñez, Jenny Paula | |
| dc.date.accessioned | 2026-01-16T14:57:22Z | |
| dc.date.available | 2026-01-16T14:57:22Z | |
| dc.date.issued | 2025-09 | |
| dc.identifier.citation | Aguilar Guiñez, J. P. (2025). Impacto y degradación de modelos explicables de machine learning aplicados a las áreas de salud, seguridad y defensa nacional de España ante ataques de envenenamiento de datos. [Trabajo Fin de Estudios, Universidad Europea de Valencia]. Repositorio de Trabajos Fin de Estudios TITULA | es |
| dc.identifier.uri | https://hdl.handle.net/20.500.12880/14088 | |
| dc.description.abstract | En el contexto actual del avance acelerado de las tecnologías basadas en inteligencia
artificial, ante la creciente presión por alcanzar una posición competitiva a nivel internacional,
la adopción de modelos de aprendizaje automático ha crecido exponencialmente
en los sectores públicos y privados, en áreas tan críticas como el sector salud, seguridad
y defensa nacional. Estos sectores exigen cada vez más el uso de modelos de inteligencia
artificial que sean explicables, como los árboles de decisión, debido a la necesidad
de garantizar la trazabilidad, interpretabilidad y rendición de cuentas en los procesos que
han sido automatizados. Sin embargo, esta misma característica, que los hace valiosos,
también los convierte en objetivos vulnerables para ataques como el envenenamiento de
datos, capaces de alterar su funcionamiento desde la etapa de entrenamiento sin generar
indicadores detectables inicialmente.
El objetivo de este trabajo es demostrar cómo, pese a sus ventajas, estos modelos pueden
deteriorarse de manera significativa ante ataques dirigidos o indiscriminados, comprometiendo
no solo su precisión, sino también su lógica interna. Para ello, se llevará a
cabo un experimento en dos fases: una primera con entrenamiento con datos sin envenenar
para establecer métricas de referencia, y una segunda con datos envenenados que
permitirá observar el impacto adverso en su rendimiento y estructura.
A través de este análisis, se pretende alertar sobre la necesidad de implementar estrategias
de defensa para modelos explicables en contextos críticos, subrayando que la
transparencia que proporcionan no garantiza por sí sola la seguridad. Esta línea de investigación
se alinea con los Objetivos de Desarrollo Sostenible, al contribuir al desarrollo de
sistemas confiables, éticos y tecnológicamente responsables en servicios esenciales para
la sociedad. | es |
| dc.language.iso | SPA | es |
| dc.rights | Attribution-NonCommercial-NoDerivatives 4.0 Internacional | es |
| dc.rights.uri | http://creativecommons.org/licenses/by-nc-nd/4.0/ | es |
| dc.title | Impacto y degradación de modelos explicables de
machine learning aplicados a las áreas de salud,
seguridad y defensa nacional de España ante ataques de
envenenamiento de datos | es |
| dc.type | TFM | es |
| dc.description.affiliation | Universidad Europea de Valencia | es |
| dc.description.degree | Máster de Formación Permanente en Inteligencia Artificial | es |
| dc.rights.accessRights | openAccess | es |
| dc.subject.keyword | Aprendizaje automático | es |
| dc.subject.keyword | Explicabilidad | es |
| dc.subject.keyword | Ciberseguridad | es |
| dc.subject.keyword | Árboles de
decisión | es |
| dc.subject.keyword | Envenenamiento de datos | es |
| dc.description.methodology | Presencial | |