@mastersthesis{20.500.12880/14088, year = {2025}, month = {9}, url = {https://hdl.handle.net/20.500.12880/14088}, abstract = {En el contexto actual del avance acelerado de las tecnologías basadas en inteligencia artificial, ante la creciente presión por alcanzar una posición competitiva a nivel internacional, la adopción de modelos de aprendizaje automático ha crecido exponencialmente en los sectores públicos y privados, en áreas tan críticas como el sector salud, seguridad y defensa nacional. Estos sectores exigen cada vez más el uso de modelos de inteligencia artificial que sean explicables, como los árboles de decisión, debido a la necesidad de garantizar la trazabilidad, interpretabilidad y rendición de cuentas en los procesos que han sido automatizados. Sin embargo, esta misma característica, que los hace valiosos, también los convierte en objetivos vulnerables para ataques como el envenenamiento de datos, capaces de alterar su funcionamiento desde la etapa de entrenamiento sin generar indicadores detectables inicialmente. El objetivo de este trabajo es demostrar cómo, pese a sus ventajas, estos modelos pueden deteriorarse de manera significativa ante ataques dirigidos o indiscriminados, comprometiendo no solo su precisión, sino también su lógica interna. Para ello, se llevará a cabo un experimento en dos fases: una primera con entrenamiento con datos sin envenenar para establecer métricas de referencia, y una segunda con datos envenenados que permitirá observar el impacto adverso en su rendimiento y estructura. A través de este análisis, se pretende alertar sobre la necesidad de implementar estrategias de defensa para modelos explicables en contextos críticos, subrayando que la transparencia que proporcionan no garantiza por sí sola la seguridad. Esta línea de investigación se alinea con los Objetivos de Desarrollo Sostenible, al contribuir al desarrollo de sistemas confiables, éticos y tecnológicamente responsables en servicios esenciales para la sociedad.}, title = {Impacto y degradación de modelos explicables de machine learning aplicados a las áreas de salud, seguridad y defensa nacional de España ante ataques de envenenamiento de datos}, keywords = {Aprendizaje automático}, keywords = {Explicabilidad}, keywords = {Ciberseguridad}, keywords = {Árboles de decisión}, keywords = {Envenenamiento de datos}, author = {Aguilar Guiñez, Jenny Paula}, }