Por favor, use este identificador para citar o enlazar este ítem: https://ri-ng.uaq.mx/handle/123456789/10337
Título : Análisis de redes neuronales profundas con capas monogénicas para robustecer su seguridad frente ataques adversarios para la clasificación de imágenes
Autor: Oscar Garcia Porras
Palabras clave : Ingeniería y Tecnología
Ciencias Tecnológicas
Ciencia de los Ordenadores
Fecha de publicación : 1-nov-2023
Editorial : Universidad Autónoma de Querétaro
Facultad: Facultad de Ingeniería
Prográma académico: Maestría en Ciencias en Inteligencia Artificial
Resumen: El propósito de los ataques adversarios es modificar los datos suministrados a modelos de Inteligencia Artificial (IA) para causar fallas en la tarea para la que fueron diseñados. Las redes neuronales convolucionales (ConvNet) son unos los modelos de IA desarrollados para tareas de visión por computadora (e.g. detección, segmentación, y clasificación). ConvNets del estado del arte han mejorado su desempeño, permitiendo confiar en su uso para tareas de la vida real. Sin embargo, se ha demostrado que las ConvNet son vulnerables ante los ataques adversarios, y esto puede ocasionar fallas graves en tareas que requieren alta seguridad en su ejecución (e.g. fines médicos, conducción autónoma, reconocimiento facial, y finanzas). Por lo cual, es necesario complementar las ConvNet con métodos de defensa que las hagan más robustas. Esta tesis continua la implementación de la novedosa capa monogénica bioinspirada [1, 2], ahora como método de defensa contra ataques adversarios, cuyo propósito en esta investigación es contrarrestar las afectaciones causadas por un ataque adversario Descenso de Gradiente Proyectado (PGD, por sus siglas en inglés) con métrica de distancia Linf. El método de defensa está basado en el uso de una capa monogénica determinista al frente de una ConvNet ResNet50 utilizada para la clasificación de imágenes con el conjunto de datos CIFAR10. Los resultados muestran mejor desempeño para la ConvNet ResNet50 con capa monogénica que una ConvNet ResNet50 común, y que un segundo modelo con entrenamiento robusto como método de defensa. Los resultados obtenidos pueden ser interpretados como un incremento en la resistencia al ataque adversario, y fiabilidad en su uso para modelos de IA. Las métricas Medición del Índice de Similitud Estructural (SSIM, por sus siglas en inglés) y Proporción Máxima Señal-Ruido (PSNR, por sus siglas en inglés) fueron aplicadas en las activaciones de la capa monogénica con el fin de obtener una explicación cuantitativa de la mejora. Los resultados obtenidos de esta investigación exponen el uso potencial de la capa monogénica para confrontar ataques adversarios, y motiva la continuidad de expansión del conocimiento de la señal monogénica utilizada para propósitos de IA.
URI : https://ri-ng.uaq.mx/handle/123456789/10337
Otros identificadores : Inteligencia artificial
Ataques adversarios
Redes neuronales profundas
Clasificación de imágenes
Señal monogénica
Aparece en las colecciones: Maestría en Ciencias en Inteligencia Artificial

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
IGMAC-311374 (Pdf -A).pdf1.61 MBAdobe PDFVista previa
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.