Por favor, use este identificador para citar o enlazar este ítem: https://ri-ng.uaq.mx/handle/123456789/11301
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.rights.licensehttps://creativecommons.org/licenses/by-nc-nd/4.0es_ES
dc.contributorIrving Armando Cruz Albarránes_ES
dc.creatorFrancisco Emiliano Sánchez Callejases_ES
dc.date.accessioned2025-01-09T21:23:54Z-
dc.date.available2025-01-09T21:23:54Z-
dc.date.issued2025-01-20-
dc.identifier.urihttps://ri-ng.uaq.mx/handle/123456789/11301-
dc.descriptionLas emociones son parte fundamental del ser humano y pueden transmitirse de diferentes maneras, por ejemplo, mediante expresiones faciales y el tono de voz. Esta información puede utilizarse para realizar un diagnóstico preciso de su estado emocional. En este contexto, se han desarrollado sistemas de reconocimiento de emociones utilizando métodos como los coeficientes cepstrales en la escala de Mel y la visión por computadora para la extracción de características y algoritmos como las redes neuronales convoluciones para la identificación tanto del rostro como de la voz. Los algoritmos utilizados en este tipo de sistemas de reconocimiento han demostrado su utilidad en la identificación de emociones al ser validados por medio del uso de bases de datos de expresiones faciales y voz, sin embargo, estas bases de datos suelen ser enfocadas en poblaciones extranjeras, por lo que las características de otra población, en este caso la mexicana, no son tomadas en cuenta. Además, los sistemas existentes únicamente detectan la emoción del individuo, sin embargo, no entregan un nivel emocional que permita al usuario identificar de manera correcta dicha emoción. El principal interés dentro de este trabajo de investigación es generar una herramienta que permita a profesionales de la salud mental satisfacer una necesidad para un mejor diagnostico; por ello, se propone el desarrollo de un sistema embebido de clasificación y cuantificación de emociones en población mexicana adulta, mediante el análisis de expresiones faciales y reconocimiento de voz. El sistema se desarrolló utilizando coeficientes cepstrales en la escala de Mel y considerando los niveles de intensidad y herramientas de visión artificial para la extracción de características y redes neuronales convoluciones para la clasificación; y a través del entrenamiento del modelo basado en la concatenación de imágenes se logró obtener una precisión del 99.95 %, una pérdida de 0.02 %, mientras que, para la precisión en la validación, la exactitud, la sensibilidad y el valor F1 se obtuvo un 100 %, y la perdida de la validación con un valor de 0 % para las emociones felicidad, tristeza y el estado neutral.es_ES
dc.formatpdfes_ES
dc.format.extent1 recurso en línea (86 páginas)es_ES
dc.format.mediumcomputadoraes_ES
dc.language.isospaes_ES
dc.publisherUniversidad Autonoma de Querétaroes_ES
dc.relation.requiresSies_ES
dc.rightsopenAccesses_ES
dc.subjectExpresiones faciales, Tono de voz, Cuantificación, clasificación, emociones, MFCC, CNNes_ES
dc.subject.classificationINGENIERÍA Y TECNOLOGÍAes_ES
dc.titleDetección y cuantificación de emociones en población mexicana mediante el análisis de expresiones faciales y reconocimiento de voz.es_ES
dc.typeAnotaciónes_ES
dc.creator.tidORCIDes_ES
dc.contributor.tidORCIDes_ES
dc.creator.identificador0000-0002-6289-4324es_ES
dc.contributor.identificador0000-0002-5962-6599es_ES
dc.contributor.roleDirectores_ES
dc.degree.nameMaestría en Ciencias (Mecatrónica)es_ES
dc.degree.departmentFacultad de Ingenieríaes_ES
dc.degree.levelMaestríaes_ES
dc.format.supportrecurso en líneaes_ES
dc.matricula.creator265784es_ES
dc.folioIGMAC-265784es_ES
Aparece en: Maestría en Ciencias (Mecatrónica)

Ficheros en este ítem:
Fichero Descripción Tamaño Formato  
IGMAC-265784.pdfTesis de Maestría2.36 MBAdobe PDFPortada
Visualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.