Por favor, use este identificador para citar o enlazar este ítem: https://ri-ng.uaq.mx/handle/123456789/12427
Registro completo de metadatos
Campo DC Valor Lengua/Idioma
dc.rights.licensehttps://creativecommons.org/licenses/by-nc-nd/4.0es_ES
dc.contributorEfrén Gorrostieta Hurtadoes_ES
dc.creatorLeonardo Daniel Villanueva Medinaes_ES
dc.date.accessioned2026-01-07T16:03:02Z-
dc.date.available2026-01-07T16:03:02Z-
dc.date.issued2025-10-28-
dc.identifier.urihttps://ri-ng.uaq.mx/handle/123456789/12427-
dc.descriptionLa música, elemento fundamental en la vida cotidiana, impacta profundamente a la sociedad debido a su capacidad para transmitir y evocar emociones. El estudio de esta relación ha consolidado el campo interdisciplinario del Reconocimiento de Emociones en la Música (MER). Tradicionalmente, los sistemas MER se han centrado en el análisis de características acústicas, a menudo omitiendo aspectos teóricos cruciales como el contexto armónico de una obra, el cual está intrínsecamente ligado a la expresión emocional. El presente trabajo aborda esta limitación mediante el desarrollo de un sistema MER multimodal que integra dos fuentes de información complementarias, utilizando los conjuntos de datos unificados de PMEmo y DEAM. Para el análisis acústico, se emplea una arquitectura ResNetSE como extractor de características a partir de espectrogramas. De forma paralela, el contexto armónico se modela codificando las secuencias de acordes con modelos Word2Vec. Finalmente, un modelo BiLSTM fusiona ambas representaciones para realizar la predicción final. El modelo de fusión propuesto alcanza un rendimiento robusto, con un error RMSE de 0.1087 y un R2 de 0.5087 para la dimensión de valence, y un RMSE de 0.1271 y un R2 de 0.5232 para la dimensión de arousal. Estos resultados demuestran que un enfoque multimodal, que combina la textura acústica con el contexto armónico, simula de manera más fiel el proceso de análisis humano. Se concluye que la percepción emocional no depende de un único componente, sino de la interacción de múltiples factores como el timbre, la dinámica, el ritmo y la estructura armónica, validando así la superioridad de la estrategia de fusión.es_ES
dc.formatpdfes_ES
dc.format.extent1 recurso en línea (119 páginas)es_ES
dc.format.mediumcomputadoraes_ES
dc.language.isospaes_ES
dc.publisherUniversidad Autónoma de Querétaroes_ES
dc.relation.requiresSies_ES
dc.rightsopenAccesses_ES
dc.subject.classificationINGENIERÍA Y TECNOLOGÍAes_ES
dc.titleReconocimiento de emociones musicales basado en características de audio dotadas de un contextoes_ES
dc.typeTesis de maestríaes_ES
dc.creator.tidORCIDes_ES
dc.contributor.tidORCIDes_ES
dc.creator.identificador0009-0005-3138-3766es_ES
dc.contributor.identificador0000-0003-2636-9642es_ES
dc.contributor.roleDirectores_ES
dc.degree.nameMaestría en Ciencias en Inteligencia Artificiales_ES
dc.degree.departmentFacultad de Ingenieríaes_ES
dc.degree.levelMaestríaes_ES
dc.format.supportrecurso en líneaes_ES
dc.matricula.creator326906es_ES
dc.folioIGMAC-326906es_ES
Aparece en: Maestría en Ciencias en Inteligencia Artificial

Archivos:
Fichero Descripción Tamaño Formato  
IGMAC-326906.pdfMaestría en Ciencias en Inteligencia Artificial8.15 MBAdobe PDFVisualizar/Abrir


Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.