Por favor, use este identificador para citar o enlazar este ítem:
https://ri-ng.uaq.mx/handle/123456789/12427Registro completo de metadatos
| Campo DC | Valor | Lengua/Idioma |
|---|---|---|
| dc.rights.license | https://creativecommons.org/licenses/by-nc-nd/4.0 | es_ES |
| dc.contributor | Efrén Gorrostieta Hurtado | es_ES |
| dc.creator | Leonardo Daniel Villanueva Medina | es_ES |
| dc.date.accessioned | 2026-01-07T16:03:02Z | - |
| dc.date.available | 2026-01-07T16:03:02Z | - |
| dc.date.issued | 2025-10-28 | - |
| dc.identifier.uri | https://ri-ng.uaq.mx/handle/123456789/12427 | - |
| dc.description | La música, elemento fundamental en la vida cotidiana, impacta profundamente a la sociedad debido a su capacidad para transmitir y evocar emociones. El estudio de esta relación ha consolidado el campo interdisciplinario del Reconocimiento de Emociones en la Música (MER). Tradicionalmente, los sistemas MER se han centrado en el análisis de características acústicas, a menudo omitiendo aspectos teóricos cruciales como el contexto armónico de una obra, el cual está intrínsecamente ligado a la expresión emocional. El presente trabajo aborda esta limitación mediante el desarrollo de un sistema MER multimodal que integra dos fuentes de información complementarias, utilizando los conjuntos de datos unificados de PMEmo y DEAM. Para el análisis acústico, se emplea una arquitectura ResNetSE como extractor de características a partir de espectrogramas. De forma paralela, el contexto armónico se modela codificando las secuencias de acordes con modelos Word2Vec. Finalmente, un modelo BiLSTM fusiona ambas representaciones para realizar la predicción final. El modelo de fusión propuesto alcanza un rendimiento robusto, con un error RMSE de 0.1087 y un R2 de 0.5087 para la dimensión de valence, y un RMSE de 0.1271 y un R2 de 0.5232 para la dimensión de arousal. Estos resultados demuestran que un enfoque multimodal, que combina la textura acústica con el contexto armónico, simula de manera más fiel el proceso de análisis humano. Se concluye que la percepción emocional no depende de un único componente, sino de la interacción de múltiples factores como el timbre, la dinámica, el ritmo y la estructura armónica, validando así la superioridad de la estrategia de fusión. | es_ES |
| dc.format | es_ES | |
| dc.format.extent | 1 recurso en línea (119 páginas) | es_ES |
| dc.format.medium | computadora | es_ES |
| dc.language.iso | spa | es_ES |
| dc.publisher | Universidad Autónoma de Querétaro | es_ES |
| dc.relation.requires | Si | es_ES |
| dc.rights | openAccess | es_ES |
| dc.subject.classification | INGENIERÍA Y TECNOLOGÍA | es_ES |
| dc.title | Reconocimiento de emociones musicales basado en características de audio dotadas de un contexto | es_ES |
| dc.type | Tesis de maestría | es_ES |
| dc.creator.tid | ORCID | es_ES |
| dc.contributor.tid | ORCID | es_ES |
| dc.creator.identificador | 0009-0005-3138-3766 | es_ES |
| dc.contributor.identificador | 0000-0003-2636-9642 | es_ES |
| dc.contributor.role | Director | es_ES |
| dc.degree.name | Maestría en Ciencias en Inteligencia Artificial | es_ES |
| dc.degree.department | Facultad de Ingeniería | es_ES |
| dc.degree.level | Maestría | es_ES |
| dc.format.support | recurso en línea | es_ES |
| dc.matricula.creator | 326906 | es_ES |
| dc.folio | IGMAC-326906 | es_ES |
| Aparece en: | Maestría en Ciencias en Inteligencia Artificial | |
Archivos:
| Fichero | Descripción | Tamaño | Formato | |
|---|---|---|---|---|
| IGMAC-326906.pdf | Maestría en Ciencias en Inteligencia Artificial | 8.15 MB | Adobe PDF | Visualizar/Abrir |
Los ítems de DSpace están protegidos por copyright, con todos los derechos reservados, a menos que se indique lo contrario.