Buscar


Mostrar el registro sencillo del ítem

dc.rights.license https://creativecommons.org/licenses/by-nc-nd/4.0 es_ES
dc.contributor Irving Armando Cruz Albarrán es_ES
dc.creator Francisco Emiliano Sánchez Callejas es_ES
dc.date.accessioned 2025-01-09T21:23:54Z
dc.date.available 2025-01-09T21:23:54Z
dc.date.issued 2025-01-20
dc.identifier.uri https://ri-ng.uaq.mx/handle/123456789/11301
dc.description Las emociones son parte fundamental del ser humano y pueden transmitirse de diferentes maneras, por ejemplo, mediante expresiones faciales y el tono de voz. Esta información puede utilizarse para realizar un diagnóstico preciso de su estado emocional. En este contexto, se han desarrollado sistemas de reconocimiento de emociones utilizando métodos como los coeficientes cepstrales en la escala de Mel y la visión por computadora para la extracción de características y algoritmos como las redes neuronales convoluciones para la identificación tanto del rostro como de la voz. Los algoritmos utilizados en este tipo de sistemas de reconocimiento han demostrado su utilidad en la identificación de emociones al ser validados por medio del uso de bases de datos de expresiones faciales y voz, sin embargo, estas bases de datos suelen ser enfocadas en poblaciones extranjeras, por lo que las características de otra población, en este caso la mexicana, no son tomadas en cuenta. Además, los sistemas existentes únicamente detectan la emoción del individuo, sin embargo, no entregan un nivel emocional que permita al usuario identificar de manera correcta dicha emoción. El principal interés dentro de este trabajo de investigación es generar una herramienta que permita a profesionales de la salud mental satisfacer una necesidad para un mejor diagnostico; por ello, se propone el desarrollo de un sistema embebido de clasificación y cuantificación de emociones en población mexicana adulta, mediante el análisis de expresiones faciales y reconocimiento de voz. El sistema se desarrolló utilizando coeficientes cepstrales en la escala de Mel y considerando los niveles de intensidad y herramientas de visión artificial para la extracción de características y redes neuronales convoluciones para la clasificación; y a través del entrenamiento del modelo basado en la concatenación de imágenes se logró obtener una precisión del 99.95 %, una pérdida de 0.02 %, mientras que, para la precisión en la validación, la exactitud, la sensibilidad y el valor F1 se obtuvo un 100 %, y la perdida de la validación con un valor de 0 % para las emociones felicidad, tristeza y el estado neutral. es_ES
dc.format pdf es_ES
dc.format.extent 1 recurso en línea (86 páginas) es_ES
dc.format.medium computadora es_ES
dc.language.iso spa es_ES
dc.publisher Universidad Autonoma de Querétaro es_ES
dc.relation.requires Si es_ES
dc.rights openAccess es_ES
dc.subject Expresiones faciales, Tono de voz, Cuantificación, clasificación, emociones, MFCC, CNN es_ES
dc.subject.classification INGENIERÍA Y TECNOLOGÍA es_ES
dc.title Detección y cuantificación de emociones en población mexicana mediante el análisis de expresiones faciales y reconocimiento de voz. es_ES
dc.type Anotación es_ES
dc.creator.tid ORCID es_ES
dc.contributor.tid ORCID es_ES
dc.creator.identificador 0000-0002-6289-4324 es_ES
dc.contributor.identificador 0000-0002-5962-6599 es_ES
dc.contributor.role Director es_ES
dc.degree.name Maestría en Ciencias (Mecatrónica) es_ES
dc.degree.department Facultad de Ingeniería es_ES
dc.degree.level Maestría es_ES
dc.format.support recurso en línea es_ES
dc.matricula.creator 265784 es_ES
dc.folio IGMAC-265784 es_ES


Ficheros en el ítem

Este ítem aparece en la(s) siguiente(s) colección(ones)

Mostrar el registro sencillo del ítem