Descripción:
El objetivo de esta tesis es obtener una nube de puntos 3D a partir de una secuencia de imágenes RGB-D. Las imágenes tomadas por una cámara RGB-D generan dos capas de información de la misma escena, una capa a color y una capa que representa la profundidad de la escena, en la escena se encuentra un objeto dinámico, es decir que se encuentra moviéndose y deformándose, de tal manera que imágenes consecutivas del mismo objeto representan diferentes posiciones y deformaciones geométricas del mismo respecto a la primera toma capturada en orden cronológico. La reconstrucción 3D del objeto considera las deformaciones del mismo y para alcanzar este objetivo se utilizan diferentes estrategias para el mejoramiento de la calidad de las imágenes como lo son la calibración de la cámara con la que se capturan los datos de color y profundidad, así como la correspondencia de la información contenida en ambas capas de datos, para poder capturar la geometría del objeto en deformación también se consideran redes neuronales profundas para el seguimiento de características clave y para la representación de la información en 3D.