Biblioteca Virtual

Información discriminativa en clasificadores basados en modelos ocultos de Markov

Mostrar el registro sencillo del ítem

dc.contributor.advisor Milone, Diego Humberto
dc.contributor.author Tomassi, Diego Rodolfo
dc.contributor.other Fraiman, Ricardo
dc.contributor.other Granitto, Pablo
dc.contributor.other Marchetti, Jacinto
dc.date.accessioned 2019-03-14T12:20:19Z
dc.date.available info:eu-repo/date/embargoEnd/2020-03-09
dc.date.issued 2011-03-09
dc.identifier.uri http://hdl.handle.net/11185/1175
dc.description Fil: Tomassi, Diego Rodolfo. Universidad Nacional del Litoral. Facultad de Ingeniería y Ciencias Hídricas; Argentina.
dc.description.abstract Hidden Markov models (HMM) are statistical models which can efficiently deal with sequential data. They provide a way to model complex dependencies between observed data by setting simple dependencies between latent variables: a Markov chain that is not available to the observer. When used in a classification setting, an HMM models the probability density function of the data from each class and label assignement is achieved using a plug-in Bayes classifier. This is a typical example of generative learning, which can be suboptimal when the data does not match the assumed distribution. In this thesis we study methods and algorithms to exploit discriminant information when using HMM to classify sequential data. In the first part, we deal with HMM defined on the wavelet transform of the input sequences. These are hierarchical Markovian structures that use hidden Markov trees as observation models for the wavelet coefficients, given the state of the underlying chain. We derive new training algorithms for these models, specifically targeted to achieve minimum classification error. In the second part of the thesis, we take a look back to HMM with mixtures of Gaussians as observation densities. We focus in scenarios of high-dimensional observed data and derive methods for dimension reduction of the feature space using the approach of statistical sufficiency, which aims to preserve class information in the reduced data. We derive new algorithms and use this framework to analyze information preservation attained by available methods of dimensionality reduction in HMM. en_EN
dc.description.abstract Los modelos ocultos de Markov (HMM) son modelos estadísticos usados frecuentemente con datos sequenciales. Proveen un medio eficaz para modelar dependencias complejas a través de dependencias sencillas entre variables latentes que forman una cadena de Markov. Cuando se usan en tareas de clasificación, un HMM modela la función de densidad de probabilidad de los datos de cada clase y la asignación de etiquetas se realiza usando una versión plug-in de la regla de decisión de Bayes. Esto es un ejemplo de aprendizaje generativo, que puede ser subóptimo cuando la distribución de los datos se aparta de la supuesta. En esta tesis se estudian métodos y algoritmos que tienen por objeto aprovechar información discriminante en la clasificación de datos secuenciales modelados con HMM. En la primera parte del trabajo abordamos problemas con HMM definidos sobre la transformada onditas de las secuencias de entrada. Se trata de HMM jerárquicos que usan árboles ocultos de Markov como modelo de observación para los coeficientes de la transforma. Proponemos nuevos algoritmos de entrenamiento para estos modelos, basados directamente en la minimización del error de clasificación como criterio de aprendizaje. En la segunda parte de la tesis revisitamos los HMM más comunes que usan mezclas de gaussianas como modelos de observación, pero nos enfocamos en escenarios de alta dimensionalidad. Derivamos métodos para reducir la dimensión del espacio de características sin perder información discriminante, usando para ello el enfoque de suficiencia estadística. Proponemos nuevos algoritmos y analizamos bajo este marco métodos existentes de reducción dimensional en HMM. es_ES
dc.description.sponsorship Consejo Nacional de Investigaciones Científicas y Técnicas es_ES
dc.format application/pdf
dc.language eng
dc.language.iso eng es_ES
dc.rights info:eu-repo/semantics/embargoedAccess
dc.rights Atribución-NoComercial-SinDerivadas 4.0 Internacional (CC BY-NC-ND 4.0)
dc.rights.uri http://creativecommons.org/licenses/by-nc-nd/4.0/deed.es
dc.subject Hidden Markov models en_EN
dc.subject Discriminative learning en_EN
dc.subject Minimum classification error en_EN
dc.subject Dimension reduction en_EN
dc.subject Discriminant analysis en_EN
dc.subject Modelos ocultos de Markov es_ES
dc.subject Aprendizaje discriminativo es_ES
dc.subject Error de clasificación mínimo es_ES
dc.subject Reducción de dimensiones es_ES
dc.subject Análisis discriminante es_ES
dc.title Información discriminativa en clasificadores basados en modelos ocultos de Markov es_ES
dc.title.alternative Discriminative information in classifiers based on hidden Markov models en_EN
dc.type info:eu-repo/semantics/doctoralThesis
dc.type info:ar-repo/semantics/tesis doctoral
dc.type info:eu-repo/semantics/acceptedVersion
dc.type SNRD es_ES
dc.contributor.coadvisor Forzani, Liliana María
unl.degree.type doctorado
unl.degree.name Doctorado en Ingeniería
unl.degree.mention Inteligencia Computacional, Señales y Sistemas
unl.degree.grantor Facultad de Ingeniería y Ciencias Hídricas
unl.formato application/pdf
unl.versionformato 1a
unl.tipoformato PDF/A - 1a
dc.date.embargo 09/03/2020


Ficheros en el ítem

Este ítem aparece en

Mostrar el registro sencillo del ítem

info:eu-repo/semantics/embargoedAccess Excepto si se señala otra cosa, la licencia del ítem se describe como info:eu-repo/semantics/embargoedAccess

Buscar en la biblioteca