31 research outputs found
Consistent estimation of the basic neighborhood of Markov random fields
For Markov random fields on with finite state space, we
address the statistical estimation of the basic neighborhood, the smallest
region that determines the conditional distribution at a site on the condition
that the values at all other sites are given. A modification of the Bayesian
Information Criterion, replacing likelihood by pseudo-likelihood, is proved to
provide strongly consistent estimation from observing a realization of the
field on increasing finite regions: the estimated basic neighborhood equals the
true one eventually almost surely, not assuming any prior bound on the size of
the latter. Stationarity of the Markov field is not required, and phase
transition does not affect the results.Comment: Published at http://dx.doi.org/10.1214/009053605000000912 in the
Annals of Statistics (http://www.imstat.org/aos/) by the Institute of
Mathematical Statistics (http://www.imstat.org
On the minimal penalty for Markov order estimation
We show that large-scale typicality of Markov sample paths implies that the
likelihood ratio statistic satisfies a law of iterated logarithm uniformly to
the same scale. As a consequence, the penalized likelihood Markov order
estimator is strongly consistent for penalties growing as slowly as log log n
when an upper bound is imposed on the order which may grow as rapidly as log n.
Our method of proof, using techniques from empirical process theory, does not
rely on the explicit expression for the maximum likelihood estimator in the
Markov case and could therefore be applicable in other settings.Comment: 29 page
Divergence rates of Markov order estimators and their application to statistical estimation of stationary ergodic processes
Stationary ergodic processes with finite alphabets are estimated by finite
memory processes from a sample, an n-length realization of the process, where
the memory depth of the estimator process is also estimated from the sample
using penalized maximum likelihood (PML). Under some assumptions on the
continuity rate and the assumption of non-nullness, a rate of convergence in
-distance is obtained, with explicit constants. The result requires an
analysis of the divergence of PML Markov order estimators for not necessarily
finite memory processes. This divergence problem is investigated in more
generality for three information criteria: the Bayesian information criterion
with generalized penalty term yielding the PML, and the normalized maximum
likelihood and the Krichevsky-Trofimov code lengths. Lower and upper bounds on
the estimated order are obtained. The notion of consistent Markov order
estimation is generalized for infinite memory processes using the concept of
oracle order estimates, and generalized consistency of the PML Markov order
estimator is presented.Comment: Published in at http://dx.doi.org/10.3150/12-BEJ468 the Bernoulli
(http://isi.cbs.nl/bernoulli/) by the International Statistical
Institute/Bernoulli Society (http://isi.cbs.nl/BS/bshome.htm
Context Tree Selection: A Unifying View
The present paper investigates non-asymptotic properties of two popular
procedures of context tree (or Variable Length Markov Chains) estimation:
Rissanen's algorithm Context and the Penalized Maximum Likelihood criterion.
First showing how they are related, we prove finite horizon bounds for the
probability of over- and under-estimation. Concerning overestimation, no
boundedness or loss-of-memory conditions are required: the proof relies on new
deviation inequalities for empirical probabilities of independent interest. The
underestimation properties rely on loss-of-memory and separation conditions of
the process.
These results improve and generalize the bounds obtained previously. Context
tree models have been introduced by Rissanen as a parsimonious generalization
of Markov models. Since then, they have been widely used in applied probability
and statistics
Model selection techniques & Sparse Markov Chains
Este trabajo trata sobre problemas de selección de modelo. El capítulo 0
plantea un estudio general de estos problemas estadísticos. Dados un proceso estocástico y una familia de clases de modelos, con cada clase determinada por un parámetro de estructura y cada modelo dentro de una clase descrito por un vector de parámetros en un espacio cuya dimensión depende de la estructura.
Supongamos que dada una realización del proceso podemos estimar el vector de parámetros si la estructura es conocida. La tarea es estimar esta última.
Trabajamos usando el concepto de criterio de información, el parámetro de
estructura es estimado mediante minimizar un valor asignado a cada clase de modelos. Los criterios más utilizados son el Criterio de Información Bayesiano
(BIC) y el principio del mínimo largo de descripción (MDL). El BIC consiste
de dos términos: menos el logaritmo de la máxima verosimilitud, esto mide la
bondad de ajuste; y la mitad del número de parámetros libres por el logaritmo del tamaño muestral, esto penaliza modelos muy complejos.
En el capítulo 2, incluimos algunos resultados recientes en estimación de
cadenas de Markov de alcance variable (VLMC), los cuales nos ayudarán a entender más en profundidad el problema planteado. Basados en Csiszar y Talata (2006) extendemos el concepto de árbol de contextos para procesos ergódicos arbitrarios y demostramos que los principios BIC y MDL dan estimadores fuertemente consistentes del árbol de contextos.
En el capítulo 3 presentamos una nueva e ingeniosa representación de los
modelos Markovianos: los modelos de árbol de contexto disperso (stms), una
generalización de las cadenas de alcance variable, donde permitimos juntar
conjuntos más generales de estados con distribuciones similares, y preservamos la útil estructura combinatoria de los árboles de contextos. El tema principal del trabajo es estudiar un método para estimar la estructura en esta clase de modelos parsimoniosos. Mostraremos resultados de consistencia para estimadores basados en el principio MDL, el objetivo es encontrar el menor árbol que determina las probabilidades de transición.
Finalmente, en el capítulo 4 describimos brevemente algunas aplicaciones
en Biología y Teoría de la Información. Ilustramos cómo estas técnicas pueden
ser utilizadas para clasificar familias de proteínas. Además mostramos como se
pueden utilizar para comprimir imágenes bitonales, dando lugar a un método
de compresión sin pérdida que mejora la performance de los métodos basados
en árboles de contexto, y de varios algoritmos populares de compresión