Máxima verosimilitud
En estadística, la estimación por máxima verosimilitud (conocida tamién como EMV y, n'ocasiones, MLE poles sos sigles n'inglés) ye un métodu habitual p'afaer un modelu y envalorar los sos parámetros.
Historia
[editar | editar la fonte]Foi encamentáu, analizáu y popularizáu por R. A. Fisher ente 1912 y 1922, anque fuera utilizáu antes por Carl Friedrich Gauss, Pierre-Simon Laplace, Thorvald N. Thiele y Francis Edgeworth.[1]
Fundamentu
[editar | editar la fonte]Supóngase que se tien una muestra x1, x2, …, xn de n observaciones independientes y hermano distribuyíes estrayíes d'una función de distribución desconocida con función de densidá (o función de probabilidá) f0(·). Sábese, sicasí, que f0 pertenez a una familia de distribuciones { f(·|θ), θ ∈ Θ }, llamada modelu paramétrico, de manera que f0 correspuende a θ = θ0, que ye'l verdaderu valor del parámetru. Deseyar atopar el valor (o estimador) que tea lo más próximo posible al verdaderu valor θ0.
Tanto xi como θ pueden ser vectores.
La idea d'esti métodu ye la d'atopar primero la función de densidá conxunta de toles observaciones, que so condiciones d'independencia, ye :
Reparando esta función so un ángulu llixeramente distintu, puede suponese que los valores reparaos x1, x2, …, xn son fixos ente que θ puede variar llibremente. Esta ye la función de verosimilitud:
Na práutica, suelse utilizar el llogaritmu d'esta función:
El métodu de la máxima verosimilitud envalora θ0 buscando'l valor de θ que maximiza . Este ye'l llamáu estimador de máxima verosimilitud (MLE) de θ0:
N'ocasiones esti estimador ye una función esplícita de los datos reparaos x1, …, xn, pero munches vegaes hai que recurrir a optimizaciones numbériques. Tamién puede asoceder que'l máximu nun sía únicu o nun esista.
Na esposición anterior asumióse la independencia de les observaciones, pero nun ye un requisitu necesariu: basta con poder construyir la función de probabilidá conxunta de los datos pa poder aplicar el métodu. Un contestu nel qu'esto ye habitual ye'l del analís de series temporales.
Propiedaes del estimador de máxima verosimilitud
[editar | editar la fonte]En munchos casos, el estimador llográu por máxima verosimilitud tien un conxuntu de propiedaes asintóticas curioses:
- consistencia, *
normalidá asintótica, * eficiencia, * ya inclusive eficiencia de segundu orde en corrixendo'l sesgu.
Consistencia
[editar | editar la fonte]So ciertes condiciones bastante habituales,[2] el estimador de máxima verosimilitud ye consistente: si'l númberu d'observaciones n tiende a infinitu, el estimador converxe en probabilidá al so valor verdaderu:
So condiciones daqué más fuertes,[2] la converxencia ye casi segura:
Normalidá asintótica
[editar | editar la fonte]Si les condiciones pa la consistencia cumplir y, amás, # ;
- y ye dos veces de cutio diferenciable al respective de θ en dalguna redolada N de θ0;
- ∫ supθ∈N||∇θf(x|θ)||dx < ∞, y ∫ supθ∈N||∇θθf(x|θ)||dx < ∞;
- I = Y[∇θlnf(x|θ0) ∇θlnf(x|θ0)′] esiste y nun ye singular;
- ,
entós el estimador de máxima verosimilitud tien una distribución asintótica normal:[3]
Invariancia funcional
[editar | editar la fonte]Si ye'l EMV de θ y g(θ) ye un tresformamientu de θ, entós el EMV de α = g(θ) ye
Amás, el EMV ye invariante frente a ciertos tresformamientos de los datos. N'efeutu, si y una aplicación biyectiva que nun depende de los parámetros que s'envaloren, entós la función de densidá de Y ye
Esto ye, les funciones de densidá de X y Y difieren namái nun términu que nun depende de los parámetros. Asina, por casu, el EMV pa los parámetros d'una distribución lognormal son los mesmos que los d'una distribución normal afecha sobre'l llogaritmu de los datos d'entrada.
Otres propiedaes
[editar | editar la fonte]El EMV ye √n-consistente y asintóticamente eficiente. En particular, esto significa que'l sesgu ye cero hasta l'orde n−1/2. Sicasí, al llograr los términos de mayor orde de la espansión de Edgeworth de la distribución del estimador, θemv tien un sesgu d'orde −1. Esti sesgu ye igual a[4]
fórmula onde s'adoptó la convención d'Einstein pa espresar sumes; I jk representa la j,k-ésima componente de la inversa de la matriz d'información de Fisher y :
Gracies a estes fórmules ye posible envalorar el sesgu de segundu orde del estimador y correxilo por aciu substracción:
Esti estimador, insesgado hasta l'orde n−1, llámase estimador de máxima verosimilitud con correición del sesgu.
Exemplos
[editar | editar la fonte]Distribución uniforme discreta
[editar | editar la fonte]Supóngase que n boles numberaes de 1 a n asitiar nuna urna y que una d'elles estrayer al azar. Si desconozse n, el so EMV ye'l númberu m qu'apaez na bola estrayida: la función de verosimilitud ye 0 pa n < m y 1/n pa n ≥ m; qu'algama'l so máximu cuando n = m. La esperanza matemática de , ye (n + 1)/2. De resultes, el EMV de n infravalorará el verdaderu valor de n por (n − 1)/2.
Distribución discreta con parámetros discretos
[editar | editar la fonte]Supóngase que se llanza una moneda sesgada al aire 80 vegaes. La muestra resultante pue ser daqué según x1 = H, x2 = T, ..., x80 = T, y cúntase el númberu de cares, "H". La probabilidá de que sala cara ye p y la de que sala cruz, 1 − p (de cuenta que p ye'l parámetru θ). Supóngase que se llogren 49 cares y 31 cruces. Imaxínese que la moneda estrayer d'una caxa que contenía trés d'elles y que éstes tienen probabilidaes p iguales a 1/3, 1/2 y 2/3 anque nun se sabe cuál d'elles ye cuál.
A partir de los datos llograos del esperimentu puede llograse saber cuál ye la moneda cola máxima verosimilitud. Usando la función de probabilidá de la distribución binomial con una muestra de tamañu 80, númberu d'ésitos igual a 49 y distintos valores de p, la función de verosimilitud toma trés valores siguientes:
La verosimilitud ye máxima cuando p = 2/3 y ésti ye, poro, el EMV de p.
Aplicaciones
[editar | editar la fonte]El estimador de máxima verosimilitud úsase dientro d'un gran númberu de modelos estadísticos:
- modelos lliniales los modelos lliniales xeneralizaos;
- Analís factorial, tanto exploratorio como confirmatorio;
- analís d'ecuaciones estructurales;
- y otres munches situaciones nel contestu de los tests estadísticos
Ver tamién
[editar | editar la fonte]Referencies
[editar | editar la fonte]- ↑ Edgeworth (Sep 1908, Dec 1908)
- ↑ 2,0 2,1 Newey y McFadden (1994, Theorem 2.5.)
- ↑ Newey y McFadden (1994, Theorem 3.3.)
- ↑ Cox y Snell (1968, formula (20))
Referencies
[editar | editar la fonte]- Aldrich, John (1997). R.A. Fisher and the making of maximum likelihood 1912–1922. 12. páxs. 162–176. doi: . Plantía:MR.
- Anderson, Erling B. 1970. "Asymptotic Properties of Conditional Maximum Likelihood Estimators". Journal of the Royal Statistical Society B 32, 283-301.
- Andersen, Erling B. 1980. Discrete Statistical Models with Social Science Applications. North Holland, 1980.
- Debabrata Basu. Statistical Information and Likelihood : A Collection of Critical Essays by Dr. D. Basu ; J.K. Ghosh, editor. Lecture Notes in Statistics Volume 45, Springer-Verlag, 1988.
- A general definition of residuals. 1968. páxs. 248–275. Plantía:Jstor.
- Edgeworth, F.Y. (Sep de 1908). On the probable errors of frequency-constants. 71. páxs. 499–512. Plantía:Jstor.
- Edgeworth, F.Y. (Dec de 1908). On the probable errors of frequency-constants. 71. páxs. 651–678. Plantía:Jstor.
- Ferguson, Thomas S (1996). A course in large sample theory. Chapman & Hall.
- Hald, Anders (1998). A history of mathematical statistics from 1750 to 1930. Nueva York: Wiley.
- Hald, Anders (1999). On the history of maximum likelihood in relation to inverse probability and least squares. 14. páxs. 214–222. Plantía:Jstor.
- Kano, Y. (1996). Third-order efficiency implies fourth-order efficiency. 26. páxs. 101–117. http://www.journalarchive.jst.go.jp/english/jnlabstract_en.php?cdjournal=jjss1995&cdvol=26&noissue=1&startpage=101.
- -y Cam, Lucien (1990). Maximum likelihood — an introduction. 58. páxs. 153–171.
- -y Cam, Lucien; Lo Yang, Grace (2000). Asymptotics in statistics: some basic concepts. Springer. ISBN 0-387-95036-2.
- -y Cam, Lucien (1986). Asymptotic methods in statistical decision theory. Springer-Verlag.
- Lehmann, E. L.; Casella, G. (1998) Theory of Point Estimation, 2nd ed. Springer. ISBN 0-387-98502-6.
- Newey, Whitney K.; McFadden, Daniel (1994). Large sample estimation and hypothesis testing. Elsevier Science, páx. 2111–2245.
- Pratt, John W. (1976). F. Y. Edgeworth and R. A. Fisher on the efficiency of maximum likelihood estimation. 4. páxs. 501–514. Plantía:Jstor.
- Savage, Leonard J. (1976). On rereading R. A. Fisher. 4. páxs. 441–500. Plantía:Jstor.
- Stigler, Stephen M. (1978). Francis Ysidro Edgeworth, statistician. 141. páxs. 287–322. Plantía:Jstor.
- Stigler, Stephen M. (1986). The history of statistics: the measurement of uncertainty before 1900. Harvard University Press. ISBN 0-674-40340-1.
- Stigler, Stephen M. (1999). Statistics on the table: the history of statistical concepts and methods. Harvard University Press. ISBN 0-674-83601-4.
- van der Vaart, A.W. (1998). Asymptotic Statistics. ISBN 0-521-78450-6.
Enllaces esternos
[editar | editar la fonte]- Tutorial Archiváu 2019-10-27 en Wayback Machine
- Implementación de la estimación por máxima verosimilitud usando R
- Tutorial on maximum likelihood estimation nel Journal of Mathematical Psychology