Compartir
New Developments in Statistical Information Theory Based on Entropy and Divergence Measures (en Inglés)
Pardo, Leandro (Autor)
·
Mdpi AG
· Tapa Blanda
New Developments in Statistical Information Theory Based on Entropy and Divergence Measures (en Inglés) - Pardo, Leandro
$ 101.350
$ 140.770
Ahorras: $ 39.420
Elige la lista en la que quieres agregar tu producto o crea una nueva lista
✓ Producto agregado correctamente a la lista de deseos.
Ir a Mis Listas
Origen: Estados Unidos
(Costos de importación incluídos en el precio)
Se enviará desde nuestra bodega entre el
Miércoles 03 de Julio y el
Lunes 15 de Julio.
Lo recibirás en cualquier lugar de Chile entre 1 y 3 días hábiles luego del envío.
Reseña del libro "New Developments in Statistical Information Theory Based on Entropy and Divergence Measures (en Inglés)"
This book presents new and original research in Statistical Information Theory, based on minimum divergence estimators and test statistics, from a theoretical and applied point of view, for different statistical problems with special emphasis on efficiency and robustness. Divergence statistics, based on maximum likelihood estimators, as well as Wald's statistics, likelihood ratio statistics and Rao's score statistics, share several optimum asymptotic properties, but are highly non-robust in cases of model misspecification under the presence of outlying observations. It is well-known that a small deviation from the underlying assumptions on the model can have drastic effect on the performance of these classical tests. Specifically, this book presents a robust version of the classical Wald statistical test, for testing simple and composite null hypotheses for general parametric models, based on minimum divergence estimators.
- 0% (0)
- 0% (0)
- 0% (0)
- 0% (0)
- 0% (0)
Todos los libros de nuestro catálogo son Originales.
El libro está escrito en Inglés.
La encuadernación de esta edición es Tapa Blanda.
✓ Producto agregado correctamente al carro, Ir a Pagar.