Superioridad De La Regresión General Ridge Sobre Mínimos Cuadrados

RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el...

Descripción completa

Guardado en:
Detalles Bibliográficos
Autores principales: Manuel R. Piña Monarrez, Manuel A. Rodríguez Medina, Juan J. Diaz Núñez
Formato: Artículo
Lenguaje:spa
Publicado: Universidad Autónoma de Ciudad Juárez 2015
Materias:
Acceso en línea:http://erevistas.uacj.mx/ojs/index.php/culcyt/article/view/594
Etiquetas: Agregar Etiqueta
Sin Etiquetas, Sea el primero en etiquetar este registro!
Descripción
Sumario:RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el polinomio, bajo el criterio del Cuadrado Medio del Error (CME), cuando el problema de multicolinealidad está presente. La prueba de este resultado, es dada aquí. ABSTRACT The ordinary least square estimator (OLS), is a special case of the general ridge estimator proposed by Hoerl and Kennard in 1970, for adjust a polynomial like a regression model. In this paper we demonstrate that the General Ridge Regression (GRR), is better than the OLS estimator, for adjust the polynomial, by the criterion of mean square error (MSE), when the multicollinearity problem is present. The proof of this result is given here.Palabras Claves: Cuadrado Medio del Error, Regresión Ridge, Mínimos Cuadrados, Multicolinealidad.
ISSN:2007-0411