Superioridad De La Regresión General Ridge Sobre Mínimos Cuadrados

RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el...

Fuld beskrivelse

Saved in:
Bibliografiske detaljer
Main Authors: Manuel R. Piña Monarrez, Manuel A. Rodríguez Medina, Juan J. Diaz Núñez
Format: Artículo
Sprog:spa
Udgivet: Universidad Autónoma de Ciudad Juárez 2015
Fag:
Online adgang:http://erevistas.uacj.mx/ojs/index.php/culcyt/article/view/594
Tags: Tilføj Tag
Ingen Tags, Vær først til at tagge denne postø!
Beskrivelse
Summary:RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el polinomio, bajo el criterio del Cuadrado Medio del Error (CME), cuando el problema de multicolinealidad está presente. La prueba de este resultado, es dada aquí. ABSTRACT The ordinary least square estimator (OLS), is a special case of the general ridge estimator proposed by Hoerl and Kennard in 1970, for adjust a polynomial like a regression model. In this paper we demonstrate that the General Ridge Regression (GRR), is better than the OLS estimator, for adjust the polynomial, by the criterion of mean square error (MSE), when the multicollinearity problem is present. The proof of this result is given here.Palabras Claves: Cuadrado Medio del Error, Regresión Ridge, Mínimos Cuadrados, Multicolinealidad.
ISSN:2007-0411