Superioridad De La Regresión General Ridge Sobre Mínimos Cuadrados

RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el...

Ful tanımlama

Kaydedildi:
Detaylı Bibliyografya
Asıl Yazarlar: Manuel R. Piña Monarrez, Manuel A. Rodríguez Medina, Juan J. Diaz Núñez
Materyal Türü: Artículo
Dil:spa
Baskı/Yayın Bilgisi: Universidad Autónoma de Ciudad Juárez 2015
Konular:
Online Erişim:http://erevistas.uacj.mx/ojs/index.php/culcyt/article/view/594
Etiketler: Etiketle
Etiket eklenmemiş, İlk siz ekleyin!
Diğer Bilgiler
Özet:RESUMENEl estimador de Mínimos Cuadrados (MC), es un caso especial del estimador general ridge propuesto por Hoerl y Kennard en 1970, para ajustar un modelo de regresión polinomial. En este artículo, se demuestra que la Regresión General Ridge (RGR), es mejor que el estimador de MC, para ajustar el polinomio, bajo el criterio del Cuadrado Medio del Error (CME), cuando el problema de multicolinealidad está presente. La prueba de este resultado, es dada aquí. ABSTRACT The ordinary least square estimator (OLS), is a special case of the general ridge estimator proposed by Hoerl and Kennard in 1970, for adjust a polynomial like a regression model. In this paper we demonstrate that the General Ridge Regression (GRR), is better than the OLS estimator, for adjust the polynomial, by the criterion of mean square error (MSE), when the multicollinearity problem is present. The proof of this result is given here.Palabras Claves: Cuadrado Medio del Error, Regresión Ridge, Mínimos Cuadrados, Multicolinealidad.
ISSN:2007-0411