Higher Moment Estimators for Linear Regression Models With Errors in the Variables

Nous proposons, pour les modèles de régression linéaire où les variables explicatives contiennent des erreurs de mesure, des estimateurs de variables instrumentales d'un type particulier, qui n'exigent aucune information extrinsèque. On sait que l'estimateur des moindres carrés ordinaires (MCO), qui est basé sur les moments échantillonnaux d'ordre deux, est centré lorsqu'il n'y a pas d'erreurs sur les variables0501s qu'il devient biaisé et non convergent en présence de telles erreurs [Fuller (1987)]. Par ailleurs, les estimateurs que nous suggérons sont basés sur des moments d'ordres supérieurs et peuvent être vus comme des estimateurs de variables instrumentales. Sous des hypothèses très raisonnables, ces estimateurs demeurent convergents même lorsqu'il y a des erreurs de mesure. Alors que la plupart des estimateurs convergents basés sur des moments d'ordres supérieurs (MOS) proposés antérieurement [Geary(1942), Drion(1951), Durbin (1954), Pal (1980)] pour les modèles de régression avec erreurs sur les variables, semblent très erratiques [Kendall et Stuart (1963), Malinvaud (1978)], les estimateurs que nous proposons se comportent remarquablement bien, dans un grand nombre de cas. Quoique la plupart des données contiennent des erreurs de mesure, ce fait est souvent ignoré par les analystes qui appliquent, la plupart du temps, des procédures statistiques conçues pour le traitement de données mesurées sans erreur. Nous démontrons que le fait de négliger la présence d'erreurs de mesure même relativement faibles et d'utiliser les estimateurs MCO traditionnels, peut faire en sorte que les tests de Student standards comportent des erreurs de type I dont le niveau est considérablement plus élevé que le niveau désiré, alors que ce n'est pas le cas si on utilise les estimateurs MOS proposés. Même si les échantillons ne sont pas très grands, les résultats de nos expériences suggèrent également que dans les cas où les erreurs sur les variables ne sont pas négligeables, le comportement de nos estimateurs lorsqu'on l'évalue en termes de la racine carrée des écarts quadratiques moyens, est supérieur à celui des MCO, quand les variables explicatives sont fortement corrélées et que le coefficient de corrélation multiple est élevé. Ce genre de situations est typique des analyses statistiques basées sur des données agrégées. Si le coefficient de corrélation multiple est moins élevé et que les variables explicatives sont moins corrélées, nos estimateurs MOS peuvent encore s'avérer supérieurs aux estimateurs MCO lorsque les échantillons sont suffisamment grands, et cela même si les erreurs de mesure ne sont pas aussi importantes. De tels cas se rencontrent fréquemment lorsqu'on a affaire à des données d'enquêtes. Nous décrivons également des tests d'erreurs sur les variables et nous évaluons la puissance de ces tests au moyen d'expériences de Monte-Carlo.
[ - ]
[ + ]