1L’objectif de cet article est double. D’une part, nous présentons les principales spécifications économétriques permettant de capter le phénomène de l’hétérogénéité spatiale, qui se traduit sous la forme d’une instabilité des paramètres dans l’espace et/ou d’une hétéroscédasticité des termes d’erreurs. Seules les spécifications valables en coupe transversale sont examinées. D’autre part, nous explicitons les liens entre hétérogénéité et autocorrélation spatiales, l’autre grande spécificité des donnéeslocalisées quiestdéfinieparl’absenced’indépendanceentreobservations géographiques. En particulier, nous examinons dans quelle mesure les tests traditionnels d’hétéroscédasticité ou d’instabilité doivent être amendés pour tenir compte de l’autocorrélation spatiale. Une application, destinée à illustrer les principales modélisations et les différents tests, est également proposée. L’étude des espaces urbains fait souvent apparaître une segmentation des marchés immobiliers : les caractéristiques et les prix des logements diffèrent substantiellement selon leurs localisations. Cette segmentation conduit à des variations persistantes et significatives des caractéristiques des logements et de leurs prix dans les différents sous-marchés. Dans ces conditions, estimer une relation “ globale ” entre le prix du logement et ses caractéristiques, relation s’appliquant de la même façon sur toute l’aire urbaine étudiée, ne permet pas de capter les différences importantes de prix dans l’espace.
2L’instabilité dans l’espace des relations économiques illustrée par cet exemple est appelée hétérogénéité spatiale. Ce phénomène se retrouve à plusieurs échelles : les comportements et les phénomènes économiques ne sont pas les mêmes dans le centre d’une ville et dans sa périphérie, dans une région urbaine et dans une région rurale, dans le “ Nord ” de l’Europe et dans le “ Sud ”, etc.
3En pratique, ces différences peuvent se traduire dans une régression économétrique de deux façons : par des coefficients différents ou par des variances des termes d’erreurs différentes selon la localisation. Dans le premier cas, on parle d’instabilité spatiale des paramètres de la régression qui varient systématiquement avec la localisation. Dans le second cas, on est confronté à un problème d’hétéroscédasticité, problème par ailleurs fréquent en coupe transversale. Ces deux cas, instabilité structurelle et hétéroscédasticité, peuvent apparaître conjointement.
4L’objectif de cet article est double. D’une part, nous présentons les principales spécifications économétriques permettantde capter cesphénomènesd’hétérogénéité spatiale. D’autre part, nousexaminons dans quelle mesure les tests traditionnels d’hétéroscédasticité ou d’instabilité doivent être amendés pour tenir compte de l’autocorrélation spatiale, l’autre grande spécificité des données localisées et qui est définie par l’absence d’indépendance entre observations géographiques (Anselin, 1988a ; Le Gallo, 2002a, 2002b). Nous nous limitons ici aux spécifications valables pour les données en coupe transversale.
5Au contraire de l’autocorrélation spatiale, l’hétérogénéité spatiale est habituellement traitée par les méthodes économétriques standards. Ainsi, les modélisations en coupe transversale relatives aux paramètres variables, aux coefficients aléatoires ou aux changements de régimes, peuvent être adaptées aux spécifications particulières nécessitées par l’utilisation de données localisées.
6Cet article s’organise ainsi de la façon suivante. Tout d’abord, dans la première partie, sont présentées les différentes spécifications permettant de prendre en compte l’instabilité des paramètres dans l’espace ainsi que l’hétéroscédasticité. Ensuite, dans une deuxième partie, nous explicitons les liens entre autocorrélation et hétérogénéité spatiales. En effet, ces deux aspects sont souvent présents conjointement dans une régression, conduisant à une nécessaire adaptation des tests d’hétéroscédasticité et d’instabilité structurelle. Enfin, dans une dernièrepartie, nous présentons une application destinée à illustrer les principales modélisations et les différents tests exposés dans cet article.
L’instabilité spatiale des paramètres
7Le point de départ est le modèle de régression linéaire classique en coupe transversale :

où y est le vecteur (N,1) des observations de la variable dépendante, N est le nombre total d’observations, X est la matrice (N, K) des observations des K variables explicatives,?est le vecteur (K,1) des K coefficients inconnus à estimer. Sauf indication contraire,? désigne le vecteur(N,1) destermes d’erreurs tel que ? iid (0,?2 IN ). Parla suite, nous considérons que les observations sont localisées, c’est-à-dire qu’elles portent sur des zones géographiques, comme des régions [1].
8L’instabilité spatiale des paramètres se réfère à l’absence de stabilité dans l’espace des comportements ou des
relations économiques. Ce phénomène nécessite des modélisations permettant la prise en compte des
caractéristiques particulières de chaque zone géographique : les paramètres de la régression (1.1) varient selon
leurs localisations. Dans le cas le plus général, on suppose une relation différente pour chaque zone
géographique i de l’échantillon :

où yi représente l’observation de la variable dépendante pour la zone i, xi'représente le vecteur de dimension (1, K) comportant les observations des K variables explicatives pour la zone i. Ce vecteur est associé à un vecteur de dimension (K,1) : ?i. Il existe alors un vecteur de paramètres différent pour chaque observation i.
9Compte tenu de cette spécification, il n’est pas possible d’estimer un ensemble de N vecteurs de K paramètres inconnus ? avec un échantillon de N observations. Il faut donc imposer une structure spatiale aux données, i c’est-à-dire fournir une spécification parcimonieuse afin d’étudier la variation dans l’espace. La variabilité spatiale de la moyenne d’une variable ou des coefficients d’une régression peut être discrète, lorsque des différences systématiques entre différents régimes sont observées, ou continue sur l’ensemble de la zone étudiée.
Variation spatiale discrète
ANOVA spatiale
10Dans un premier temps, il est possible de se demander dans quelle mesure la moyenne d’une variable varie entre différents sous-groupes d’observations localisées. Par exemple, on voudrait savoir si la moyenne des prix des logements est la même à l’est et à l’ouest d’une ville. Une réponse possible passe par une régression où les variables explicatives sont des variables muettes représentant l’appartenance aux différents sous-groupes.
11Formellement, considérons sans perte de généralité un échantillon d’observations partitionné en 2 sous-groupes
de localisations [2],G et G. Supposons N observations dans le premier sous-groupe et N observations dans le
1212 second sous-groupe avec N N N+ =. Le but est de tester l’hypothèse si?, l’espérance de y dans G est égale
1 211 à ?, l’espérance de y dans G2. Il suffit alors d’estimer par les Moindres Carrés Ordinaires (MCO) le modèle
2 suivant :

où d sont les variablesmuettes définiespouri= 1, … N et j =1,2. Elles sont égales à 1sila région i appartientau ij sous-groupe G et 0 sinon. Sous l’hypothèse de normalité des erreurs, un test d’égalité des moyennes s’effectue j alors en testant l’égalité des coefficients ?1 et ?2.
Régimes spatiaux
12Dans le modèle (1.3), seule la constante varie entre les différents sous-groupes spatiaux. Plus généralement, si l’on considère l’ensemble des coefficients d’une régression, l’hétérogénéité spatiale peut être présente sous la forme de différentes constantes et/ou de différentes pentes. Dans ce cas général, on parle alors d’instabilité structurelle dans l’espace ou de “ régimes spatiaux ” (Anselin, 1988a).
13Formellement, considérons le cas où deux régimes, indiqués par 1 et par 2, sont considérés et où tous les
paramètres varient selon le régime :

où y et y sont les vecteurs des observations des variables dépendantes, X et X sont les matrices des 1212 observations des variables explicatives,? et? sont les vecteurs de coefficients et ? et ? sont les vecteurs des 1212 erreurs respectivement dessous-groupes 1 et 2. On suppose à nouveau que le nombre total d’observations dans le sous-groupe 1 est N et que celui du sous-groupe 2 est N N N N 1 ( )+ =. Les observations dans chaque 1 2 2 régime sont supposées être suffisamment nombreuses pour estimer ?1 et ?2. Enfin, soit ? ? ?' [ ] ' '=1 2.
14Dans cette première partie, nous supposons que la variance des termes d’erreurs est constante sur l’ensemble des observations : E IN [ ']?? ?=2. Dans ces conditions, le test d’homogénéité des coefficients, c’est-à-dire le test de changement structurel spatial ?1 et ?2, peut s’effectuer grâce au test de Chow traditionnel.
Fonctions spline
15L’hétérogénéité spatiale est enfin susceptible de se manifester sous la forme de paramètres de la régression qui diffèrent, non pas selon le régime spatial, mais selon l’intervalle des valeurs prises par une ou plusieurs variables explicatives dans l’aire géographique. Par exemple, conformément aux modèles de la nouvelle économie urbaine, on peut considérer que la densité de population dans une aire urbaine décroît lorsqu’on s’éloigne du centre de cette aire urbaine. Cependant, cette décroissance n’est pas forcément monotone mais peut varier selon la distance au centre. Il est alors préférable de considérer qu’elle peut décroître de façon différente dans certains intervalles de valeurs de cette distance au centre.
16La technique des variables muettes peut à nouveau être mobilisée pour modéliser une fonction dans laquelle les paramètres de la régression diffèrent par intervalle. L’estimation d’une telle fonction, appelée fonction spline, nécessite de déterminer le nombre de segments qui divisent l’axe de l’une des variables explicatives x et d’estimer une fonction linéaire pour chaque segment. Supposons que l’axe des x soit divisé en M segments. Les valeurs seuils entre les segments, notées xj, j M=0,..., sont appelées “nœuds” avec x x 0 =min( ).
17Pour une observation i, la fonction spline, ou fonction linéaire par morceaux, s’écrit de la façon suivante :
où y est la variable dépendante, x est la variable explicative divisée en M segments, D est la variable muette
j prenant la valeur 1 pour les observations telles que x x x? < et 0 sinon. Cette spécification permet d’estimer
j j?1 une fonction linéaire différente pour chaque intervalle défini par les M nœuds x. Ainsi, pour les valeurs de la
j variable explicative comprises entre les deux premiers nœuds, x et x, l’équation (1.5) prend la forme suivante :

01 y a b x x= + ? 1 ( ). Sous les hypothèses habituelles sur les erreurs, cette fonction est estimée par les MCO. En i i1 0 général, la fonction linéaire par morceaux (1.5) est discontinue aux valeurs seuils. Pour s’assurer de la continuité aux nœuds, il est nécessaire d’imposer la contrainte suivante sur les coefficients : a a b x x j M j j j j j+ ? = + ? ? = ? 1 1 1 1( ), ,....
18Suits et alii (1978) généralisent la formulation (1.5) en posant une fonction polynomiale dont les paramètres
diffèrent par intervalle. Utiliser une fonction polynomiale par intervalle permet d’assurer la continuité des
dérivées de la fonction aux nœuds et d’employer une forme fonctionnelle plus flexible que des fonctions
linéaires. Pour des fonctions cubiques, la fonction est appelée spline cubique. Lorsque les segments sont de
longueurségales etpour assurerlacontinuitéauxnœuds, Suitset alii(1978) montrentquecettefonctionpeut être
obtenue en estimant la régression suivante par les MCO :

où Dj* est la variable muette égale à 1 pour les observations telles que x xj ?.
19Cette procédure peut être étendue au cas où plusieurs variables explicatives sont segmentées (Suitset alii,1978). Un exemple d’une telle régression où deux variables explicatives sont divisées en 5 intervalles est fourni dans McMillen et McDonald (1998).
20Les différentes approches présentées dans ce paragraphe sur la variation spatiale discrète nécessitent la définition préalable des sous-groupes ou des intervalles qui, dans l’idéal, doivent être définis pour correspondre à un ou plusieurs changements structurels géographiques du modèle, connus a priori. Ainsi, dans le cas des régimes spatiaux, ces modélisations sont particulièrement adaptées pour des découpages spatiaux bien définis (“Centre” versus “Périphérie”, rural versus urbain, etc.).
21En l’absence d’informations précises surleschangements structurels, Anderson (1982,1985), McMillen (1994) et McMillen et McDonald (1998) choisissent d’estimer des fonctions spline cubique avec des segments de longueur égale et des intervalles relativement courts entre les nœuds. Brueckner (1981,1986) détermine le nombre de ruptures en effectuant un test du rapport de vraisemblance et en calculant des critères d’information pour chaque nouvelle rupture ajoutée.
22Il est à noter qu’il n’existe pas à l’heure actuelle de techniques permettant à la fois une estimation endogène des régimes et une prise en compte de l’autocorrélation spatiale (voir infra, section 2). En revanche, l’analyse exploratoire des données spatiales peut alors se révéler utile(Haining, 1990; Anselin, 1998). Ces techniques, en exploitant explicitement la nature spatiale des données, permettent en effet de caractériser la forme de l’hétérogénéité spatiale en détectant les concentrations locales de valeurs similaires. Par exemple, sur un échantillon de 138 régions européennes, Le Gallo et Ertur (2003) montrent à l’aide de ces techniques que la répartition régionale des PIB par tête est caractérisée par une forte polarisation Nord-Sud. Cettedernière peut alors être interprétée comme une indication de l’existence de 2 régimes spatiaux au sein des régions européennes.
23Il est à noter que les techniques présentées dans cette section relèvent de l’économétrie générale et ne tiennent pas explicitement compte de la nature spatiale des données, même si leur adaptation dans un cadre spatial permet de mettre en évidence des interprétations intéressantes. Ainsi, les variables muettes et les régimes sont habituellement utilisés pour modéliser des variations discrètes de la fonction dans un modèle de régression. Ces variationspeuvent êtrede toute nature, telles que des variationstemporelles, des variations par âge, parniveau de revenu, etc. (Greene, 2000). Par exemple, les modèles de régression spline (1.5) et (1.6) peuvent être facilement adaptés à la modélisation des ruptures temporelles si x représente le temps et x des points représentant des dates j particulières (voir par exemple Pindyck et Rubinfeld, 1998, et Marsch et Cormier, 2001, pour des exemples d’application).
24Lorsqu’on ne disposepas d’information sur d’éventuels régimes spatiaux, ou sil’on pense que lamoyenne d’une variable ou les coefficients de la régression ne changent pas brutalement d’un régime à l’autre, il est préférable d’utiliser des spécifications permettant de capter une variation spatiale continue sur l’ensemble de la zone étudiée.
Variation spatiale continue
25Deuxtypesd’analysessontpossibles : étudedela variabilité delamoyenneoudela variabilité des coefficients de régression. Dans le premier cas, on utilise la méthode TSA(Trend Surface Analysis) alors que dans le second cas, c’est la méthode VE (Variable Expansion) et son extension, la méthode non-paramétrique GWR (Geographically Weighted Regression), qui sont les plus adaptées.
La méthode Trend Surface Analysis
26Dans cette méthode, on régresse la variable étudiée sur une expansion polynomiale des coordonnées de chaque
localisation, telles que lalatitude et lalongitude [3]. Formellement, le modèlesuivantestestimé parles MCO :
où p est l’ordre de la TSA, u et v sont les coordonnées de la ième observation, ars sont les coefficients inconnus à
ii estimer dont le nombre dépend de l’ordre de la TSA et est égal à ( )( ) /p p+ +1 2 2. Ainsi, il y a instabilité
structurelle sur les paramètres si tout ou partie des coefficients ars sont significatifs.

27Par exemple, lesdeuxfonctions associées à l’ordre 1 et àl’ordre 2, respectivement la fonction linéaire(p =1) et la
fonction quadratique (p = 2), s’écrivent de la façon suivante :


Cette méthode permet de décrire les grandes tendances caractéristiques de la surface de régression, comme des tendancessimples“ Nord-Sud” ou“ Est-Ouest” pour lafonctionlinéaire(représentées parlescoefficients ? et 10 ? dans (1.8a) et (1.8b)) ou des tendances plus complexes pour les fonctions d’ordre supérieur (représentées par 01 les coefficients ?, ? et ? dans (1.8b)). Elle sert donc à “ lisser ” les données (Ripley, 1981 ; Agterberg, 110220 1984). Par ailleurs, comme la variable expliquée est uniquement une fonction des coordonnées des points, des valeurs prévues pour cettevariablepeuventfacilement être obtenuespour chaque localisationet représentéessur une carte (Johnson et Ragas, 1987).
28Ce type de modélisation a, entre beaucoup d’autres applications, servi dans l’étude des fonctions de densité urbaine (Schroeder et Sjoquist, 1976) et dans les modèles hédoniques de prix immobiliers (Olmo, 1995; Des Rosiers et Thériault, 1999). En effet, elle permet de représenter graphiquement les surfaces de régression, leurs “ pics ” ou leurs“ vallées”, àl’aide dereprésentations en 3dimensions danslesquelles les coordonnées des points constituent l’abscisse et l’ordonnée et la valeur estimée (ou prévue), la cote. Cependant, cette méthode présente plusieurs limites (Ripley, 1981; Pace et alii, 1998). Tout d’abord, l’autocorrélation spatiale des erreurs n’est pas systématiquement éliminée dans ce type de modèle [4]. De plus, les variables des polynômes sont très souvent fortement corrélées, ce qui est source de multicolinéarité. Un enjeu important est donc celui du choix de l’ordre de la TSA. En l’absence de guide théorique, une possibilité est la méthode stepwise ascendante qui consiste à estimer d’abord des TSA d’ordres peu élevés, de rajouter ensuite des polynômes d’ordres plus élevés et d’analyser la significativité des coefficients ajoutés (Des Rosiers et Thériault, 1999).
La méthode Variable Expansion (VE)
29La méthode VE, développée par Casetti (1972,1997), généralise la méthode précédente dans la mesure où l’on suppose que l’hétérogénéité spatiale se traduit par des coefficients de la régression variables pour chaque localisation i. Cette différenciation est spécifiée par une fonction dépendant d’un certain nombre de variables auxiliaires.
30Sans perte de généralité, les propriétés de cette méthode sont illustrées formellement par un exemple simple avec
une seule variable explicative. Le modèle initial est, pour une observation i :

? et ? sont les coefficients inconnus de la régression et x correspond à la ième observation de la variable 01ii explicative. On suppose que le second coefficient est variable pour chaque observation [5] : ?1 est une fonction exacte de variables d’“expansion ” ou variables augmentées, notées z i P i, ,...= 1 :

où z estun vecteurde P variables augmentées,?est le vecteurdes P paramètres inconnus correspondants, f est la i relation fonctionnelle qui exprime la forme de la variation du coefficient ?. En général, cette fonction f est 1 linéaire. Ainsi, pour deux variables augmentées et une relation fonctionnelle linéaire, la relation (1.10) s’écrit de la façon suivante :

L’introduction des variables augmentées dans le modèle initial donne le modèle terminal suivant, estimé par les MCO sous les hypothèses habituelles :

Sous forme matricielle, le modèle (1.12) s’écrit de la façon suivante :

où z diag z z diag z i i1 1 2 2 = =( ), ( ), et S est le vecteur somme.
31Si le modèle terminal est la spécification correcte, les estimateurs des paramètres du modèle initial sont biaisés. En effet, il s’agit d’un cas particulier du problème traditionnel de variables omises. Plus précisément, soient b X S x Z z x z x' [ ], [ ], [ ]= = =? ? 0 1 et ? ? ?' [ ]=. L’espérance de l’estimateur de b du modèle initial, si le 0 21 2 modèle final est vrai, est E b b X X X Z( $) ( ' ) '= +?1 ?. L’estimateur de b dans le modèle initial est donc biaisé (Anselin, 1988a; Anselin et Griffith, 1988).
32Comme dansla méthodeTSA, lesvariables z correspondentleplussouventauxcoordonnéesdupoint i(latitude i et longitude). Dans le cas linéaire le plus simple, seules des tendances simples dans la variation des paramètres sontcaptées(tendancedutype “Nord/Sud” ou“ Est/Ouest”) etdesexpansions quadratiquesoud’ordre supérieur doivent être spécifiées pour capter des tendances plus complexes. À nouveau, plus l’ordre de l’expansion est grand, plus la multicolinéarité risque de poser problème [6].
33Outre les coordonnées des observations, les variables augmentées peuvent plus généralement correspondre à toutes les variables susceptibles d’être à l’origine de la différenciation spatiale des coefficients. Par exemple, LeSage (1999) utilise la distance au centre de la ville pour modéliser la variation spatiale des prix marginaux des caractéristiques dans un modèle hédonique de prix immobiliers. Toujours dans le même cadre, Can (1990,1992) préfère utiliser une variable composite de la “qualité” du voisinage de chaque logement : revenu moyen, composition raciale de la population, taux de chômage, etc. [7]
34La méthode VE permet de modéliser des paramètres variables dans l’espace mais elle souffre de deux limites principales (Fotheringham et alii, 2000). La première est que cette technique ne peut capter que des tendances dans les relations dans l’espace, la complexité de ces tendances étant dépendante de la complexité des équations d’expansion spécifiées (tendances linéaires, quadratiques, etc.). Les estimations des paramètres obtenues à partir de cette méthode ne permettent donc pas toujours de capter d’éventuelles importantes variations locales. La seconde est que la forme des équations d’expansion doit être supposée a priori. Pour pallier ces problèmes, trois auteurs, Brundson, Fotheringham et Charlton, ont développé la méthode d’estimation non-paramétrique GWR (Geographically Weighted Regression).
35La méthode non-paramétrique Geographically Weighted Regression (GWR)
36La méthode GWR est présentée dans un ouvrage (Fotheringham et alii, 2000) et dans une série d’articles (Brundson et alii, 1996,1998,1999; Fotheringham et Brundson, 1999; Fotheringham et alii, 1996a, 1996b, 1998). Cette méthode non-paramétrique est destinée à capter au niveau de chaque observation les variations des coefficients d’une régression dans l’espace. Pour cela, un paramètre différent est estimé pour chaque observation en utilisant les valeurs des caractéristiques prises par les observations voisines.
37Formellement, le point de départ est à nouveau la formulation générale (1.2) dans laquelle il existe un vecteur de
K paramètres inconnus à estimer pour chaque observation i :

Pour estimer les paramètres ? du modèle (1.14), on suppose que les données observées près du point i ont plus ki d’influence dans l’estimation de ? que les données situées loin de ce point i. On utilise alors une pondération ki variable avec le point i. Soit $?i l’estimateur des Moindres Carrés Pondérés du vecteur des K coefficients pour l’observation i. Il s’écrit :

où X est la matrice des observations des variables explicatives et Y représente le vecteur des observations de la variable dépendante. Enfin, V est une matrice diagonale (N,N), variable pour chaque observation i, dont les i éléments deladiagonale principale représententlepoidsgéographiqueaccordé aux donnéesautourdupoint i:

où vij dénote le poids de la jème observation sur l’estimation du modèle autour du ième point.
38Cette méthodologie diffère de la régression non-paramétrique habituelle du noyau dans laquelle les pondérations se réfèrent à l’espace des attributs de X (Cleveland, 1979; Cleveland et Devlin, 1988, Cleveland et alii, 1988). En revanche, la méthode GWR utilise des pondérations basées sur l’espace géographique. Selon les auteurs, différents schémas de pondération, ou “noyaux”, sont utilisés (McMillen, 1996 ; MacMillen et McDonald, 1997; Fotheringham et alii, 2000; Pavlov, 2000).
39Les auteurs présentent la méthode GWR comme une extension de la méthode VE. Par ailleurs, elle peut également s’interpréter comme une méthode essentiellement exploratoire permettant d’identifier la nature et les schémas d’hétérogénéité spatiale sur l’ensemble de la zone étudiée. En effet, le résultat d’une GWR est un ensemble d’estimations localisées des paramètres, ainsi que des versions localisées de mesures de qualité de la régression. Ces estimations locales étant toutes associées à des localisations spécifiques, chaque ensemble de paramètres peut être cartographié pour illustrer les variations spatiales de la relation mesurée. Pour savoir si ces estimations locales des paramètres sont significativement différentes entre elles et par rapport à l’estimateur des MCO, des tests paramétriques ont été proposés par Brundson et alii (1999) et Leung et alii (2000).
40Les méthodes présentées dans cette section sur la variation spatiale continue ont été principalement développées par des géographes. Par exemple, la méthode TSA a été initialement introduite pour étudier les tendances spatiales des phénomènes géologiques, comme les surfaces d’érosion. À ce titre, elles n’ont la plupart du temps pas de fondements économiques et ne sont pas reliées à des modèles théoriques. En revanche, elles s’avèrent particulièrement utiles dans une perspective d’analyse exploratoire des données car elles permettent de détecter desgrandes tendancesetpeuventalorsconstituer une premièreétape pourunephaseultérieurede modélisation.
Instabilité spatiale des paramètres et hétéroscédasticité
41La deuxième forme d’hétérogénéité spatiale, l’hétéroscédasticité, se manifeste par la variabilité des variances des termes d’erreurs selon la localisation. Elle constitue un problème courant en coupe transversale et provient généralement de variables manquantes ou de toute autre forme de mauvaise spécification du modèle. Elle est particulièrement présente lorsqu’on travaille sur des données localisées, les unités spatiales utilisées ne sont généralement ni de formes régulières, ni homogènes. Les méthodes de traitement de l’hétéroscédasticité sont aujourd’hui bien connues (Greene, 2000). On peut ainsi utiliser l’approche de White (1980) qui a fourni un estimateur convergent de la matrice des variances-covariances de l’estimateur des MCO en présence d’hétéroscédasticité de forme inconnue pour que l’inférence statistique basée sur les MCO soit asymptotiquement fiable. Alternativement, lorsqu’on choisit une forme particulière pour l’hétéroscédasticité, des tests d’hétéroscédasticité plus puissants que le test de White peuvent être obtenus (tel que le test de Breusch-Pagan, 1979). Pour des données localisées, les spécifications d’hétéroscédasticité les plus utilisées sont l’hétéroscédasticitéen groupes (lorsque la variance des erreurs est différentepour chaque régimespatial) ou encore l’expression de la variance comme une fonction d’un ensemble d’autres variables. En présence d’hétéroscédasticité, les estimateurs fournis par les MCO sont non biaisés mais inefficients. En d’autres termes, l’inférence statistique obtenue à partir des MCOn’est pas fiable, comme par exemple les résultats obtenuspar les tests visant à détecter l’instabilité structurelle.
42Dans cet article, nous considérons uniquement les cas où l’hétéroscédasticité et une certaine forme d’instabilité spatiale des paramètres sont présents conjointement dans une régression. L’instabilité spatiale peut être modélisée, par exemple par la spécification de régimes spatiaux sous la forme (1.4). Pourtant, lorsque l’instabilité spatiale n’est pas complètement prise en compte de cette façon, il peut subsister une hétéroscédasticité qui représente l’hétérogénéité non observée. Ainsi, il est possible qu’une hétéroscédasticité résiduelle semanifeste dansle cadre d’unmodèleavec régimes spatiaux. Nous présentons ce cas dansun premier point. En revanche, la situation est différente dans le cadre du modèle VE dans lequel l’hétéroscédasticité des erreurs est induite par la structure même du modèle. Ce cas est abordé dans un second point.
Régimes spatiaux et hétéroscédasticité
43Reprenons les notations du modèle (1.4) où deux régimes spatiaux sont considérés :

44Quandt (1958) suppose en outre que les termes d’erreurs ont une variance différente pour chaque sous-ensemble
(hétéroscédasticité en groupes) :

où ?12 est la variance associée au premier régime, ?22 est la variance associée au second régime, N1 et N2 sont respectivement le nombre d’observations dans le premier et dans le deuxième régime, avec N N N INi 1 2 + =, étant la matrice identité d’ordre N i i, ,= 1 2.
45Dans ce cas, l’estimation peut être basée sur la fonction de vraisemblance du modèle global qui est de la forme
suivante (en ignorant le terme constant) :

Cette fonction de log-vraisemblance peutêtre modifiéepour tenircomptede structures d’erreurs plus complexes (comme parexemple l’incorporation d’uneautocorrélationspatialedeserreurs, voirinfra, deuxièmepartie).
Variation spatiale continue et hétéroscédasticité
46Certains auteurs (Anselin, 1988a ; Casetti et Can, 1999) ont souligné que la méthode VE était également
susceptible d’être affectée par un problème d’hétéroscédasticité. En effet, dans ce modèle (équations (1.9) à
(1.13)), on a supposé que la forme exacte de l’expansion est connue a priori. Pourtant, en pratique, l’hypothèse
d’une relation exacte (déterministe) entre les coefficients et leurs variables augmentées est difficile à tenir
(Anselin, 1988a). Il est donc plus pertinent de rajouter un terme aléatoire dans l’expansion linéaire (1.11) :

où vi est un terme aléatoire normalement et indépendamment distribué d’espérance nulle et de variance ?v2. La substitution de cette expression dans le modèle initial conduit au modèle terminal suivant :

Soit w le nouveau terme aléatoire : w vx= +?. Cette erreur est normalement et indépendamment distribuée 2 d’espérance nulle et de matrice des variances-covariances V w diag x I v i N ( ) ( )= +? ??2 2 (si les erreurs v et ? sont indépendantes).
47Le modèle final induit donc une certaine forme d’hétéroscédasticité dont il faut tenir compte pour l’inférence statistique, en particulier si l’on cherche à tester la significativité des coefficients ? et ?. Cette forme 12 particulière d’hétéroscédasticité peut être testée avec le test de Breusch-Pagan (1979). Cette approche revient alors à tester la version aléatoire contre la version déterministe de la méthode VE : sous l’hypothèse nulle d’homoscédasticité, on retrouve le modèle (1.13) alors que sous l’hypothèse alternative d’hétéroscédasticité, on retrouve le modèle (1.20).
L’interaction entre autocorrélation et hétérogénéité spatiales
48Outre l’hétérogénéité spatiale, les données localisées sont très souvent caractérisées par un phénomène d’autocorrélation spatiale. L’autocorrélation spatiale se réfère à l’absence d’indépendance entre observations géographiques. Ainsi, une autocorrélation spatiale positive se traduit par une tendance à la concentration dans l’espace de valeurs faibles ou élevées d’une variable aléatoire. En revanche, l’autocorrélation spatiale négative signifie que chaque localisation tend à être entourée par des localisations voisines pour lesquelles la variable aléatoire prend des valeurs très différentes. La présence d’autocorrélation spatiale pour une variable signifie qu’il existe une relation fonctionnelle entre ce qui se passe en un point de l’espace et ce qui se passe ailleurs et peutprovenir de deuxsources différentes. D’une part, elle peutprovenir dufait quelesdonnéessontaffectées par des processus qui relient des lieux différents et qui sont à l’origine d’une organisation spatiale particulière des activités. D’autre part, elle peut également provenir d’une mauvaise spécification du modèle.
49Lorsque les deux effets spatiaux, autocorrélation et hétérogénéité spatiales, sont présents conjointement dans une régression, les méthodes d’estimation et d’inférence présentées dans la section précédente doivent être adaptées. Notre présentation s’organise en trois points. Tout d’abord, nous montrons comment l’autocorrélation spatiale et l’hétéroscédasticité sont nécessairement liées dans les principaux modèles destinés à capter l’autocorrélation spatiale. Ensuite, nous détaillons les autres liens qui unissent les deux effets. Enfin, nous présentonsla façon dont lestestsd’hétéroscédasticité etd’instabilité structurelledoiventêtre modifiéspour tenir compte de l’autocorrélation spatiale lorsqu’elle est présente.
Autocorrélation spatiale et hétéroscédasticité
50Plusieurs types de modèles permettent de capter ce phénomène (Le Gallo, 2002a, 2002b). Nous rappelons ici brièvement les deux principaux modèles utilisés dans la littérature.
51Le premier est le modèle spatial autorégressif d’ordre 1 qui s’écrit :

où N est le nombre d’observations, y est le vecteur (N,1) des observations de la variable dépendante, X est la matrice (N, K) des observations des variables exogènes, K étant le nombre de paramètres inconnus, ? est le vecteur (K,1) des coefficients de régression inconnus, ? est le vecteur (N,1) tel que ? iid (0, ?2 IN ), W est la matrice de poids et ? est le paramètre spatial autorégressif indiquant l’intensité de l’interaction spatiale existant entre les observations de y.
52La matrice de poids W permet de spécifier l’autocorrélation spatiale. Il s’agit d’une matrice carrée, de dimension N, où chaque terme w représente la façon dont la région i et la région j sont connectées spatialement. Par ij exemple, dans le cas d’une matrice de contiguïté, chaque terme de cette matrice est égal à 1 si les régions possèdent une frontière commune et 0 sinon. D’autres spécifications font intervenir des mesures de distance entre les observations. Cette matrice de poids est souvent standardisée : chaque élément wij de la matrice est divisé par la somme totale de chaque ligne.
53Le modèle (2.1) est habituellement estimé par la méthode du maximum de vraisemblance ou la méthode des
variables instrumentales. Si la matrice (I W?? ) est inversible, il se réécrit sous forme réduite de la façon
suivante :

Posons u I W= ?? ( )? ? 1. La matrice de variances-covariances de u s’écrit alors : De (2.3), il s’ensuit que les éléments de la diagonale de V(u) ne sont pas constants, ce qui implique l’hétéroscédasticité des erreurs u, que ? soit hétéroscédastique ou non.

54Le second est le modèle avec autocorrélation spatiale des erreurs :


Le paramètre ? reflète l’intensité de l’interdépendance entre les résidus et u est le terme d’erreur tel que : u idd (0,?2 IN ). Le modèle (2.4) s’estime habituellement par la méthode du maximum de vraisemblance ou la méthode des moments généralisés.
55Si la matrice (I W?? ) estinversible, alors la matrice des variances-covariances du terme d’erreur ? s’écrit de la
façon suivante :

À nouveau, cette formulation (2.5) indique que les erreurs ? sont hétéroscédastiques (McMillen, 1992). Hétéroscédasticité et autocorrélation spatiales sont donc toujours liées dans les principaux modèles destinés à capter l’autocorrélation spatiale. Plus généralement, d’autres liens unissent encore hétérogénéité et autocorrélation spatiales.
Les liens entre hétérogénéité et autocorrélation spatiales
56Lacomplexitédulien entreautocorrélation spatialeethétérogénéitéspatialese retrouve àplusieurs niveaux.
57Premièrement, il n’est pas toujours facile de distinguer les conséquences de l’autocorrélation de celles de l’hétérogénéité spatiales dans une coupe transversale : une équivalence observationnelle entre ces deux effets peut exister (Anselin et Bera, 1998; Anselin, 2000). Par exemple, l’observation d’un regroupement spatial de valeurs très élevées des erreurs estimées peut provenir d’une hétérogénéité (qui se manifeste par exemple sous la forme d’une hétéroscédasticité en groupes) ou une d’autocorrélation spatiale (c’est-à-dire un processus stochastique impliquant le regroupement de points extrêmes).
58Deuxièmement, les tests pour l’hétéroscédasticitéet pourl’instabilitéstructurelle nesontpas fiables enprésence d’autocorrélation spatiale. Des simulations de Monte-Carlo effectuées par Anselin et Griffith (1988) montrent, par exemple, que la présence d’autocorrélation spatiale des erreurs affecte le seuil et la puissance des tests de White (1980) etde Breusch-Pagan(1979). Enparticulier, sous l’hypothèsenulle d’absenced’hétéroscédasticité, les fréquences empiriques de rejet du test de White et de Breusch-Pagan sont inférieures au niveau de significativité choisi en présence d’autocorrélation spatiale. Les puissances des tests sont également affectées : elles diminuent pour des valeurs positives du paramètre spatial. Réciproquement, les tests d’autocorrélation spatiale voient leurs propriétés affectées lorsqu’il y a hétéroscédasticité de forme inconnue. Le test de Chow, permettant de tester l’instabilité structurelle et basé sur les résidus de l’estimation par les MCO, est également affecté par la présence d’autocorrélation spatiale des erreurs, particulièrement dans le cas de régimes correspondant à deux ensembles compacts d’unités spatiales contiguës (configuration de type Est-Ouest ou Nord-Sud par exemple). Les simulations de Monte-Carlo réalisées par Anselin (1990a) montrent, en effet, que dans ce cas l’hypothèse nulle d’homogénéité régionale est trop souvent rejetée pour des valeurs positives du paramètre spatial alors que la puissance du test augmente presque exponentiellement. La présence jointe d’hétéroscédasticité et de dépendance spatiale nécessite donc des tests spécialisés et des méthodes d’estimation adaptées (Anselin, 1988a, 1988b).
59Troisièmement, l’autocorrélation spatiale est parfois le résultat d’une instabilité des paramètres non modélisée (Brundson et alii, 1999). En d’autres termes, si des relations variables dans l’espace sont modélisées à l’aide d’une régression “ globale ” (spécifiée de la même façon pour toutes les observations), les termes d’erreurs peuvent être spatialement autocorrélés.
60Par exemple, supposons une zone géographique pour laquelle y est régressé sur x et que le modèle global estimé
qui en résulte est :

Supposons que la vraie relation n’est pas la même dans les deux régions de cette zone :


61Dans ces conditions, appliquer l’équation (2.6) à la partie de la zone pour laquelle l’équation (2.7a) est valable conduit à la sous-estimation des valeurs de y dans cette zone et des erreurs estimées positives (pour des valeurs i positives de x ). Réciproquement, appliquer l’équation (2.6) à la partie de la zone pour laquelle l’équation (2.7b)
62i est valable conduit à la surestimation des valeurs de y dans cette région et des erreurs estimées négatives. Une i forte autocorrélation spatiale des erreurs apparaît donc, résultant de l’incapacité du modèle global à traiter l’instabilité structurelle de la relation.
63Dans le même ordre d’idée, la modélisation de l’hétérogénéité par l’utilisation de variables augmentées est susceptible d’éliminer l’autocorrélation spatiale des erreurs estimées du modèle initial (Jones, 1983, Casetti et Jones, 1988). Anselin (1988a) et Anselin et Griffith (1988) montrent en effet que, si des variables augmentées sont omises à tort, le test de l’autocorrélation spatiale de Moran, basé sur les erreurs estimées du modèle initial mal spécifié, peut indiquer à tort la présence d’autocorrélation spatiale.
64Tousces élémentssuggèrentqueles liens entrehétérogénéitéetautocorrélation spatiales sont forts etcomplexes. Les deux aspects ne peuvent pas être considérés indépendamment l’un de l’autre et ils doivent être spécifiés précisément pour pouvoir identifier les paramètres du problème et tester chaque type de mauvaise spécification. Par la suite, nous présentons la façon dont les tests d’hétéroscédasticité et d’instabilité structurelle doivent être adaptés à la présence d’autocorrélation spatiale [8].
Le test de l’hétéroscédasticité en présence d’autocorrélation spatiale
65En présence d’autocorrélation spatiale, les propriétés des tests d’hétéroscédasticité ne sont plus valables et, face à ce problème, deux stratégies sont possibles (Anselin, 1988a, 1988b).
66La première stratégie consiste tout d’abord à faire un test joint d’hétéroscédasticité et d’autocorrélation spatiale des erreurs et ensuite, si l’hypothèse nulle est rejetée, à tester séparément ces deux effets.
67Formellement, considérons le modèle avec autocorrélation spatiale des erreurs et hétéroscédasticité sur le terme
d’erreur résiduel :

où lesélémentsde ladiagonaleprincipalede? sontde la formesuivante :? ? ? ? ? i i p Pi f z z 2 2 0 1 1 = + +( ... ).
68Ce modèle peut s’estimer avec la méthode du maximum de vraisemblance. L’hypothèse jointe est H 0 : ? = et
0 ?j j P= =0 1, ,... dans (2.8). La statistique du multiplicateur de Lagrange est la suivante (Anselin, 1988a) [9] :

où Z est la matrice (N, ), f est le vecteur (N, 1) comportant les P + 1) comportant les observations sur (1, z i observations sur f T tr W W W i i = ? = + ? ( $ $ ) , {( ' ) }, $ * ? ? ? 1 1 et $?2 sont respectivement les erreurs estimées et la variance estimée du modèle de régression standard estimé par les MCO. Cette statistique converge asymptotiquement vers une loi du chi-deux à P + 1 degrés de liberté.
69Dans ces conditions, un rejet de l’hypothèse nulle jointe doit être suivi par un test de chacun des deux cas particuliers. Cette approche séquentielle a fait l’objet d’une simulation par Anselin et Griffith (1988). Il apparaît que la puissance du test JLM est meilleure que les tests individuels lorsque autocorrélation spatiale et hétéroscédasticité sont présentes conjointement. En revanche, la deuxième étape, consistant à faire les tests individuels si l’hypothèse nulle du test joint est rejetée, ne fournit pas de bons résultats [10]. Une stratégie alternative s’avère donc nécessaire.
70La seconde stratégie consiste à effectuer un test d’hétéroscédasticité en présence d’autocorrélation spatiale des
erreurs. On teste donc H 0 : ? =, j = 1,...P dans (2.8). Par conséquent, sous l’hypothèse nulle, ce modèle
j0 devient un modèle homoscédastique avec autocorrélation spatiale des erreurs (2.4). Sous l’hypothèse nulle, la
statistique du test (noté BPS comme “ Breusch-Pagan Spatial ”) s’écrit de la façon suivante :

avec : D I dVd N N( , ) ( / $ ) $ '= ? 1 24 ?, d S w w N N( , ) ( , ) [ $ ], 2 2 1 2= ? est le vecteur composé des éléments diagonaux de W I W VN N ( $ ) , $( , ) ?? ?1 est la matrice estimée des variances-covariances pour $?2 et $?. Cette statistique converge asymptotiquement vers une loi du chi-deux à P degrés de liberté.
71Ce test s’effectue après avoir estimé le modèle avec autocorrélation des erreurs (2.4) alors que le test précédent (2.9) pouvait s’effectuer à partir des erreurs estimées des MCO du modèle de régression standard. Un test de Breusch-Pagan spatialement ajusté peut aussi être dérivé pour le modèle avec variable endogène décalée et hétéroscédasticité. Cependant, les propriétés de ces deux tests en échantillon fini ne sont pas connues.
Le test de l’instabilité des paramètres en présence de dépendance spatiale
72Lorsque les hypothèses d’homoscédasticité et de non-corrélation ne sont pas vérifiées dans les modèles ANOVA (1.3), TSA(1.7) et VE (1.12), les MCO fournissent des estimateurs non convergents (cas d’une variable spatiale autorégressive) ou inefficients (cas d’une autocorrélation spatiale des erreurs). Par exemple, s’il y a autocorrélation spatiale positive des erreurs dans un modèle ANOVA spatial (1.3), la variance intra-groupe est sous-estimée et l’hypothèse nulle d’égalité entre les moyennes des différentes zones géographiques est rejetée trop souvent (Cliff et Ord, 1981; Legendre et alii, 1990; Sokal et alii, 1993). Il faut donc estimer le modèle (1.3) grâce à une méthode adaptée dans le but d’ajuster les sommes des carrés associés aux variances intra- et inter-groupe (Griffith, 1978). D’une façon générale, il faut tester dans ce modèle ainsi que dans les autres modèles d’instabilité des paramètres la présence d’hétéroscédasticité et d’autocorrélation spatiale et si nécessaire les estimer par des méthodes appropriées (Griffith, 1978,1992).
73Dansle casdes régimes spatiaux etsous l’hypothèse d’homoscédasticité, le testde Chow, basé sur une statistique F, permet de tester l’instabilité structurelle. En revanche, la présence d’autocorrélation spatiale nécessite son adaptation (Anselin, 1990a).
74Formellement, reprenons les notations du modèle (1.4) avec deux régimes :

75Soit ?=? ? [ ] '1 2 et ? sa matrice des variances-covariances : ? =? (??'). On veut tester l’hypothèse
? '
d’homogénéité régionale, soit : H : ? ?=. La forme de la statistique du test dépend des hypothèses faites sur
0 1 2 les erreurs. Lorsque la variance est constante sur l’ensemble des observations, le test traditionnel de Chow
s’applique. En revanche, lorsque les erreurs ne sont pas homoscédastiques, le test d’instabilité structurelle doit
être établi sur des bases asymptotiques. Pour ? ?=?2, l’expression correspondante est :

où $ec est le vecteur des erreurs estimées du modèle contraint et $e celui du modèle libre. Cette statistique suit L asymptotiquement une loi du chi-deux à K degrés de liberté, K étant le nombre de paramètres du modèle. De la même manière, on peut effectuer ce test sur chacun des coefficients du modèle.
76L’encadré 1 résume les principaux cas combinant instabilité structurelle, hétéroscédasticité et autocorrélation spatiale.
77En pratique, Anselin (1990a) suggère de commencer par effectuer un test destiné à détecter la présence d’autocorrélation spatiale. Différents tests et différentes règles de décision ont été proposés permettant de déterminer la forme prise par l’autocorrélation spatiale : autocorrélation des erreurs ou variable endogène décalée (Anselin et alii, 1996 ; Le Gallo, 2002a, 2002b). S’il existe une forte indication d’autocorrélation spatiale, plus particulièrement pour des valeurs positives et des régimes correspondant à des observations compactes et contiguës, les techniques standard ne sont pas fiables et d’autres méthodes d’estimation doivent être mobilisées (méthodedumaximum devraisemblance, méthodedesvariables instrumentalesoudesmoments généralisés). Cette approche empirique peut cependant poser des problèmes de pretest, qui invalident la distribution asymptotique usuelle des différents tests. Dans ces conditions, il est prudent de choisir des niveaux de significativité restrictifs pour les tests.
Encadré 1 : instabilité structurelle, hétéroscédasticité et autocorrélation spatiale
Dans ce cas, la matrice des variances-covariances de ? s’écrit :

Lorsque l’autocorrélation spatiale est présente dans les erreurs, quatre situations différentes peuvent être distinguées selon la structure de la variance? dans le modèle [1.4]. Dans les deux premières, la dépendance des erreurs est reliée au système spatial complet alors que dans les deux dernières, la structure de la dépendance spatiale est différente pour chaque régime.
2ème cas : homoscédasticité et autocorrélation spatiale
Supposons une autocorrélation spatiale autorégressive pour le terme d’erreur complet ? :

où ? est le paramètre autorégressif et u un vecteur de termes d’erreurs indépendants. Soit B I W= ?( )?. On a alors?=? B u 1. Si les erreurs u sont homoscédastiques, soit E uu I( ')=?2, la matrice des variances-covariances de ? prend alors la forme :

3ème cas : hétéroscédasticité en goupes et autocorrélation spatiale
Reprenons la structure [2] pour ? mais supposons le modèle hétéroscédastique où chaque régime possède une variance des erreurs différentes. Dans ce cas, la matrice des variances-covariances pour u devient :

4ème cas : processus spatiaux différents entre sous-groupes indépendants
Lorsque la structure de dépendance spatiale est différente pour chaque sous-régime, les erreurs?1 et?2 dans [1.4] suivent chacune un processus spatial différent, reflétés par les matrices de poids W1 et W2 respectivement :

où ?1 et ?2 sont les coefficients spatiaux pour chaque régime.
Supposons tout d’abord que les erreurs des deux sous-régimes sont indépendantes : E u u h k [ ] 1 2 0= pour tout (h, k) appartenant aux deux sous-régimes. Alors la matrice des variances-covariances de chaque sous-régime est de la forme :?i i i B B=? ?12 1 ( ) 'pour i = 1, 2. La matrice des variances-covariances totale s’écrit :

5ème cas : processus spatiaux différents entre sous-groupes dépendants
Reprenons la structure [5] pour les erreurs. Lorsqu’il y a autocorrélation spatiale à la fois à l’intérieur et entre les différents régimes, alors les erreurs entre les deux sous-régimes ne sont plus indépendantes : E u u h k [ ] 1 2 12 =?. Dans ce cas, la variance totale est de la forme :

où S est le vecteur somme.
Une illustration
78Le modèle étudié ici est destiné à illustrer certaines des techniques présentées dans cet article. Ce modèle relie le nombre de délits (vols et cambriolages) au revenu et aux valeurs immobilières. Une partie des résultats est disponible dans Anselin (1988a, 1990a) mais nous avons produit d’autres résultats à partir des logiciels SpaceStat 1.90 (Anselin, 1999) et Arc-View ©3.2 [11]. Comme le souligne Anselin (1988a), il ne s’agit pas de fournir une explication aux schémas spatiaux des délits mais d’illustrer l’interaction entre autocorrélation et hétérogénéité spatiales.
79L’échantillon est composé de 49 observations pour 1980 sur des census tracts à Columbus, une ville de l’Ohio.
Ceszones sont représentéessurlafigure 1. La variable DELITestle nombre decambriolages et devolsde voiture
par millier de ménages dans la zone. La variable de revenu (REV) et celle de valeurs immobilières (IMMO) sont
exprimées en milliers de dollars :

Dans cet exemple, la dépendance spatiale est prise en compte à travers une matrice de contiguïté d’ordre 1 standardisée.
Les effets spatiaux dans le modèle simple
80La première étape consiste à estimer le modèle simple reliant le crime au revenu et aux valeurs immobilières. Les résultats de l’estimation de (3.1) sont donnés dans la première colonne du tableau 1. Tous les coefficients sont significatifs, à l’exception de c qui n’est pas significatif lorsqu’on applique la correction de White. Le test de Jarque-Bera ne permet pas de rejeter l’hypothèse de normalité. Par conséquent, la validité de l’estimation par le maximum de vraisemblance et du calcul des tests du multiplicateur de Lagrange sont assurés. Les tests suivants concernent des diagnostics pour l’autocorrélation spatiale des erreurs et l’hétéroscédasticité. Le test joint JLM indique la présence jointe de ces deux effets et donc des sources multiples de mauvaise spécification du modèle sont donc présentes :
- concernant l’autocorrélation spatiale, si l’on applique la règle de décision de Anselin et Florax (1995) [12],
l’étude de la significativité des différents tests nous conduit à choisir un modèle autorégressif avec variable
endogène décalée W_DELIT :
- concernant l’hétéroscédasticité, le test de White indique une hétéroscédasticité générale. Pour chercher à préciser la cause de cette hétéroscédasticité, nous avons effectué le test de Breusch-Pagan associé à plusieurs variables : les variables initiales REV et IMMO, la variable associée à l’aire de chaque voisinage, des variables dichotomiques Est-Ouest, Nord-Sud, centre-périphérie. De toutes ces variables, seul le test de Breusch-Pagan associé à la variable Est-Ouest (EO) permet de rejeter l’hypothèse nulle d’homoscédasticité. Ce résultat est confirmé par l’examen de la carte des résidus du modèle (3.1) où l’on observe que les résidus positifs se situent principalement au centre et à l’est de la ville.
résidus du modèle [3.1]

résidus du modèle [3.1]
81Ces résultats indiquent l’existence d’une autocorrélation spatiale sous la forme d’une variable endogène décalée ainsi que l’existence d’une hétérogénéité spatiale sous la forme d’une hétéroscédasticité en groupes et/ou d’une instabilité structurelle associée à deux régimes spatiaux Est-Ouest. Par conséquent, toute l’inférence statistique basée sur l’estimateur des MCO n’est pas fiable. Ainsi, les tests d’hétéroscédasticité doivent être interprétés avec prudence compte tenu de la présence d’autocorrélation spatiale. Inversement, les tests d’autocorrélation spatiale ne sont pas fiables en présence d’hétéroscédasticité.
estimation du modèle simple

estimation du modèle simple
82Avant de considérer le problème de l’hétéroscédasticité, nous traitons tout d’abord le problème de l’autocorrélation spatiale. Nous avons estimé (3.2) par la méthode du maximum de vraisemblance. Les résultats se trouvent dans la deuxième colonne du premier tableau. Tous les coefficients sont hautement significatifs, y compris la variable endogène décalée, ce qui indique une forte concentration spatiale du nombre de crimes. Les coefficients structurels sont similaires à ceux estimés par les MCO mais plus petits en valeur absolue. Le modèle estmeilleurque le précédent entermes des critères d’information(critère AIC d’Akaïke et BICde Schwartz) et le test LMERR* ne permet pas de rejeter l’absence d’une autocorrélation spatiale des erreurs supplémentaires. En revanche, le test de Breusch-Pagan (BP) et sa version ajustée de l’autocorrélation spatiale (BPS) indiquent qu’il subsiste une certaine forme d’hétéroscédasticité liée à la localisation des zones dans l’est ou dans l’ouest de Columbus.
Régimes spatiaux et hétéroscédasticité en groupes
83Les résultats précédents indiquent la présence d’une hétérogénéité spatiale discrète, sous la forme de deux régimes spatiaux est-ouest. Cet aspect peut être considéré sous la forme d’une hétéroscédasticité en groupes et/ou d’une instabilité structurelle entre les deux régimes.
84Formellement, soit les deux variables muettes suivantes :



85Les résultats sont fournis dans les deux premières colonnes du tableau 2. Tous les coefficients sont significatifs à l’exception de celui associé à IMMO à l’est. Le test du ratio de vraisemblance portant sur l’égalité des variances indique que l’hypothèse de variances différentes par régimes ne peut pas être rejetée. En revanche, le test de Chow asymptotique (test de Wald) portant sur l’instabilité structurelle ne permet pas de rejeter l’hypothèse de coefficients identiques pour les deux régimes. Concernant les tests individuels, seul le coefficient associé à IMMO peut être considéré comme différent selon le régime. Pourtant, l’inférence statistique faite sur ce modèle n’est pas fiable puisque les derniers tests fournis dans le tableau indiquent l’omission à tort de l’autocorrélation spatiale sous la forme d’une variable endogène décalée.
86Le dernier modèle estimé est alors le modèle (3.5) incluant une variable autorégressive :


87La prise en compte de l’autocorrélation spatiale modifie substantiellement certains des résultats précédents. En particulier, le coefficient associé à REV dans l’ouest n’est plus significatif. Certains tests d’instabilité structurelle basculent également : le test global devient significatif ainsi que le test individuel sur REV (à 10%). On obtient donc un schéma spatial distinct dans les deux régimes : à l’est, c’est le revenu qui influence le plus le nombre de crimes commis alors qu’à l’ouest, ce sont les valeurs immobilières qui jouent le rôle le plus important. Les variances sont toujours différentes d’un régime à l’autre et le coefficient spatial autorégressif est hautement significatif. Enfin, ce modèle est le meilleur du point de vue des critères d’information.
régimes spatiaux et hétéroscédasticité en groupes

régimes spatiaux et hétéroscédasticité en groupes
Conclusion
88L’objectif de cet article était d’examiner les méthodes permettant de prendre en compte l’hétérogénéité spatiale sous la forme d’une instabilité des paramètres et/ou d’une hétéroscédasticité et d’examiner dans quelle mesure les tests traditionnels d’hétéroscédasticité ou d’instabilité structurelle doivent être amendés pour tenir compte d’une autocorrélation spatiale.
89La présence simultanée d’autocorrélation spatiale et d’hétérogénéité spatiale dans un modèle est très fréquente compte tenu des nombreux liens qui unissent ces deux effets. Ce cas de figure nécessite des méthodes d’estimation etd’inférenceadaptéescarles tests traditionnels d’hétéroscédasticitéet d’instabilitéstructurelle ne peuvent plus être appliqués. D’une part, si l’on utilise une forme particulière d’hétéroscédasticité, il est possible de tester conjointement ou séparément les deux effets spatiaux. D’autre part, le test de Breusch-Pagan ainsi que le test de Chow traditionnel doivent tous deux être amendés pour tenir compte d’une éventuelle autocorrélation spatiale des erreurs.
90Cependant, au contraire du cas où seule l’autocorrélation spatiale est envisagée, il n’existe pas à l’heure actuelle de règles de décision permettant de choisir entre les différents modèles combinant les deux effets spatiaux. En outre, les propriétés de plusieurs de ces tests en échantillon fini (biais et puissance) ne sont pas encore bien connues.
Notes
- (*)LEG UMR-CNRS 5118, Université de Bourgogne. e-mail : jjulie. legallo@ u-bourgogne. frou llegallo@ u-bordeaux. 4. fr L’auteur remercie C. Baumont, C. Ertur, R. Guillain, M.-C. Pichery ainsi que deux rapporteurs anonymes pour leurs commentaires et suggestions. L’auteur reste seule responsable des insuffisances que pourrait comporter ce texte. Économie et Prévision n°162 2004-1
- (1)On entend par zone géographique un point ou encore une aire géographique, comme des régions ou des pays.
- (2)La généralisation à G sous-groupes est immédiate.
- (3)Tout autre système de coordonnées est également valable. Il est à noter que l’utilisation de Systèmes d’Information Géographique permet maintenant d’obtenir des coordonnées d’une grande précision.
- (4)Dans le cadre des modèles hédoniques, Des Rosiers et Thériault (1999) ont développé une stratégie d’estimation et de tests combinant autocorrélation spatiale et variables polynomiales tout en évitant les problèmes de multicolinéarité.
- (5)Comme précédemment, on peut également supposer la constante variable pour chaque observation.
- (6)Casetti et Jones (1988) proposent dans ce cas de remplacer les variables augmentées initiales par leurs composantes principales (méthode VE orthogonale).
- (7)Voir Casetti et Jones (1992) pour les différentes applications de cette méthode dans un cadre spatial ou non.
- (8)Des tests d’autocorrélation spatiale en présence d’hétéroscédasticité de forme connue ou inconnue ont été proposés par Anselin (1990a, 1990b) mais sont rarement utilisés.
- (9)Ce test est la somme de la statistique de Breusch-Pagan et de la statistique LMERR, la statistique du multiplicateur de Lagrange associée au test de l’autocorrélation spatiale des erreurs.
- (10)Kelejian et Robinson (1998) proposent une autre formulation de ce test qui n’est pas basé sur le principe du maximum de vraisemblance et qui n’exige pas a priori un modèle linéaire, des erreurs normales et une forme d’hétéroscédasticité connue. Des simulations de Monte-Carlo effectuées par les deux auteurs sur les performances de ces différents tests suggèrent que le test JLM et le test de Kelejian et Robinson sont relativement puissants qu’il y ait ou non de l’hétéroscédasticité, pour détecter au moins un des deux problèmes : autocorrélation spatiale ou hétéroscédasticité. Si l’hypothèse nulle est rejetée, un test pour chaque cas doit être effectué afin de déterminer l’origine du rejet.
- (11)Cette base de données a été très souvent utilisée pour illustrer les différentes propriétés des modèles d’économétrie spatiale (Anselin, 1988a, 1990a; Getis, 1995; LeSage, 1999; Baltagi et Li, 2001). Par rapport aux études citées, l’illustration se distingue par une étude complète de l’hétérogénéité spatiale. Notons cependant que la taille réduite de l’échantillon et les possibles problèmes d’endogénéité de la variable explicative représentant les valeurs immobilières pourraient conduire à remettre en cause les résultats. Cependant, cet exemple reste purement illustratif des techniques présentées dans l’article et n’a pas pour objectif une étude des déterminants économiques du taux de criminalité.
- (12)Une présentation détaillée de ces règles de décision se trouve dans Le Gallo (2002a, 2002b).