La fonction de corrélation est en apparence un indicateur très simple, bien défini, qui est directement lié aux prédictions théoriques. Malheureusement, un certain nombre de pièges limitent la significativité des résultats. Je vais présenter ici quelques problèmes existant dans le cadre de la distribution des galaxies; je décrirai les questions liées à la corrélation des amas dans le sixième chapitre.
La fonction de corrélation angulaire à deux points a été mesurée par Groth & Peebles (1977) sur le catalogue de comptages de Lick et, plus récemment, par Maddox et al. (1990) sur le catalogue APM. Ils trouvent
Les deux catalogues ont des profondeurs différentes. Quand on
reporte la de l'APM à la profondeur du Lick grâce à
la relation (
), il y a un bon accord jusqu'à
,
échelle à laquelle la
du Lick s'écarte nettement
d'une loi de puissance.
La fonction de corrélation spatiale des galaxies a été mesurée sur le catalogue CfA par Davis & Peebles (1983): ils ont trouvé qu'elle est compatible avec une loi de puissance:
où
Mpc et
, jusqu'à 10
Mpc .
Ces paramètres ont un sens physique si l'on fait l'hypothèse que
l'échantillon étudié est un fair sample de l'Univers, c'est
à dire que ses propriétés statistiques sont représentatives
des propriétés statistiques moyennes de l'Univers; en particulier, il
doit être possible de définir une densité moyenne de l'Univers.
Si l'Univers était un fractal homogène (voir le premier chapitre),
la densité serait une fonction décroissante de l'échelle,
et il serait impossible de définir une densité moyenne; en outre,
il n'y aurait pas d'échelle privilégiée, et la longueur de
corrélation serait simplement proportionnelle à la profondeur
de l'échantillon. C'est ce que certains auteurs ont prétendu mettre en
évidence (voir Coleman & Pietronero, 1992, qui soutiennent cette opinion
dans un article intéressant et ``hérétique") mais, comme on l'a déjà
dit, le comportement des corrélations angulaires, ou l'isotropie du
fond diffus, infirment cette hypothèse.
Récemment certains auteurs ont prétendu qu'en réalité c'est
la fonction qui suit deux lois de puissance différentes, l'une
aux échelles inférieures à
Mpc , l'autre aux échelles
supérieures à
3
Mpc , avec
à 35
Mpc \
(Guzzo et al., 1991; Calzetti et al., 1992). Ce fait, selon ces auteurs,
indiquerait l'existence de deux régimes, l'un non-linéaire aux petites
échelles,
l'autre linéaire aux plus grandes échelles, reflètant
le spectre de fluctuations primordiales.
Mis à part le problème des erreurs associées et le fait que si
la fonction de corrélation suit une loi de puissance,
peut être approximée en échelle logarithmique par deux lignes
droites, le problème posé par cette interprétation est
que la géométrie des structures dans un échantillon
affecte la pente de la fonction de corrélation; par exemple un filament donne
, et une structure plane donne
(l'analyse de Guzzo et al.
a été conduite sur le catalogue de Pisces-Perseus, un Superamas
de forme filamentaire).
Dekel & Aarseth (1984), analysant la corrélation du catalogue CfA
(qui contient l'amas de Coma), avaient par ailleurs déjà remarqué
un changement de pente de
à 3 Mpc
Mpc , qu'ils interprétaient
comme le passage de l'échelle des amas à l'échelle où les
structures planes étaient prédominantes.
En outre, le fait que nous ne disposons pas des distances des galaxies, mais de leurs vitesses radiales pose un problème supplémentaire. En présence de vitesses propres très grandes, la distribution tridimensionnelle aura une certaine distortion. Cela est évident dans l'effet dit du ``doigt de Dieu", où la dispersion des vitesses des galaxies dans un amas provoque un étalement des galaxies le long de la ligne de visée. On peut alors calculer séparemment les composantes radiale et projetée de la fonction de corrélation; si la composante radiale est plus grande, cela peut indiquer un effet de distortion.
Une autre complication survient lors de
la normalisation de la fonction de corrélation; le problème peut
être résumé par la question suivante: quelle est la densité
moyenne des galaxies
(ou des amas) dans l'Univers? Il est clair qu'il faudrait connaître la
densité réelle de l'Univers pour pouvoir comparer deux catalogues
différents; pour les galaxies on estime la densité moyenne
à partir de la fonction de luminosité de Schechter, qui est
supposée être universelle, mais par exemple pour les catalogues d'amas,
on doit utiliser la densité estimée du catalogue, .
L'effet résultant est qu'on peut introduire une anti-corrélation
artificielle à grande échelle. En fait, le nombre total de voisins
d'un objet donné est:
où n est la densité moyenne, le volume
totale de l'échantillon, et R le rayon qui inclut tout le volume.
Si on prend , on a
ce qui implique qu'à une certaine échelle la mesurée doit
devenir négative.
Dans le cas d'un catalogue limité en magnitude ou en diamètre apparents,
il faut aussi estimer la fonction de sélection des objets.
Dans certains cas
on doit tenir compte d'une sélection inhomogène d'objets en fonction
de la distance zénithale, ou de la déclinaison , ou de
la latitude galactique
.
Plus généralement, avec une sélection en magnitude apparente (flux) ou
en diamètre apparent on perd de plus en plus d'objets intrinsèquement
moins brillants lorsque l'on augmente la profondeur.
Pour corriger cet effet on peut
tabuler la densité observée en fonction du décalage vers le rouge
, et distribuer les objets du catalogue aléatoire utilisé pour
calculer
avec une probabilité décroîssante,
suivant le comportement de la densité observée.
Une autre technique consiste à redistribuer les décalages vers le rouge des objets
observés aux objets du catalogue aléatoire, mais
avec un lissage gaussien, pour éviter de reproduire les structures
à petite échelle du catalogue réel.
L'estimation des erreurs est un autre point fondamental pour la comparaison d'un échantillon avec un autre ou avec la prédiction d'un modèle théorique. Les erreurs poissoniennes sous-estiment l'erreur réelle, car les paires d'objets sur lesquelles on mesure la fonction de corrélation ne sont pas indépendantes. La technique de bootstrap est sans doute plus réaliste: elle utilise le catalogue des objets observés pour générer des pseudo-catalogues dont les objets sont tirés au hasard à partir du catalogue réel.