En 1978, Joêver, Einasto & Tago ont proposé que la distribution à grande échelle des galaxies pouvait être representée comme un ensemble de filaments séparés par de vides et connectant les amas de galaxies. La vision d'un univers peuplé par de grandes structures et grands vides a bientôt été confirmée par la découverte du vide du Bouvier (Kirshner et al., 1981) et par le survey à 21cm du superamas de Pisces-Perseus (Gregory et al., 1981; Haynes & Giovanelli, 1986; Giovanelli et al., 1986).
Les catalogues CfA et SSRS ont montré l'importance des surveys des galaxies
pour la compréhension de la structure de l'Univers et de son évolution.
Jusqu'aux échelles de l'ordre de 50 Mpc on n'arrive pas à observer
une distribution homogène pour les galaxies. La question qui se pose est
alors, où l'homogénéité est-elle atteinte? À quelle échelle peut-on
dire avoir un ``fair sample"? Si des structures existent à des échelles
beaucoup plus grandes, les théories standard CDM de formation
des galaxies vont forcement en crise.
En plus, récemment un autre aspect surprenant de la distribution des galaxies
a été découvert: Broadhurst et al. (1990) ont observé une
périodicité de
Mpc en coordonnées comobiles, dans deux
pinceaux centrés sur les pôles galactiques nord et sud.
Plusieurs auteurs ont étudié la signification
statistique de cette periodicité. Dekel et al. (1992) trouvent par
exemple que l'hypothèse de fluctuations gaussiennes avec une échelle
caractéristique de 100
Mpc (une échelle naturelle pour un univers ouvert,
) dans le spectre de puissance, peut produire
des structures présentant la periodicité observée dans quelque
pour-cent
des cas, mais ils affirment que si l'on devait observer d'autres
structures avec cette periodicité, les fluctuations gaussiennes pourraient
être rejetées avec un plus haut degré de confiance.
Le problème reste donc ouvert, montrant la nécessité d'aller plus loin dans l'étude des structures à grande échelle, en construisant des catalogues plus étendus et plus profonds.
Un autre problème ouvert concerne l'évolution en
luminosité des galaxies.
Il est aujourd'hui reconnu que les comptages
de galaxies en fonction de la magnitude apparente sont amplement supérieurs
aux prédictions des modèles cosmologiques standard (Tyson, 1988).
Une solution naturelle à ce problème consiste à construire
un modèle
d' évolution en luminosité pour les galaxies. Or, si cette évolution est à peu
près la même pour toutes les galaxies,
la distribution des galaxies en fonction du décalage vers le rouge devrait
montrer un excès de galaxies à des décalages vers le rouge élevés
lorsqu'il y a évolution. Paradoxalement, des résultats
recents (LDSS survey, Colless et al., 1990) montrent que jusqu'à une
magnitude limite on ne trouve pas de galaxies au delà d'un
certain seuil (
), et la distribution des galaxies en fonction
du décalage vers le rouge
est même compatible avec une hypothèse de non-évolution!
Pour expliquer ce fait il a été suggeré que l'évolution des galaxies
pourrait dependre de la luminosité, et que les galaxies les
plus faibles auraient l'évolution la plus rapide (l'existence d'une population
de galaxies naines à de petits décalages vers le rouge est par ailleurs
confirmée par un récent travail de Tresse et al., 1993).
Le merging pourrait avoir un rôle très important (Rocca-Volmerange
& Guiderdoni, 1990; Guiderdoni, 1993).
L'hypothèse peut être raisonnable, mais il est clair que nous sommes confrontés à toute une série de difficultés, du fait que la fonction de luminosité (sa forme et surtout la normalisation) est connue avec beaucoup d'approximations dans sa partie faible. Ceci traduit bien la nécessité de travailler sur des catalogues de galaxies encore plus profonds et plus fournis.
C'est dans ce but que le key-programme que je vais décrire a été conçu (Vettolani et al., 1992a et 1992b; voir l'appendice).
Le programme clé a pour titre A Galaxy Redshift Survey over a
Fair Sample of the Universe et il est le fruit d'une collaboration entre
les observatoires de Bologne, Edinbourgh, Paris-Meudon et Milan. Son
objectif est d'obtenir les décalages vers le rouge des galaxies dans une
région rectangulaire du ciel de 40 degrés carrés
(; plus une région à une distance de
de dimensions
dans la région du Pole Galactique
Sud) avec le spectrographe multifibre
OPTOPUS au télescope
de 3.6m de l'ESO à La Silla.
La magnitude limite choisie
correspond à une profondeur
effective de 600
Mpc (
).
Le catalogue de galaxies a été preparé à Edinburgh, à partir
d'une digitalisation automatique des plaques J et d'un algorithme automatique
de séparation étoiles-galaxies.
Il est prévu d'utiliser MEFOS dans la dernière phase du projet (je décrirai cet instrument ultérieurement). Le dépouillement des spectres est effectué suivant une procédure standard, et les décalages vers le rouge sont calculés par corrélation croisée des spectres des galaxies avec des spectres d'étoiles de réference (Tonry & Davis, 1979).
Actuellement on a analysé les premières données, soit environ
700 décalages vers le rouge. Le programme sera formellement conclu fin 1993,
mais il faudra récupérer quelques nuits perdues à cause du mauvais temps.
On a des résultats preliminaires (voir annexe),
que je résume ici brièvement. Nous trouvons
une proportion très grande de galaxies à raies d'émission (43%).
La fonction de luminosité des galaxies à raies d'émission
est significativement différente de celle des autres galaxies.
Les paramètres de la fonction de luminosité totale
sont comparables à ceux de Loveday et al. (1992):
nous trouvons et
.
Mais Loveday et al. ont une magnitude limite
, c'est
à dire que leur catalogue est moins profond que le nôtre.
Il faut conclure que la fonction de luminosité de galaxies ne
montre aucun signe évident d'évolution jusqu'à
Mpc .
Un autre aspect, plutôt surprenant, est que
nous retrouvons la même periodicité en redshift des structures
que Broadhurst et al. Avec le dépouillement des dernières
observations de 1992,
nous arriverons à avoir plus de
décalages vers le rouge, et nous pourrons
ainsi vérifier la significativité statistique d'une telle periodicité.