Devoir de Philosophie

La notion d'univers en physique

Publié le 02/03/2020

Extrait du document

physique

LE PROBLÈME DE LA FORMATION DES STRUCTURES

 

 

Du rayonnement à la matière

 

Plus ou moins en même temps que la recombinaison, il se produit un autre phénomène très important pour l’évolution de l’Univers. Ce dernier s’est refroidi au point de rendre l’énergie totale des photons, qui était largement prédominante dans les phases précédentes, inférieure désormais à l’énergie de la matière. Les cosmologistes disent que l’on passe d’un Univers dominé par le rayonnement (les photons) à un Univers dominé par la matière (les particules). La raison pour laquelle, du fait de l’expansion de l’Univers, le rayonnement perd de l’énergie plus rapidement que la matière, est simple. Quand l’Univers se dilate, le nombre de photons ainsi que le nombre de nucléons diminuent de la même façon. Les photons, parallèlement, perdent de l’énergie. Du fait de la dilatation de l’espace, leur longueur d’onde s’allonge si bien que leur énergie totale diminue plus vite que celle de la matière. C’est précisément ce qui avait lieu à l’époque de la recombinaison. Aujourd’hui, l’énergie du rayonnement est devenue négligeable, moins d’un millième de l’énergie de la matière.

L’événement est important parce que, tant que l’Univers est dominé par le rayonnement, il ne peut pas se former de condensations de matière, autrement dit la formation des galaxies ne peut pas commencer. Voyons pourquoi. On pense que le mécanisme responsable de la formation des étoiles, des galaxies et des amas de galaxies est l’instabilité gravitationnelle. Dans un fluide quelconque, il existe deux forces en conflit : l’autogravité (c’est-à-dire l’attraction gravitationnelle des différentes parties du fluide), et la pression (c’est-à-dire la force résultante sur une surface quelconque contenant le fluide du fait des chocs des particules de fluide). S’il se forme une condensation dans une certaine partie du fluide (appelée également perturbation), cette condensation ne peut augmenter en densité que si l’autogravité prédomine par rapport à la pression. L’autogravité dépend évidemment des dimensions de la condensation. Plus grande est la condensation, plus grande est l’autogravité. La pression dépend du type de particules qui constituent le fluide, et de leur agitation thermique. Au début du XXe siècle, James Jeans étudia le problème, et parvint à la conclusion qu’il existe une longueur critique, dite longueur de Jeans. Dans les perturbations plus petites que la longueur de Jeans, la pression prédomine et disperse la perturbation, ou bien la fait osciller, mais, en tout état de cause, en empêche la croissance. Dans les perturbations plus grandes que la longueur de Jeans, la gravité prédomine sur la pression, et la perturbation augmente, attirant de plus en plus de fluide. Il se crée ainsi une structure beaucoup plus dense que le fluide environnant. Ce mécanisme de formation de structures est appelé instabilité gravitationnelle.

 

 

Formation de superamas, d’amas, de galaxies

 

Dans le cas de l’Univers en expansion, la théorie de Jeans doit être modifiée, et ce problème fut résolu par le physicien russe Evguéni Lifchitz qui, vers 1946, étudia le cas d’un fluide contenant des photons et des baryons dans un espace en expansion. En général, le fait que l’espace soit en expansion rend plus difficile la croissance des perturbations. Le fait important est que la longueur de Jeans dépend très étroitement du type de fluide. Quand l’Univers est dominé par les photons, la pression est très élevée, et la longueur de Jeans est énorme, plus grande que l’horizon à la même époque. En pratique, les perturbations de densité ne peuvent pas augmenter. La pression de la matière, en revanche, est beaucoup plus petite. Quand la matière devient dominante, à l’époque de la recombinaison, la longueur de Jeans diminue énormément. En pratique, les perturbations qui contiennent une masse plus grande que cent mille masses solaires peuvent commencer à augmenter. Toutefois, toutes les perturbations ne sont pas encore présentes et prêtes à augmenter. En effet, avant la recombinaison, la pression des photons empêchait les perturbations d’augmenter. En pratique, la densité des perturbations oscillait entre deux valeurs extrêmes. Mais cette oscillation connaissait aussi des variations. En effet, les photons exercent un certain frottement (appelé viscosité de Silk), qui atténue les oscillations des perturbations les plus petites. Au moment de la recombinaison, ne sont restées actives que les perturbations les plus grandes, qui sont les seules à commencer à augmenter, formant ainsi les structures les plus grandes (les superamas). Ces derniers se fragmentent ensuite, formant les amas, les galaxies et les étoiles. Remarquons immédiatement que les perturbations de densité, présentes au moment de la recombinaison ont un effet important sur le rayonnement cosmologique fossile. En effet, les photons de ce rayonnement qui proviennent de zones plus denses, doivent perdre un peu plus d’énergie que les autres pour sortir du champ gravitationnel de la perturbation (effet Sachs et Wolfe) et semblent donc un peu plus froids que les autres. En outre, les perturbations naissantes attirent la matière environnante. Par conséquent, les photons du rayonnement fossile provenant de ces zones subissent la dernière déviation du fait des électrons qui se déplacent à une certaine vitesse vers le centre de la perturbation. Ils subissent donc un effet Doppler, qui les fait apparaître plus chauds ou plus froids selon la direction de la vitesse des électrons par rapport à la direction d’observation. Ces deux effets (Sachs-Wolfe et Doppler) génèrent donc de petites fluctuations de température dans le rayonnement fossile, qui sont appelées « anisotropies ». En pratique, quand on dresse une carte de ce rayonnement, on devrait remarquer des régions plus ou moins chaudes au niveau des condensations de matière. Il existe une méthode expérimentale qui permet de « photographier » les perturbations à l’époque de la recombinaison, quand l’Univers n’avait qu’un million d’années. La première mesure du rayonnement cosmologique fossile, effectuée par Penzias et Wilson en 1965, établit que l’intensité du rayonnement était indépendante de la direction du ciel observée, avec une précision de 10 %. Leur antenne n’avait pas été construite pour ce type d’expériences, si bien que la précision ne pouvait pas être plus poussée. Par la suite, on s’est rendu compte de l’importance que revêtait la détection de la présence de petites différences de température (et donc de densité) à l’époque de la recombinaison. Certains chercheurs commencèrent à construire des télescopes différentiels particuliers, capables de confronter avec une grande précision l’intensité du rayonnement fossile provenant de directions différentes. La mesure est très difficile, parce que les détecteurs de micro-ondes ne sont pas très sensibles et doivent être refroidis à des températures proches du zéro absolu pour pouvoir fonctionner. En outre, les expériences doivent être portées dans l’espace, de façon que l’atmosphère terrestre ne perturbe pas le signal en provenance du cosmos. Pendant au moins 20 ans, personne ne parvint à trouver des traces d’« anisotropies » prévues par les modèles de formation des galaxies. Ce n’est qu’en 1992, que l’expérience DMR (Differential Microwave Radiometer), menée par George Smoot et par ses collaborateurs et lancée dans l’espace à bord du satellite COBE, montra que les anisotropies du rayonnement fossile existent, mais sont très petites, de l’ordre de dix partie par million.

C’est là un résultat extrêmement important, car il montre que l’Univers à l’époque de la recombinaison était extrêmement homogène, ce qui s’accorde avec le fait que durant toute l’époque précédente le rayonnement avait empêché la croissance des perturbations de la matière baryonique. En effet, les perturbations de densité compatibles avec ces observations sont « trop » petites. Si les baryons (la matière ordinaire) seuls, constituaient la substance de l’Univers, 15 milliards d’années s’avèrent largement insuffisants pour que les galaxies puissent se former à partir de fluctuations de densité si petites. La situation serait complètement différente si, en plus des baryons, étaient présentes dans l’Univers des particules de matière obscure faiblement interagissantes. En effet, les perturbations de ces particules, qui n’interagissent pas avec le rayonnement fossile, peuvent commencer à augmenter bien avant la recombinaison, tandis que les perturbations des baryons sont encore « congelées ». Quand on arrive à la recombinaison, les perturbations des baryons sont très petites, et ne produisent donc pas d’anisotropies significatives dans le rayonnement cosmologique fossile. Les perturbations de matière obscure, par contre, se sont déjà agrandies, et ont pu former des structures. La gravité attire par la suite les baryons, qui forment ainsi plus rapidement les structures que nous observons dans l’Univers actuel.

 

 

Problèmes non résolus

 

Le tableau est plutôt suggestif, mais il y a deux problèmes. La première question est la suivante : quelles sont ces mystérieuses particules faiblement interagissantes ? Il n’y a encore aucune certitude concernant l’existence de la masse du neutrino. Les autres particules faiblement interagissantes (axions, photinos...), bien qu’elles soient prévues par la physique théorique des très hautes énergies, n’ont jamais été observées directement. En l’absence d’un candidat sûr, les cosmologistes appellent ces particules du terme générique de WIMPs (Weakly Interacting Massive Particles, particules massives faiblement interagissantes). La caractéristique particulière de ces particules, comme dans le cas des neutrinos, est d’interagir faiblement avec la matière. Notre corps est traversé à chaque seconde par des millions de milliards de neutrinos provenant de tout l’Univers, et pourtant nous ne nous en apercevons pas. Aujourd’hui, un certain nombre d’expériences sont en cours, qui tentent de détecter les WIMPs en laboratoire. L’expérience est constituée d’un gros cristal de silicium (d’environ un kg), refroidi à des températures proches du zéro absolu. De cette façon, l’agitation thermique du cristal est pratiquement nulle, et tout reste stable jusqu’à ce qu’une WIMP entre éventuellement en collision avec l’un des très nombreux noyaux du cristal. Dans ce cas, le noyau reculerait, et l’énergie cinétique transférée aux autres noyaux du cristal entraînerait une minuscule augmentation de température de tout le cristal (quelques milliardièmes de degré !). Cette variation de température pourrait être détectée par un thermomètre à semi-conducteur très sensible. Bien évidemment, le capteur doit être isolé et blindé, de façon qu’aucune autre particule ne puisse provoquer d’effets analogues à ceux des WIMPs. Pour éviter que le détecteur ne soit traversé par des rayons cosmiques, l’expérience doit être menée dans une cavité souterraine, à plusieurs kilomètres de profondeur.

La deuxième question qui se pose est la suivante : quels mécanismes physiques provoquent les premières perturbations de densité ? On peut démontrer, en effet, que les simples fluctuations statistiques de densité dans l’Univers primordial sont trop petites pour donner lieu à des perturbations significatives. Évidemment, même si le tableau général semble plutôt bien fondé, il manque encore un élément à la mosaïque. Nous verrons que la théorie de l’inflation peut donner une réponse à cette question.

 

 

TROIS ÉNIGMES FONDAMENTALES

 

Il convient de remarquer à présent que l’application des lois de la physique nucléaire, de l’électromagnétisme et de la relativité générale a permis de mettre au point une théorie, celle du big bang, qui explique toutes les phases d’évolution de l’Univers, des toutes premières phases de l’expansion jusqu’à la formation des galaxies. En outre, cette théorie est confortée par des preuves expérimentales (la récession des galaxies, le rayonnement cosmologique fossile, l’abondance de l’hélium), ce qui explique son succès. Vers 1980, on s’est rendu compte toutefois que certains faits mettaient la théorie en difficulté, pour le moins dans sa formulation la plus simple exposée jusque-là.

L’extraordinaire isotropie du rayonnement fossile est le premier de ces faits. Ce rayonnement semble avoir la même température (avec une précision d’environ dix parties par million), indépendamment de la direction dans laquelle on l’observe. Ce fait est pour le moins singulier. Quand on observe deux zones du ciel dans des directions opposées, on reçoit des photons qui ont voyagé pendant 15 milliards d’années et qui proviennent de directions opposées. La distance entre les deux régions d’origine des photons est de 30 milliards d’années-lumière, et ces deux régions ne peuvent pas avoir été en contact ou en communication dans le passé. On dit que ces régions ne sont pas liées de façon causale. Comment est-il possible que des zones de l’Univers qui n’ont jamais interagi l’une avec l’autre puissent produire des photons ayant une température à ce point identique ? On peut calculer que la dimension apparente des régions liées causalement à l’époque de la recombinaison est d’environ 2°. Des régions qui, aujourd’hui, nous apparaissent plus éloignées de 2° n’ont jamais été en contact l’une avec l’autre avant la recombinaison, et il est donc étrange qu’elles produisent des photons ayant exactement la même température. En pratique, la carte du rayonnement cosmologique devrait être une mosaïque de régions présentant de fortes variations de température, et formée d’éléments d’une taille d’environ 2°. De plus, elle est parfaitement uniforme. Cette énigme est appelée « paradoxe d’isotropie ».

La deuxième énigme est le fait que la densité actuelle de l’Univers est si proche de la densité critique, et que par conséquent, la géométrie de l’Univers est approximativement plate. Les cosmologistes commencèrent à se demander quelles conditions initiales particulières devaient être imposées pour faire en sorte que la densité actuelle de l’Univers soit si proche de la densité critique. L’époque la plus éloignée pour laquelle l’application des lois physiques a un sens est ce que l’on appelle l’époque de Planck, à peine de 10-43 seconde après le big bang. Pour les époques précédentes, nous ne disposons d’aucune théorie capable de les décrire. Or, la réponse est surprenante. Pour obtenir aujourd’hui un paramètre de densité 0 compris entre 0,01 et 2, on devait avoir à l’époque de Planck une densité égale exactement à la densité critique à la cinquantième décimale près ! Il semble vraiment étrange que, sans aucune raison, les conditions initiales de l’Univers aient été aussi parfaitement ajustées. Cette énigme est appelée « paradoxe de planéité ».

Une troisième énigme est représentée par l’absence, dans notre Univers, de monopoles magnétiques. Selon les physiciens des particules élémentaires, dans les premières phases de l’Univers primordial, il aurait dû se créer un grand nombre de ces particules. Celles-ci se formeraient dans tous les points où il existe une variation d’orientation des champs d’énergie (par exemple, les champs magnétiques). À l’époque, l’Univers contenait un nombre énorme de régions qui n’avaient jamais été précédemment en contact causale (voir l’énigme précédente), et par conséquent, un nombre énorme de zones où les directions des champs étaient différentes. Dans chacune de ces régions, il aurait dû se créer un grumeau d’énergie sous la forme d’un monopole magnétique. Le problème est qu’aujourd’hui, on n’observe pas de particules de ce genre (paradoxe des monopoles).

 

 

LA THÉORIE DE L’INFLATION

 

En 1980, Alan Guth, de l’Université de Stanford, avança une hypothèse qui pouvait résoudre à la fois les trois énigmes exposées ci-dessus. Guth formula une hypothèse selon laquelle l’Univers passe à travers une très courte phase de gigantesque expansion accélérée. Cette phase est dite « inflation ». Durant cette phase (infiniment courte, de 10-35 à 10-33 seconde après le big bang !), l’espace se gonfle dans toutes les directions jusqu’à devenir des milliards et des milliards de fois plus grand que ses dimensions d’origine. L’inflation est si puissante et rapide que tout l’Univers observable aujourd’hui provient en réalité d’une zone qui, avant l’inflation, présentait des dimensions microscopiques. Pour cette raison, il est clair que dans tout l’Univers observable, la température du rayonnement fossile est la même. L’Univers que nous observons était en contact causal très étroit avant l’inflation. Puisque tout notre Univers observable provient d’une région causalement liée, il doit s’y trouver au plus un seul monopole magnétique. En outre, tout l’Univers observable aujourd’hui provient d’une région qui, de très petite, a instantanément gonflé et donné ainsi une géométrie plate. Il suffit de regarder la place d’une ville. Elle nous apparaît plate, bien qu’elle repose sur la surface terrestre qui est sphérique. Le fait est que la place est si petite par rapport au rayon de la sphère terrestre que sa courbure est totalement négligeable. La même chose vaut pour la région microscopique qui a instantanément subi le phénomène de l’inflation. En se gonflant sans limites durant l’inflation, l’Univers est devenu plat. Les effets de courbure de l’Univers sont présents, mais seulement en dehors de notre horizon, et nous ne pouvons donc pas les observer. De l’hypothèse de l’inflation prévaut donc un Univers plat, d’une densité égale à la densité critique (= 1). Rappelons une fois encore que l’inflation n’implique pas un mouvement réel de la matière (si c’était le cas, la matière se déplacerait à des vitesses énormes, beaucoup plus élevées que la vitesse de la lumière, ce qui violerait les lois de la physique). En réalité, c’est l’espace qui se gonfle énormément, entraînant la matière, qui reste immobile par rapport à l’espace. Évidemment, l’hypothèse de Guth est suggestive. Mais l’on se demande immédiatement pourquoi tout cela devrait avoir eu lieu, et quelle est la cause responsable de cette phase inflationnaire de l’Univers.

 

 

La séparation des forces

 

Selon les physiciens des particules élémentaires, l’inflation a lieu, parce qu’à cette époque, se produit la différenciation des forces. Dans l’Univers, on connaît quatre types de forces : la gravité, l’électromagnétisme, la force nucléaire forte et la force nucléaire faible. Chacune de ces forces est liée à des particules, dites « vecteurs » de la force : gravitons, photons, gluons et bosons vecteurs intermédiaires, respectivement pour les quatre forces connues. En 1970, Sheldon Glashow et Howard Georgi proposèrent une théorie de Grande Unification (GUT), affirmant que pour des températures supérieures à 1027 degrés, les forces électromagnétiques, fortes et faibles, étaient unifiées (unification des trois forces). En outre, on pense que, même la force de gravité peut s’unifier à des énergies encore plus grandes (théorie de la gravitation quantique). Les physiciens parlent de restauration de la symétrie quand les forces s’unifient, et de brisure de la symétrie quand les forces se séparent. Or, autour de 10-35 secondes après le big bang, a lieu la brisure de la symétrie correspondant à la séparation de l’interaction nucléaire forte. Dans le temps très court où a lieu la différenciation des forces, on a un changement d’état de l’Univers, analogue à la transition par laquelle l’eau, en se refroidissant, passe de l’état liquide à l’état solide. Mais, ici, le refroidissement est très rapide. Quand l’eau est refroidie très rapidement sous 0 °C, elle ne se congèle pas immédiatement, et peut se refroidir de plusieurs degrés au-dessous de zéro avant de geler. Le phénomène s’appelle surfusion. Sous l’effet de la congélation, la température remonte à 0 °C, sans qu’il soit nécessaire de la réchauffer. L’énergie nécessaire avait été emmagasinée comme chaleur latente durant la surfusion. Un processus analogue a lieu dans l’Univers. Dans ce cas, le changement d’état concerne le vide, qui, nous l’avons vu, revêt une grande importance dans l’Univers primordial. L’unification des champs est précisément un changement d’état du vide. À l’époque où les champs sont unifiés, la densité d’énergie du vide est très grande (1072 grammes par centimètre cube) et, fait encore plus important, elle demeure constante. Les physiciens parlent d’un état de faux vide. Par contre, quand les forces se différencient, l’énergie du vide tombe pratiquement à zéro. Dans les premiers instants qui suivent le big bang, l’énergie de la matière est beaucoup plus grande que l’énergie du vide, mais diminue rapidement, tandis que celle du vide demeure constante. C’est ainsi que 10-36 seconde après le big bang, les deux énergies s’équivalent, et immédiatement après l’énergie du vide devient dominante. À ce point, l’Univers se comporte comme si la matière n’existait pas, et que seul le vide existait. Selon la relativité générale, un Univers sans matière connaît une expansion extrêmement rapide, exponentielle, en raison de l’absence de toute action freinante due à l’autogravité de la matière. Cette expansion très rapide et très accélérée n’est autre que l’inflation envisagée par Guth. Mais, ensuite, le vide change d’état, son énergie disparaît, pour laisser place à l’Univers constitué de rayonnement et de particules. L’inflation s’arrête. L’Univers, qui s’était surrefroidi, revient à la température qu’il avait avant l’inflation. Tout continue comme auparavant, à ceci près que l’espace s’est élargi de milliards de milliards de fois en un intervalle de temps d’à peine 10-30 secondes.

 

 

Le modèle de Linde

 

Le modèle inflationniste de Guth a toutefois un gros défaut. L’inflation est trop rapide, et il se crée des bulles d’Univers tel que notre Univers observable, immergées dans un substrat correspondant à l’état pré-inflationnaire. L’Univers qui sort de l’inflation de Guth est donc hautement inhomogène. C’est pour cette raison qu’en 1982, Linde, Steinhard et Turner ont proposé la théorie du « nouvel » Univers inflationnaire. Dans ce cas, le phénomène de l’inflation se déroule relativement plus lentement, et les difficultés du modèle de Guth sont résolues. En 1983, le physicien russe Andreï Linde présenta une nouvelle généralisation de l’idée d’inflation. Jusqu’à présent, nous avons supposé que l’inflation se faisait de la même façon dans tous les points de l’Univers. Selon Linde, toutefois, l’inflation pourrait se faire de façon légèrement différente d’un point à l’autre de l’Univers. Cela semble plutôt raisonnable, puisque, dans les différents points de l’Univers, qui n’ont jamais été en contact causal précédemment, la température et la densité immédiatement avant l’inflation pourraient être nettement différentes. Cela veut dire que, dans certaines régions, se développerait une inflation telle que celle que nous avons décrite auparavant, tandis que ce n’est pas le cas dans d’autres régions, parce que les conditions initiales seraient suffisantes. De notre point de vue, cela a peu d’importance : le développement des galaxies, des étoiles, la production du carbone nécessaire à la vie et, en dernière analyse, la naissance de la vie dans notre Univers que l’on peut observer, ont peu de rapports directs avec ces théories encore fort spéculatives. Ces modèles d’inflation prévoient l’existence de bulles d’Univers déconnectées les unes par rapport aux autres, et par conséquent, elles seront donc très inobservables. Ce modèle est dit Univers inflationnaire chaotique de Linde, et il nous rappelle une fois encore que notre connaissance possible de l’Univers est limitée à l’Univers observable, celui qui nous envoie des signaux lumineux. Avec cette théorie inflationnaire, on est bien au-delà du « principe anthropique » qui fait valoir dans sa forme la plus extrême que l’Univers n’avait de finalité que notre propre existence. La théorie inflationnaire chaotique de Linde représente un point de vue légèrement différent. Il existe d’autres bulles d’Univers inaccessibles présentant des conditions initiales différentes des nôtres. Simplement, nous ne pouvons pas les observer. Mais Linde ne s’est pas arrêté là. Il a démontré par la suite qu’il est possible de créer un modèle dans lequel dans chaque région qui se dilate par inflation se créent des sous-régions, dans lesquelles les conditions d’une nouvelle inflation sont réunies. De cette façon, chaque région de l’Univers génère d’autres régions en un processus infini que Linde appelle inflation éternelle.

L’inflation permet aussi d’assigner une origine aux perturbations de densité présentes dans l’Univers primordial, dont la croissance aboutit à la formation des galaxies. Nous nous sommes demandés plus haut de quelle façon étaient créées les premières fluctuations de densité. Nous avons dit également qu’à l’époque de la recombinaison, les fluctuations aléatoires, statistiques, liées à la matière ordinaire, sont trop petites pour pouvoir s’amplifier. Il doit exister un processus différent, qui cause des fluctuations de densité plus grandes. Si, au lieu de l’époque de la recombinaison, nous considérons l’époque précédant l’inflation, les choses changent. À cette époque, tout l’Univers observable aujourd’hui était compris dans une région d’espace microscopique, beaucoup plus petite qu’un millimètre. Au niveau microscopique, les fluctuations aléatoires sont très importantes. Il est naturel de penser que, pendant l’inflation, les fluctuations elles aussi se gonflent, générant ainsi les irrégularités à une échelle bien plus grande, irrégularités qui par la suite généreront les galaxies.

 

L’inflation peut générer des fluctuations non seulement du niveau approprié, mais aussi avec des dimensions adaptées pour pouvoir évoluer ensuite sous la forme de superamas, d’amas et de galaxies. La répartition des galaxies dans l’Univers montre que le degré d’agrégation dépend des dimensions considérées. Au fur et à mesure que l’on prend en considération des dimensions plus grandes, on constate que la tendance à l’agrégation diminue. Si l’on considère des dimensions typiques de 300 000 années-lumière, on observe des structures (les galaxies), qui se détachent nettement sur le fond de l’espace. Leur densité est des milliers de fois plus grande que celle de l’espace environnant. On dit que le contraste de densité vaut mille. Quand on étudie, en revanche, l’Univers avec une résolution de 30 millions d’années-lumière, on observe des structures (les amas de galaxies), dans lesquelles la densité est au maximum de quelques dizaines de fois plus grande que celle des régions environnantes (les grands vides). Avec une résolution de 300 millions d’années-lumière, l’Univers apparaît quasiment homogène. Ces différents contrastes de densité doivent être une conséquence du type particulier de perturbations initiales qui se sont amplifiées par instabilité gravitationnelle et ont formé les structures. Or, il semble que la théorie de l’inflation puisse produire précisément la distribution de fluctuations de densité primordiales appropriée (ce que les spécialistes appellent « spectre des fluctuations »). Nous avons vu que l’étude de la carte du rayonnement cosmologique fossile permet justement d’étudier le spectre des fluctuations de densité primordiales, grâce au lien entre les fluctuations de température enregistrées sur la carte et les fluctuations de densité au moment de la recombinaison. La carte du rayonnement élaborée par le satellite COBE en 1992-1994 a permis d’établir qu’à l’époque de la recombinaison, les fluctuations de densité ont précisément le spectre prévu par la théorie de l’inflation. C’est là la première confirmation expérimentale de la théorie, et un élément important pour l’étude de la formation des galaxies dans notre Univers.

physique

« 2 que la matière ordinaire commence à s’agréger sous l’effet de la force d’attraction gravitationnelle.

Au bout d'un milliard d’années environ, les premiers objets isolés, les quasars, puis les galaxies, se sont formés. Cette théorie a deux grands mérites.

Elle ne nécessite p as l’introduction de lois nouvelles, en plus des lois connues de la physique vérifiables en laboratoire, et elle rend compte des trois observations cosmologiques les plus importantes, c'est -à-dire la récession des galaxies (qui est due à l’expansion de l’Univers), la présence du rayonnement de fond cosmologique fossile (dû aux photons qui se sont formés aux premiers instants) et l’abondance d’hélium dans l’Univers (qui correspond assez fidèlement à l’abondance calculée au cours de la synthèse des premiers n oyaux, dans les trois premières minutes). Puisque la lumière a une vitesse finie, de 300 000 km/s, il est possible d’utiliser les télescopes comme des « machines à remonter le temps ».

Par exemple, nous observons aujourd’hui la galaxie d’Andromède telle qu’elle était il y a deux millions et demi d’années, quand l’ Homo sapiens n’existait pas encore sur la Terre.

En effet, c’est le temps que la lumière a mis pour arriver jusqu’à nous, en parcourant la distance de 2 millions et demi de kilomètres qui nous sépa rent de cette galaxie.

Des galaxies encore plus éloignées sont observées telles qu’elles étaient à des époques plus reculées encore.

Si l’Univers est né à un certain moment (15 milliards d’années selon la théorie du big bang), il s’ensuit que nous ne pouvons en observer qu'une partie seulement.

En effet, les régions de l’Univers éloignées de plus de 15 milliards d'années -lumière de nous, ne sont pas observables, simplement parce que la lumière qu’elles produisent mettrait un temps plus grand que l’âge de l’ Univers pour arriver jusqu’à nous.

Il existe donc un « horizon », de 15 milliards d'années -lumière de dimension, qui sépare l’Univers observable du reste de l’Univers qui, en réalité, pourrait être infiniment étendu.

En outre, il est évident que, en utilisant le télescope comme une « machine à remonter le temps », on peut observer les galaxies au moment de leur formation, et, plus loin encore (lorsque l’Univers n’était âgé que d’un million d’années), par l'étude du rayonnement cosmologique fossile.

Ce sont là les thèmes de recherche sur lesquels travaillent actuellement les cosmologistes, qui tentent de donner une réponse au problème de l’évolution de l’Univers et au problème de la naissance et de l’évolution des galaxies. STRUCTURE ET COMPOSITION DISTRIBUTION DES GALAXIES ET STRUCTURE À GRANDE ÉCHELLE Amas et superamas Les galaxies sont regroupées en amas de galaxies, groupes contenant des centaines de milliers de galaxies.

Dès les années 50, Fritz Zwicky et George Abell avaient catalogué une dizaine de milliers d’amas de galaxies, répartis en groupes (contenant quelques dizaines de membres), en amas et en amas riches (contenant des milliers de membres).

Jusqu’à la fin des années 70, on pensait que les amas de galaxies étaient distribués au hasard dans l’espace.

En effet, on ne mesurait que les positions des galaxies projetées sur la sphère céleste, qui peuvent être tirées de la simple observation de photographies effectuées au moyen de grands télescopes.

Néanmoins on ne mesurait pas la troisième coordo nnée, c’est -à-dire la distance. »

↓↓↓ APERÇU DU DOCUMENT ↓↓↓

Liens utiles