L'OCÉANOGRAPHIE
Publié le 02/05/2019
Extrait du document
Durant la guerre, les scientifiques résolurent des problèmes fondamentaux pour la Marine et créèrent un vaste réseau de laboratoires. Les savants, financés par les gouvernements, y travaillaient sur la recherche appliquée. Certains domaines d'étude suscitèrent un nouvel intérêt et de nouvelles disciplines virent le jour. Ainsi naquit l'acoustique sous-marine. Dès la Première Guerre mondiale, on avait étudié les effets de la propagation du son dans l'eau (l'acoustique sous-marine, précisément), dans le but de développer la détection des sous-marins. Ce domaine connut un essor important avec l'invention de transmetteurs à haute fréquence, une espèce de haut-parleurs qui permettaient d'avoir un faisceau d'ondes sonores bien focalisé et, par conséquent, directionnel. Dans les années 30, avaient été construits et testés les premiers systèmes, appelés par la suite sonars, mais les résultats initiaux n'avaient pas été satisfaisants. L'appareil semblait fonctionner par à-coups, de façon hasardeuse. On découvrit que le sonar fonctionnait bien le matin, mais tendait à donner de très mauvais résultats dans l'après-midi. L'énigme de l'« effet après-midi » ne fut résolue que lorsque les hommes de la Marine se décidèrent à demander de l'aide aux océanographes de Woods Hole, un important centre de recherches océanographiques situé sur la côte atlantique des États-Unis, dirigé à l'époque par Henry Bigelow. Lors d'une série de croisières conjointes effectuées par le navire de recherche Woods Hole et les navires de la Marine, on découvrit que l'« effet après-midi » était dû à la structure thermique de l'océan. Les propriétés de propagation du son dans l'eau dépendent de la température, exactement comme l'indice de réfraction varie d'un verre à l'autre. De la même façon qu'un prisme dévie les diverses longueurs d'onde de la lumière de façon différente, créant les couleurs de l'arc-en-ciel, les couches d'eau à des températures différentes font office de prisme, déviant les faisceaux sonores dans des directions très différentes. Le sonar émet des impulsions sonores très courtes (« pings ») qui sont réfléchies par les objets submergés, puis à partir de l'intervalle entre l'émission et la réception, il est possible de déduire la distance, la vitesse et la direction de l'objet en question. Si, entre le sonar et l'objet, s'interposent des couches d'eau qui perturbent le parcours du faisceau, le déviant et l’empêchant d'atteindre de nouveau le sonar, tout le système cesse de fonctionner. Au cours de la journée, la structure thermique de l'océan superficiel se modifiait, si bien que le sonar était inutilisable sans des corrections opportunes qui ne pouvaient être apportées qu'en connaissant la structure thermique de l'eau. C'est ainsi que naquit un grand intérêt pour la distribution verticale de la température. À l'époque, on savait seulement que dans les océans tempérés et tropicaux, il existait une couche superficielle à température uniforme, sous laquelle se trouvait une couche de diminution rapide de la température, la thermocline. Sous la thermocline, se trouvait l'étendue des eaux abyssales, où la température changeait très peu. Ces connaissances se fondaient sur les rares mesures existantes. Il fallait trouver une méthode de mesure de la température qui soit rapide, fiable et praticable depuis un navire en mouvement. La réponse fut la mise au point du bathythermographe (BT), un instrument qui mesurait la température et la transmettait au moyen d'un fil jusqu'au vaisseau principal, où elle était enregistrée sur un rouleau de papier. Durant la guerre, les navires alliés furent dotés de BT et bientôt furent recueillis 60 000 profils de température dans le seul océan Atlantique. La disponibilité de cette masse de données métamorphosa l'océanographie traditionnelle. Le Gulf Stream, que Maury considérait comme un « fleuve dans la mer », se révéla très différent du fleuve placide d'eaux tropicales que les océanographes du XIXe siècle imaginaient. Il se déplace, en changeant de parcours d'une semaine à l'autre, en créant des méandres et des tourbillons, qui se détachent du courant principal des deux côtés. Des tourbillons froids isolés, que l'on appelle anneaux, se détachent du sud, tandis que des tourbillons chauds se créent au nord. Le système du Gulf Stream, dans sa complexité, se modifiait trop rapidement pour être à la portée des expéditions océanographiques classiques, et seule l'invention du BT avait rendu possible leur découverte. La disponibilité de sonars précis et fiables fournit un avantage décisif aux alliés dans la guerre de l'Atlantique.
D'autres découvertes très importantes, qui furent effectuées durant la Seconde Guerre mondiale grâce à l'application du sonar, sont liées à la détection du deep scattering layer, (ou couche diffusante profonde), une couche plus ou moins bien définie présente dans la plupart des eaux océaniques, produite par les populations stratifiées d'organismes marins.
Par la suite, l'application des techniques électroacoustiques des sonars a permis d’analyser précisément la morphologie et la nature des fonds océaniques. Marie Tharp, avec sa carte des fonds océaniques, contribua à la formulation de la théorie de la dérive des continents.
Après la Seconde Guerre mondiale, les sondes océanologiques, très perfectionnées, permirent de mesurer avec une extrême précision la température, la salinité, la teneur en oxygène et d'autres paramètres relevés à différentes profondeurs, notant les informations en surface au moyen de systèmes d'enregistrement électronique.
L'APRÈS-GUERRE
Au terme du conflit mondial, l'océanographie était en plein développement.
Harald Sverdrup et Walter Munk à Scripps et Henry Stommel à Woods Hole commencèrent à formuler une théorie dynamique du Gulf Stream et de son système de contre-courants, de méandres et de tourbillons. Le phénomène le plus incompréhensible était l'intensification du courant à proximité de la côte américaine, connu sous le nom d’« intensification occidentale ». Le renforcement des courants le long des côtes est des continents, observable également dans le courant pacifique Kuroshio, le long des côtes du Japon, fut expliqué par Stommel en 1948. Il démontra que l'intensification est une conséquence de la variation latitudinale de la force de Coriolis. Cette force n'a pas la même intensité partout en raison de la sphéricité de la Terre mais elle augmente au fur et à mesure que l'on s'approche des pôles. Les études de Stommel stimulèrent le développement de l'océanographie théorique. Dans les années 50, des progrès immenses furent faits qui conduisirent à l'introduction des théories explicatives de la thermocline. En dépit des avancées significatives dues à la réflexion théorique, il fut bientôt clair que les méthodes analytiques ne suffiraient à décrire de façon réaliste le comportement de l'océan. L'océan est plus aisé à analyser que l'atmosphère, car les forces en présence y sont moins intenses et les échelles temporelles plus étendues. Par conséquent, des équations simplifiées peuvent être utilisées dans un plus grand nombre de cas. Toutefois, dans la réalité, il est nécessaire de recourir aux ordinateurs. Le premier modèle de l'océan global fut développé à Princeton par Kirk Bryan dans les années 60, et ce fut comme si un autre Challenger était revenu des mers du Sud avec son chargement d'échantillons. Les simulations mettaient en lumière une vaste série de phénomènes, presque tous requérant vérification et analyse.
Depuis lors, les progrès ont été fulgurants. Les modèles océaniques ont été couplés à des modèles atmosphériques par Bryan et Suki Manabe, tandis que les premières simulations climatiques étaient mises en place. Les simulations couvrent des milliers d'années, et l'on a pu vérifier les théories concernant la stratification de base de l'océan, la circulation générale et la circulation profonde. Les rapports du Meteor, concernant le système de courants dans l'océan Atlantique, ont été confirmés et décrits en détail dans les simulations qui ont démontré la grande importance de la morphologie du fond pour la détermination des grands courants abyssaux. Par la suite, on a développé des modèles de simulation des glaces marines, en les associant aux modèles océaniques et atmosphériques. Au milieu des années 80, les modèles de simulation, concernant les courants équatoriaux, ont été appliqués avec succès au problème du El Niño, et George Philander, de l'Université de Princeton, a démontré comment un modèle océanique, tenant compte des vents et des températures atmosphériques, est en mesure de reproduire le comportement des océans pendant de nombreuses années. Actuellement, les meilleures espérances de réaliser des prévisions saisonnières résident dans la capacité de développer un système précis de prévisions océaniques.
LA NOUVELLE FRONTIÈRE
Malgré la multiplication des observations, les océans demeurent mal connus. L'étendue des océans est telle qu'il sera très difficile de développer et de maintenir un réseau de stations d'observation sur place. La situation actuelle est déjà beaucoup plus encourageante qu'il y a quelques années. Les navires commerciaux recueillent les températures superficielles et, parfois, celles des couches situées immédiatement sous la surface, au moyen d'un instrument appelé XBT, c'est-à-dire un BT « jetable », qui n'est pas récupéré mais qui se perd sur le fond à la fin de la mesure. Le long de l'Équateur, dans l'océan Pacifique, on a disposé des bouées ancrées, les réseaux TAO, qui mesurent de façon continue les courants et les températures. Cependant, toutes ces mesures ne suffisent pas à déterminer les caractéristiques tridimensionnelles de l'océan avec la précision requise par les contraintes de la prévision moderne. La situation a radicalement changé avec l'arrivée des satellites qui, on l’espère, permettront d’obtenir une description synoptique et globale des océans. Les mesures de température superficielle par satellite influent dès maintenant de façon décisive sur la rédaction des cartes de température superficielle globale créées chaque semaine par la NOAA (National Oceanic and Atmospheric Administration) à Washington. Les erreurs dans les mesures effectuées par les satellites sont encore très fréquentes, mais une combinaison soignée des mesures faites sur terre et par satellite ont permis une nette amélioration des connaissances relatives aux océans. D'autres satellites mesurent la hauteur des vagues et leur spectre, et, grâce à eux, il est possible d'estimer le vent superficiel. Le satellite le plus récent, le TOPEX/Poseidon, est doté d'un système de mesure de la hauteur du niveau de la mer avec un écart de quelques centimètres à peine. À partir du niveau de la mer, il est possible de calculer la quantité de chaleur contenue dans une portion d'eaux océaniques et d’en déduire l'évolution des courants marins. Toutes ces mesures ne suffisent pas à donner une description précise de l'océan. Les techniques les plus modernes d'acquisition des données mélangent les données observées et les données provenant de modèles de simulation, produisant un modèle dynamiquement cohérent, mais fidèle aux observations. Les modèles ainsi construits comblent les lacunes laissées par l’insuffisance des données. Le futur de l'océanographie réside dans le développement constant de ces techniques.
«
2
des grandes explorations océaniques.
D'un certain point de vue, le bateau lui-
même était un instrument de mesure pour l’explorateur car il subissait l'effet des
courants océaniques au sein desquels il se trouvait.
Mais les premiers navigateurs,
tout en reconnaissant l'effet et l'importance de ces forts courants, ne pouvaient pas
en mesurer la vitesse ou la direction exacte.
Sans chronomètres précis pour
mesurer la longitude, dont l'utilisation ne devait devenir régulière qu'au XIX esiècle,
ils ne pouvaient estimer leur position qu'en se fondant sur celle du Soleil, c'est-à-
dire en mesurant uniquement la latitude et en obtenant ainsi une idée
nécessairement approximative de leur position et de la distance parcourue.
Mais la
dérive produite par les grands courants océaniques était évidente.
Le grand courant
nord-équatorial qui va de l'Afrique vers les Amériques fut identifié et signalé par
Christophe Colomb au cours de son troisième voyage.
À la même époque, les
navigateurs portugais découvraient et cherchaient à exploiter le courant des
Aiguilles en Afrique orientale.
Dans le Pacifique, l'existence de la Kuroshio, un
courant qui porte au nord puis au nord-est le long des côtes du Japon et de la
Sibérie jusqu'en Amérique du Nord, était déjà connue par les pilotes espagnols qui
guidaient les galions qui assuraient les liaisons entre la colonie des Philippines et le
Mexique.
Les courants influaient sur les routes prises par les navires de façon
déterminante.
Par exemple, le « galion de Manille », qui reliait la capitale Manille au
Mexique espagnol chaque année, suivait des routes radicalement différentes à
l'aller et au retour.
À l'aller, vers Manille, il suivait la route équatoriale, en cherchant
à exploiter le courant pacifique nord-équatorial, qui va vers l'Asie, mais au retour il
cherchait à suivre la Kuroshio, et donc remontait très au nord, le long des côtes de
la Sibérie puis redescendait toute l'Amérique du Nord et rejoignait le Mexique.
Si on
survivait aux tempêtes, aux maladies et aux erreurs de direction, l’aller-retour durait
deux ans.
De la même façon, le parcours le plus rapide entre l'Europe et l'Afrique
méridionale ne consistait pas à suivre les côtes africaines, où les vents et les
courants se meuvent en sens contraire, mais à traverser l'Atlantique vers le Brésil et
à descendre le long des côtes argentines, jusqu'à rencontrer le courant
Circumpolaire antarctique, qui décrit un grand anneau autour du continent
antarctique et qui promet un passage rapide (parfois même trop) vers le Cap de
Bonne-Espérance.
LES ORIGINES DE L'OCÉANOGRAPHIE MODERNE
Pendant de nombreux siècles, les informations recueillies dans les portulans
représentèrent l'ensemble des connaissances disponibles dans ce que l'on appelle
actuellement océanographie.
Mais on peut faire remonter l’origine de la science
océanographique aux trois grands voyages du capitaine James Cook, accomplis
dans le Pacifique entre 1768 et 1779.
Lors de ces voyages, les navires de Cook
avaient à bord des chronomètres qui permettaient de calculer avec une grande
précision la longitude et donc la position des navires.
La connaissance de la
position géographique exacte, en outre, permettait l'estimation de l'effet de dérive
des courants.
La publication du compte rendu du voyage de Cook dans les années
suivantes contribua fortement à élargir l'horizon culturel européen et à diffuser la
connaissance des dimensions réelles des océans.
Au cours des années suivantes,
les principales nations européennes de l'époque organisèrent des voyages
d'exploration des océans.
Napoléon I er envoya deux navires, Le Géographe et Le
Naturaliste , qui s'unirent aux nombreuses expéditions russes, danoises et
britanniques.
Les savants embarqués n'étaient souvent que des médecins et par.
»
↓↓↓ APERÇU DU DOCUMENT ↓↓↓
Liens utiles
- L'océanographie étudie des domaines variés : la topographie des fonds
- OCÉANOGRAPHIE NAVIGATEURS ET EXPLORATEURS Les origines de l'océanographie se perdent dans le dense réseau de relations commerciales et de communications que les civilisations de la région méditerranéenne ont commencé à tisser dès les époques les plus reculées.
- LABORATOIRE D'OCÉANOGRAPHIE Près des trois quarts de la surface de notre planète (71 %) sont recouverts par la mer, mais ce n'est qu'à une époque récente que la science s'est consacrée à l'étude approfondie de ce milieu riche et complexe.
- CHARCOT, Jean (1867-1936) Savant, explorateur Son père, Jean Martin Charcot, est le créateur de l'Ecole de neurologie de la Salpêtrière à Paris, et c'est donc naturellement par des études de médecine que Charcot commence, mais très vite il fait le choix de l'océanographie.
- tourbillon (océanographie) - géologie et géophysique.