2.1

Des prévisions
météorologiques toujours
plus performantes

Plusieurs nouveautés dans la chaîne de prévision

Apprécier la qualité des prévisions au regard des besoins finaux

Indice de qualité des températures du 16/09/2016 au 14/12/2016 (moy. sur 3 jours), rés. 12 HUTC, réf. ANA CLIM, échant. France . © Météo-France
Indice de qualité des températures du 16/09/2016 au 14/12/2016 (moy. sur
3 jours), rés. 12 h UTC, réf. ANA CLIM, échant. France . © Météo-France

En 2016, Météo-France a souhaité renforcer le suivi de la qualité de ses prévisions en déployant un indicateur encore plus représentatif des besoins des utilisateurs. Cet indice prend en compte les paramètres météorologiques les plus couramment utilisés pour caractériser la situation météorologique : température, vent, couverture nuageuse et occurrence de pluie, de neige, d’orages ou de brouillard.

Pour chacun de ces paramètres, le pourcentage de « bonnes prévisions » est calculé sur 1 300 points géographiques couvrant la France métropolitaine. La figure ci-dessus illustre la qualité des prévisions de température sur les derniers mois de l’année : la très bonne qualité des prévisions du mois de novembre a été suivie d’une période plus difficile en décembre, dominé par des conditions anticycloniques pendant lesquelles les variations brutales de couverture nuageuse et de température sont des causes d’erreur de prévision fréquentes.

Prévision immédiate : des données plus fines

Prévision par Arome PI le 4 mai 2017 à 14h UTC pour le 4 mai 2017 à 16h30 UTC de la couverture en nébulosité basse (en pourcentage, en jaune : peu importante / en vert : totale), les précipitations prévues (en niveaux de bleu / violet) © Météo-France
Prévision par AROME-PI le 4 mai 2017 à 14 h UTC pour le 4 mai 2017 à 16 h 30 UTC de la couverture en nébulosité basse (en pourcentage, en jaune : peu importante ; en vert : totale), les précipitations prévues (en niveaux de bleu/violet). © Météo-France

Pour prévoir le temps qu’il fera dans les toutes prochaines heures ou le développement de phénomènes à évolution rapide ou à forte intensité comme les orages, il faut disposer d’outils dits de « prévision immédiate». Les progrès réalisés en matière de prévision numérique du temps et la puissance actuelle des supercalculateurs permettent désormais de disposer des premières sorties de modèle moins d’une demi-heure après les observations. Depuis mars 2016, Météo-France dispose ainsi de la chaîne de produits AROME-PI, qui réalise toutes les heures une prévision jusqu’à 6 heures d’échéance. Basé sur le modèle de prévision numérique du temps AROME, AROME-PI fournit des données plus fines que ce dernier, grâce à l’injection des données observées les plus récentes. Les informations actuellement exploitées toutes les 15 minutes sont le vent à 10 m, la température et l’humidité de la masse d’air à 2 m, la pression au niveau de la mer, la nébulosité basse et les précipitations (pluie, neige, grêle…). Plusieurs diagnostics (indices de convection sévère, brouillard, précipitations solides) sont également disponibles. Des produits permettant de prolonger avec ces nouvelles données les prévisions de pluie actuellement extrapolées à partir des données radar sont également en cours de validation.

Encore en phase de développement suite aux premiers retours d’expérience, AROME-PI permettra à terme d’affiner le suivi temporel et spatial des épisodes météorologiques dangereux, comme les épisodes méditerranéens. Il vise également à mieux servir le secteur aéronautique ainsi que tous les clients dont les activités nécessitent de connaître très précisément la chronologie des épisodes pluvieux (transporteurs routiers, organisateurs d’événements en plein air, etc.).

Le modèle de prévision AROME déployé en outre-mer

Réflectivité radar à 3 000 m, simulée par AROME-Indien, le 17 avril 2016 à 18 h, pour quatre échéances entre 11 h 20 et 21 h, autour du cyclone Fantala au nord de Madagascar. © Météo-France
Réflectivité radar à 3 000 m, simulée par AROME-Indien, le 17 avril 2016 à 18 h, pour quatre échéances entre 11 h 20 et 21 h, autour du cyclone Fantala au nord de Madagascar.
© Météo-France

En février 2016, cinq nouvelles configurations de modèles de prévision numérique du temps ont été déployées pour les besoins des outre-mer. Basées sur le modèle AROME, déjà largement utilisé en métropole et en Europe, ces versions couvrent l'ensemble des départements et territoires tropicaux d'outre-mer : Antilles (Guadeloupe et Martinique), Guyane, Nouvelle-Calédonie, océan Indien (Réunion et Mayotte) et Polynésie française. Elles remplacent les configurations basées sur le modèle ALADIN utilisées jusqu'ici sur les régions ultramarines.

Dotées d'une résolution horizontale de 2,5 km, ces versions tropicales d'AROME représentent bien le relief souvent complexe de ces régions, ainsi que le cycle de vie des nuages convectifs qui s'y déploient. Elles améliorent notamment la capacité de Météo-France à prévoir et à suivre l’évolution des phénomènes cycloniques. Ainsi, lors du cyclone très intense Fantala, qui a sévi sur l'océan Indien en avril 2016, AROME a permis, pour la première fois sur ce bassin, de modéliser le « cycle de remplacement » du mur de l’œil du cyclone.

Au cours de ce processus se forme progressivement, autour de l’œil initial, un nouvel œil qui affaiblit puis fait disparaître le premier. Le cyclone finit par retrouver une structure mono-œil mais de diamètre supérieur. Ce phénomène entraîne des variations d'intensité du cyclone et un élargissement de la zone impactée par les vents très forts. Pouvoir prévoir ce phénomène est donc primordial dans le cadre de la veille cyclonique.

Dès 2017, ces configurations AROME bénéficieront de nouvelles améliorations, avec notamment l'adjonction d'un modèle uni-dimensionnel d'océan qui permettra d’améliorer la  modélisation des interactions océan-atmosphère.

Five new NWP model configurations were deployed to cater for Overseas needs.

Après la métropole, le modèle de vagues à la côte utilisé aux Antilles et en Guyane

Carte de hauteur des vagues de la mer totale le 16/09/2010 à 12 h UTC sur la Guadeloupe.
Hauteur significative des vagues de la mer totale (m) de WW3 le 16/09/2010 à 12 h UTC sur la Guadeloupe. Les flèches violettes représentent la direction de la houle, issue du cyclone Igor (catégorie 4) circulant à 600 km au nord-est. Les variations de hauteur reflètent les effets du déferlement et de la dissipation d'énergie due à la réfraction et au fond marin. © Météo-France

Fin 2015, la seconde phase du projet HOMONIM (Historique, observation, modélisation des niveaux marins), conduit par Météo-France et le Service hydrographique et océanographique de la marine (SHOM), avait été lancée avec le soutien du MEEM pour améliorer les outils de prévisions des surcotes et des vagues à la côte, notamment en outre-mer. Cette étape faisait suite à la mise en place pour la métropole, en mars de la même année, du modèle de vagues côtier haute résolution WaveWatch 3 (WW3).

Après des études sur la bathymétrie et différents essais de maillages, puis une phase de validation, la configuration de ce modèle WW3 pour les Antilles et la Guyane a été installée à son tour en décembre 2016. Le modèle WW3 fournit des paramètres décrivant l'état de la mer à une résolution de 200 m près des côtes françaises et a la particularité d'utiliser une maille irrégulière qui permet d'adapter sa grille à la découpe des côtes. Il est forcé par des vents du modèle atmosphérique AROME-Outre-mer, à 2,5 km de résolution, et imbriqué dans le modèle régional de vagues de Météo-France MFWAM, de 10 km de résolution environ.

En eau peu profonde, WW3 simule mieux les processus liés à la bathymétrie, à la nature des fonds et au trait de côte que le modèle MFWAM. Sur la Guyane, la prise en compte à venir des courants de surface et, à plus long terme, de la nature vaseuse du fond, devrait encore améliorer la simulation des états de mer.

Des configurations de WW3 sur Mayotte et la Réunion seront déployées d’ici fin 2017.

Mieux comprendre et prévoir les phénomènes à fort enjeu

Épisodes méditerranéens : le programme HYMEX

Lâcher de ballon durant la campagne HYMEX les 25-26 novembre 2012 à Montpellier. © Météo-France, Pascal Taburet.
Lâcher de ballon durant la campagne HYMEX les 25-26 novembre 2012 à Montpellier.
© Météo-France, Pascal Taburet

Comprendre le cycle de l'eau en Méditerranée est essentiel pour améliorer la prévision des risques hydrométéorologiques sur le pourtour méditerranéen. Lancé en 2010 pour mieux prévoir les événements extrêmes sur cette région, le programme HYMEX, coordonné par Météo-France et le CNRS, a livré une série de résultats issus de l'analyse des observations récoltées lors de la campagne de mesures intensives de 2012 au cours de laquelle plus de 200 instruments (avions, navires, ballons, radiosondages, gliders, bouées et flotteurs, radars, profileurs de vent, etc.) avaient été déployés. Après trois années d'analyse, les principaux résultats ont en effet été publiés en août 2016 dans un numéro spécial de la revue scientifique Quarterly Journal of the Royal Meteorological Society. Une série de 31 articles, coordonnée par Véronique Ducrocq, chercheur à Météo-France, en collaboration avec le CNRS et des laboratoires de recherche italiens, espagnol, allemand et suisse, présente un large éventail de résultats et d'avancées sur la compréhension des épisodes méditerranéens, leur prévision à différentes échéances temporelles et leur observation.

Les observations réalisées dans le cadre du programme, à l'automne 2012, ont aussi permis de suivre le développement de plusieurs cas de fortes pluies dans le Var. Afin de mieux comprendre les processus physiques en jeu, des simulations numériques de ces épisodes ont été effectuées avec le modèle de recherche développé par la communauté scientifique française, Méso-NH, à une résolution horizontale kilométrique, et confrontées aux observations de la campagne de mesures HYMEX. Cette comparaison a montré le réalisme des précipitations simulées et des processus convectifs associés. Ces travaux ont également permis d'expliquer la localisation des pluies fortes, en identifiant les rôles respectifs du flux marin humide près de la surface, surmonté de possibles couches d'air sec, des reliefs du pourtour méditerranéen et des îles, et enfin des processus convectifs.

Pour progresser encore dans la compréhension de ces processus, les travaux de recherche poursuivis au CNRM dans le cadre du programme HYMEX et du projet ANR MUSIC simulent désormais cette région à une résolution particulièrement élevée. Les premières simulations à 150 m de résolution horizontale sont en cours d'analyse. Ces travaux vont servir de référence pour améliorer les modélisations des phénomènes convectifs dans les systèmes de prévision numérique de Météo-France et préparer de futures versions de ces systèmes à des résolutions sub-kilométriques.

Pluies extrêmes en Afrique : le programme THORPEX

Intensité des précipitations à Ouagadougou
Intensité des précipitations à Ouagadougou, le 1er septembre 2009, à 1 h et à 6 h 30.

L’Afrique est régulièrement affectée par des événements météorologiques extrêmes à fort impact. Un défi important est de mieux comprendre ces événements, d’étudier leur prédictibilité et de les prévoir. Le programme THORPEX (The Observing System Research and Predictability Experiment) de l’OMM, auquel contribue Météo-France, a choisi comme objet d'étude pour l’Afrique de l’Ouest l’événement extrême de pluie qui a frappé Ouagadougou, au Burkina Faso, le 1er septembre 2009. On y avait alors enregistré un cumul record absolu pour le Sahel de 263 mm, occasionnant d’importants dégâts matériels et humains. En collaboration avec les prévisionnistes du Sénégal (ANACIM), une analyse multi-échelle détaillée de ce cas a été menée. Elle a montré que cet événement ne correspondait pas aux lignes de grains observées habituellement sur le Sahel, associées à d'intenses précipitations et rafales de vent, mais qui se propagent trop vite pour générer de forts cumuls de précipitations. Dans la nuit précédant cet événement, un tourbillon cyclonique de mésoéchelle avait fait pivoter une ligne de grains initiale pour la transformer en un système précipitant tourbillonnaire plus large, en forme de virgule, se déplaçant lentement au-dessus de Ouagadougou. L'étude a permis d'identifier les facteurs favorables à la survenue de cet événement extrême, notamment le passage d’un train d’ondes d’est combiné à une forte et large anomalie humide initiée sur l’Afrique de l’Est. À plus grande échelle, l’interaction entre plusieurs ondes équatoriales a été mise en évidence, favorisant l’occurrence de ce type d’événement.

L'identification et la compréhension de l'ensemble de ces facteurs favorables démontrent la prédictabilité de ces événements et donc notre capacité à les prévoir à terme.

Des campagnes de mesure pour mieux comprendre la formation du brouillard

Lâcher de ballon pendant la campagne de mesure du brouillard, en automne 2016, dans la Meuse.
Lâcher de radiosondage pendant la campagne de mesure du brouillard, en automne 2015, dans la Meuse. © Météo-France, Frédéric Burnet

Le brouillard a un impact important sur la sécurité des personnes et sur l'économie, notamment dans le domaine du transport aérien. Sur les aéroports par exemple, il affecte les horaires d'atterrissage et de décollage des avions. Mais la prévision de la localisation et du cycle de vie des couches de brouillard reste difficile car elle nécessite de prendre en compte ses propriétés microscopiques. Pour améliorer la modélisation et la prévision du brouillard, Météo-France a mené deux campagnes de mesure durant les automnes 2015 et 2016, en collaboration avec l’IRSN (Institut de radioprotection et de sûreté nucléaire). Réalisées à la station atmosphérique de l’Observatoire pérenne de l’environnement, à Houdelaincourt (Meuse), via un important dispositif instrumental, elles répondaient aux objectifs suivants :
– documenter les caractéristiques du profil vertical des propriétés microphysiques du brouillard (nombre et dimension des gouttelettes d’eau, contenu en eau liquide et visibilité) pour contraindre et valider les simulations numériques ;
– évaluer l’apport de l’assimilation des profils de température et d’humidité fournis par les radiomètres micro-ondes pour la prévision du brouillard ;
– prendre en compte le dépôt turbulent d’eau liquide sur la végétation qui n’est actuellement pas pris en compte dans les modèles.

Des capteurs ont été installés à différents niveaux d’altitude (2, 10, 50 et 120 m) et des profils verticaux réalisés in situ jusqu’à 500 m avec un ballon captif. Ces données vont permettre d’explorer la variabilité des différents paramètres dans toute la couche de brouillard et à terme d'améliorer la représentation du brouillard dans les modèles numériques.

Avalanches : exploiter les données satellitaires

Cartographie de dépôts d'avalanches près d'Aragnouet dans les Pyrénées, en mars 2015.
Cartographie de dépôts d'avalanches près d'Aragnouet dans les Pyrénées, en mars 2015.

La localisation et l'estimation de la taille des dépôts avalancheux sont d'une grande importance pour les études sur la stabilité du manteau neigeux. Elles permettent d'évaluer et d'améliorer les modèles physiques de prévision du risque d'avalanche et ainsi de mieux identifier les zones et les périodes à risque. À plus long terme, disposer de telles observations homogènes serait également précieux pour étudier l'évolution de l'activité avalancheuse naturelle en lien avec le changement climatique. Or, les bases de données actuelles sont principalement constituées de simples observations visuelles effectuées sur le territoire.

Depuis 2016, Météo-France exploite des données satellitaires haute résolution pour l’étude du manteau neigeux et des avalanches en particulier. Les satellites Sentinel-1, opérés par l’Agence spatiale européenne, permettent désormais d'étudier le manteau neigeux à une résolution spatiotemporelle compatible avec la télédétection des dépôts avalancheux. Le duo Sentinel-1A (lancé en 2014) et Sentinel-1B (lancé en 2016) observe les massifs français à l'aide d'un radar à synthèse d'ouverture (SAR, Synthetic Aperture Radar) en bande-C ayant une empreinte au sol d’une largeur de 20 m et une répétitivité de 6 jours. À l’endroit où s’est produite une avalanche, la neige présente des caractéristiques (hauteur, densité, rugosité…) différentes de celles observées aux alentours, ce qui modifie sa signature dans les mesures SAR. La détection est faite grâce aux importantes variations des coefficients de rétrodiffusion qui en découlent.

Un algorithme de détection des avalanches a été développé cette année par Météo-France et testé avec succès dans les Alpes et les Pyrénées et pourrait être automatisé dans un futur proche. Une base de données cartographique des dépôts avalancheux est par ailleurs en construction à partir des ces résultats (identification des événements depuis l'hiver 2014-2015). Elle offrira un atout majeur pour l'amélioration des prévisions, notamment lors des événements de vigilance rouge ou orange.

Quantifier l'incertitude sur les prévisions: un défi pour l'avenir

La prévision d'ensemble : quels apports ?

Petite objet avec nuage

Les exigences des utilisateurs des services de Météo-France sont de plus en plus grandes en ce qui concerne la précision temporelle et spatiale des prévisions. Elles poussent l’établissement à améliorer en permanence ses systèmes de prévision, notamment son modèle à maille fine. Toutefois, compte tenu des erreurs inhérentes aux mesures et aux calculs de prévision numérique, et même si ces dernières diminuent régulièrement, une part d’incertitude subsiste et continuera à subsister dans les prévisions, y compris à courte échéance. Un des défis est ainsi aujourd'hui de quantifier cette incertitude.

Celle-ci peut être déterminée par la méthode dite de prévision d’ensemble. Elle consiste à effectuer non pas un seul calcul de prévision mais plusieurs, en variant les hypothèses de départ dans la limite des erreurs de mesure ou de modélisation. Les résultats des différentes simulations dessinent le spectre des scénarios possibles et renseignent sur la probabilité de chacun. S'ils sont tous identiques, la confiance dans la prévision est élevée. Si au contraire la dispersion est importante, la prévision est incertaine. Les scénarios de prévision sont alors déclinés/classés par ordre de probabilité décroissante.

Météo-France applique déjà cette méthode à la prévision du temps et s’attache à la développer pour d'autres phénomènes : avalanches, surcotes, crues rapides.

Mieux anticiper les crues rapides méditerranéennes grâce à la prévision d'ensemble

Dessin d'un réveil

Prévoir la localisation et l’intensité des fortes pluies qui surviennent sur les régions méditerranéennes ainsi que la réponse hydrologique des bassins concernés constitue un défi scientifique majeur. Une approche intégrée originale, considérant les incertitudes de prévision météorologique et hydrologique, est développée depuis 2007 au Centre de recherche de Météo-France pour prévoir le débit de rivières à réaction rapide. Elle tire parti des scénarios de pluies issus du système de prévision d'ensemble à résolution kilométrique AROME. Pour la simulation hydrologique, elle s'appuie sur une méthode de perturbation de l'humidité initiale des sols et des paramètres sensibles du modèle hydrologique ISBA-TOP, dédié à la simulation des crues rapides, afin d'obtenir un ensemble hydrologique.

Ce système de prévision d'ensemble des débits permet d'augmenter le délai d'anticipation des crues éclair et de renseigner sur l'incertitude qui affecte la prévision.

Les perspectives de travail concernent maintenant des échéances très courtes de prévision de l'ordre de 3-4 heures, délai d'anticipation pertinent pour l'intervention des services de secours en situation de crise.

Prévision d'ensemble du risque d’avalanches : une première mondiale

Graphique de hauteur de neige du 26/02/2016 au 01/03/2016 dans le massif du Mercantour

Graphique d'indice de risque naturel le 26/02/2016 pour le massif du Mercantour
Prévisions PEARP-S2M initialisées le 26/02/2016, en termes de hauteur de neige et d'indice synthétique des risques de déclenchement spontané d'avalanche (de 0 à 8). Ces prévisions ont permis une bonne anticipation des abondantes chutes de neige qui ont effectivement été observées sur le massif du Mercantour (entre 50 et 80 cm en 48 h) ainsi que des risques d'avalanches associés. La dispersion augmente au-delà de 2 jours d'échéance, en raison d'une incertitude sur la chronologie de l'activité de cette perturbation de type « retour d'Est ».
© Météo-France
Carte de vigilance, indices de risque d'avalanche pour le massif du Mercantour du 26/02/2016 au 01/03/2016
Chronologie de l'événement sur le massif du Mercantour : carte de vigilance, indices de risque des Bulletins d’estimation du risque d’avalanche et événement marquant. © Météo-France

Prévoir l’évolution du manteau neigeux est complexe. Ce dernier est en effet très sensible aux conditions météorologiques et à de nombreux effets de seuils, comme la variation de la limite pluie-neige.

La chaîne de modélisation nivologique S2M (SAFRAN - SURFEX/ISBA-Crocus - MEPRA), alimentée par des prévisions météorologiques du modèle ARPEGE, contribue à l’élaboration de la prévision du risque d’avalanche pour le lendemain (Bulletins d’estimation du risque d’avalanche, vigilance avalanche). Sa fiabilité varie avec les situations.

Pour estimer de manière objective la confiance que le prévisionniste peut accorder à une prévision donnée à un instant donné, et en vue de repousser l’échéance de prévision, le Centre d’études de la neige (Météo-France/CNRS) a développé un système de prévision numérique nivologique « d’ensemble » : une première mondiale.

Ce nouveau système, alimenté par la prévision d’ensemble ARPEGE, a été testé en temps réel pendant l’hiver 2015-2016. Il améliore la fiabilité globale des simulations et l’anticipation des phénomènes à enjeu, y compris pour des échéances de 3 à 4 jours.

Des prévisions probabilistes des surcotes

Graphe de prévision d'ensemble de surcotes pour La Rochelle lors de la tempête Doris du 9 mars 2016
Graphe temporel de prévision d'ensemble de surcotes pour La Rochelle lors de la tempête Doris du 9 mars 2016, lancée le 6 mars à 18 UTC. L’observation de la surcote est indiquée par la courbe en trait continu rouge, alors que la prévision d'ensemble de surcotes est affichée sous la forme de boîtes à moustache. La courbe orange représente le membre non perturbé de l’ensemble et la courbe verte la prévision déterministe lancée le 6 mars à 18 UTC. © Météo-France

Prévoir au mieux les niveaux marins est un enjeu important pour la vigilance « Vague Submersion » mise en place depuis octobre 2011. Le projet HOMONIM (Historique, observation, modélisation des niveaux marins), mené avec le Service hydrographique et océanographique de la marine (SHOM), sous maîtrise d’ouvrage de la DGPR et de la DGSCGC, vise à améliorer les capacités de prévision des submersions marines. Dans ce cadre, Météo-France a développé un modèle de surcotes, utilisé depuis janvier 2014. Une nouvelle version, probabiliste, a depuis été mise au point. Elle est opérationnelle depuis le 5 juillet 2016.

Cette prévision d'ensemble de surcotes utilise deux fois par jour les paramètres vent et pression de la Prévision d'ensemble ARPEGE comme autant de forçages atmosphériques pour le modèle de surcote déterministe.

Les travaux sur cette application se prolongeront avec l’optimisation de la visualisation des résultats (graphiques, calculs dérivés pour faciliter la prise de décision) et l’utilisation d’autres prévisions d’ensemble atmosphériques comme celles basées sur le modèle AROME de Météo-France ou sur le modèle IFS développé par le Centre européen pour les prévisions météorologiques à moyen terme.

Découvrez les autres chapitres de la partie

2.2 Climat : exploiter les données du passé pour anticiper les changements à venir