image
image
image

Votre IP : 54.92.158.65
Dernier ajout : 23 septembre
Visiteurs connectés : 16

image Conception
Développé sous SPIP
Informations légales

image
image
Recherche image

Pratiques et Techniques de la Plaisance

image

Accueil du site > OpenCPN > High Tech’Gribs > Les modèles de prévision numérique et zyGrib

Rubrique : High Tech’Gribs

__________________________________________________________________________________________________________________

Les modèles de prévision numérique et zyGribVersion imprimable de cet article Version imprimable

Publié Novembre 2011, (màj Novembre 2011) par : yvesD   

Copyright : Les articles sont la propriété de leurs auteurs et ne peuvent pas être reproduits en partie ou totalité sans leur accord
S'identifier pour s'abonner par mail

Mots-clés secondaires: météo

Autour des modèles

zyGrib (et aussi Ugrib, Navimail, ...) est un outil permettant à la fois de récupérer des prévisions de paramètres météorologique et de les visualiser de manière commode et utile.

  • Je vais tenter ici de décrire brièvement les modèles météorologique.
  • J’évoquerais dans d’autres articles :
    • la signification des données issues de la prévision numérique, accessibles et affichées par zyGrib ;
    • la diffusion des résultats de la prévision ;

Chaque partie commence par un court résumé qu’il suffit de lire dans un premier temps, le court développement qui suit pouvant être assimilé progressivement, ultérieurement.

Les modèles météorologique, résumé

  • A quoi sert le format Grib
    Les modèles numériques de prévision s’appuient sur des modèles conceptuels élaborés par les météorologistes et les lois physiques régissant l’évolution des paramètres météorologiques de ces modèles pour prévoir l’état futur de l’atmosphère ou de la surface de l’océan. Le format grib est utilisé pour diffuser une partie de ces résultats.
  • Les modèles météorologiques
    Parmi les modèles opérationnels dans le monde on peut retenir
    • le GFS du NOAA dont s’alimente zyGrib,
    • le modèle du centre européen CEPMT/ECMWF,
    • les modèles Arpège et Aladin ce dernier avec une maille fine)
    • et Arome, [1] [2] de Météo-France et al.

Ces modèles travaillent à des échelles plus ou moins fines. Ainsi inter-service mer et le modèle Arpège s’appuient sur une échelle synoptique pour décrire des fronts et dépressions. Des modèles plus récents et plus fins traitent même des orages isolés, des pluies diluviennes ou des vents au débouché dune vallée.

Le modèle utilisé (GFS, Arome, ...) et son échelle (synoptique, méso-échelle) doivent être connus avant d’accorder sa confiance à telle ou telle source de Grib pour tel ou tel bassin de navigation.

Les modèles météorologiques, développement

Le maillage

Des énormes programmes tournant sur des énormes ordinateurs partent de ces lois et d’un état initial de l’atmosphère (observé ou déjà issu d’un calcul) pour calculer les états ultérieurs.

  • Le choix d’une résolution spatiale (par ex : de 1 ° à 0,025 ° de longitude ou de latitude, 100 m ou 10m de hauteur) définit les points (L, l, z pour Longitude, latitude et altitude) de ce maillage.
  • On applique les lois d’évolution en chaque point pour calculer l’état qu’ils prennent au pas de temps ultérieur (par ex, au bout de 3 heures si la maille temporelle est 3 heures).
  • Le nouvel état dépend des états antérieur du point et de ses voisins.
  • L’état d’un point ou d’une brique du maillage est l’ensemble des paramètres météorologiques que ce modèle prend en considération.
Les processus en jeu
  • En théorie la connaissance parfaite de l’état initial au contour de la zone considérée suffit pour calculer de proche en proche l’état de tous les points (L, l, z) de la zone. Mais la connaissance imparfaite de l’état initial ou approchée des phénomènes mis en jeu et des lois physiques qui les régissent (lois parfois remplacées par des estimations à la mano, le forçage, (par ex. pour le couplage océan-atmosphère) contribuent à dégrader rapidement la qualité de ce qui est prévu.
  • On peut y remédier par une meilleure prise en compte des phénomènes physiques mis en jeu, des lois physiques régissant ces phénomènes, en général à l’occasion de révision du modèle et après de nombreux réglages. Mais le papillon de Lorenz n’est jamais bien loin.
  • On y remédie également en forçant l’ensemble des points intermédiaires (L, l, z) à s’accorder avec les valeurs issues d’observations météorologiques faites en de trop rare point (il faudrait 10 millions de points d’observations, on ne dispose que d’un million).
  • L’assimilation des données est ce processus qui lisse ou distord la prévision pour la faire passer au plus près de la réalité. Cette même assimilation permet d’introduite dans le modèles des valeurs dérivées d’observations satellites, les valeurs observées n’étant pas directement prise en compte par le modèle (le satellite voit les vagues, le modèle veut du vent). On ne peut ignorer les observations de ces satellites qui voient partout, et qui ajoutent tellement de points d’observation dans des terra incognita.

Les échelles spatiale et temporelle des prévisions
Ces modèles conceptuels traitent de phénomènes qui ont un sens à une échelle spatiale et temporelle donnée, en ignorant platement les phénomènes d’une échelle plus fine.

  • Echelle synoptique
    Ainsi, la plupart des modèles jusqu’à la fin du XXème siècle sont des modèles dit synoptique ne traitaient que des phénomènes dont l’étendue s’exprime en quelques milliers de km et dont la durée s’exprime en journées. Ils ignorent platement les phénomènes de l’échelle méso et encore plus ceux de l’échelle aérologique.
    Le maillage d’un modèle synoptique est typiquement le degré d’arc ( 100km, 60M) dans le sens horizontal, 400m dans le sens vertical et 6 heures dans le sens temporel. Il traite des phénomènes tels que les dépressions et les systèmes frontaux atlantiques.
  • Méso-échelle
    Juste en dessous, la méso-échelle traite des brises et des lignes de grains. A cette échelle les modèles peuvent être enrichis de lois physiques supplémentaires pour décrire les mouvement verticaux - convectifs - des couches de l’atmosphère, ce sont les modèles meso-NH (NH pour Non Hydrostatique) qu’on voit fleurir au XXième siècle.
  • Echelle aérologique
    Plus fine encore est l’échelle aérologique dans laquelle les grands orages isolées apparaissent enfin en temps que tels plutôt qu’en terme de probabilité d’apparition.
JPEG
  • Les contingences techniques
    Le maillage extrêmement fin, la représentation nécessairement très réaliste du relief, le nombre de point au contour du domaine, le nombre d’observation à assimiler à l’intérieur du domaine conduisent à des temps de calcul prohibitif qu’on diminue en restreignant la taille du domaine d’application à - par exemple - un pays.
     
    Il est alors fréquent que des zones d’intérêt (litoral, centre d’activité humaine) soient traitées en maille fine alors que les océans se contentent de modèles synoptiques. L’état initial au contour est le plus souvent celui prévu par le modèle d’échelle supérieure.
  • Exemple de l’effet du choix de l’échelle
    Les résultats de ces derniers modèles sont bluffant au voisinage des cap et des forts reliefs côtier (littoral varois, Corse) ou on distingue bien les veines de calme connues des locaux.
     
    Dans l’exemple ci-contre des vents prévus entre Saint Tropez et Port Camargue pour le 22/11/2011 à 1800Z, GFS à large maille (affiché par zyGrib et gratuit, résolution de 1° ) gomme les effets de cap qu’Arome à maille très fine, à droite voit bien (et que Ugrib savait afficher, lui, 2,5 km mais 0,7€ pour une seule échéance).
PNG
Calcul à grosses mailles Calcul à maille fine

Les données issues de la prévision numérique, résumé de l’article suivant

  • Plusieurs de ces données ont un sens quasi connu et compréhensible des marins :
    • température, pression, humidité relative et même point de rosée.
  • D’autre sont plutôt réservé au météorologiste :
    • tourbillon, potentiel, ...
  • D’autres enfin gagnent à être apprivoisées par le marin qui en veut plus ou veut en tirer plus de zyGrib :
    • température potentielle du thermomètre humide, données en altitude à 1500, 3000, 5500m et plus, indice CAP.

Elles seront toutes développées dans un autre article.

Les données issues de la prévision numérique, développements

Dans un autre article, pense bête :

  • prévision en bloc pour une cellule de 100kmx100kmx6h,
  • pas de points intermédiaire ni d’interpolation aguichantes et attrape gogo.
  • grib,
  • carte expertisée,
  • IAC Fleet, ...
  • fonctionnement du météorologue expert
  • modalité de diffusion, gratuite ou pas

Et que faire si on en a, si on en a pas (des cartes, de l’accès internet, ...) ou si on est dans une zone mal couverte ?


[1] on en apprendra énormément dans l’article de F. Boutier

[2] ou en regardant les très belles images de cet exposé

UP


Répondre à cet article
(pour répondre à un message en particulier, voir plus bas dans le fil)

25 Messages de forum

__________________________________________________________________________________________________________________

__________________________________________________________________________________________________________________

  • Bonjour,
    je suis en train d’installer opensource (encore merci merci aux auteurs) et suis aux GRIB
    j’ai bien compris que GRIB2 était à préférer. Je connais pour l’avoir utilisé UGRIB, simple a installer et utiliser, zyGRIB semble bien plus compliqué.

    je n’ai pas compris quel était l’interet de zyGRIB par rapport à UGRIB et ne sais pas trop lequel installer.
    Alors, un petit tableau de synthese UGRIB zyGRIB, avantage inconvénient...
    :o)
    Peut etre existe-il déjà ? mais je ne l’ai pas trouvé

    merci

    Répondre à ce message

    • J’ai installé les deux depuis des années, vu la petite taille de ces logiciels on peut les installer simultanément.

      Sauf erreur (car je ne m’en sers que rarement) :

      Ugrib :

      • nécessite de s’identifier pour récupérer les fichiers Grib, ce qui est un inconvénient, car j’oublie régulièrement mon identifiant
      • a une commodité d’affichage du graphique d’évolution sur 8 jours, c’est joli, mais c’est un leurre car la fiabilité des Grib gratuits est bien trop mauvaise pour jouer à ce jeu.
      • n’est pas très ergonomique (avis personnel discutable).

      Zygrib

      • peut afficher des Grib avec davantage de paramètres que Ugrib
      • ne nécessite pas d’identification
      • est plus ergonomique (avis personnel discutable)

      Répondre à ce message

    • 14 décembre 2011 10:43, par yvesD écrire     UP     Ce message répond à ... Animateur

      ces logiciels (zyGrib, Ugrib, maxsea, navimail, ...) affichent (viewer) des fichiers grib et facilite auss la récupération des dits fichiers sur les sites de mise à disposition.
      Les producteurs des fichiers sont :

      • le NWS pour les fichiers gratuits de vent, pression, nébulosité, ... ; échelle synoptique (maille = 0,5°), récupéré directement par zyGrib et (sans doute) Ugrib, et indirectement par maxsea, chopper, ...
      • FNMOC pour les fichiers vagues (modèle WWW3)
      • Météo-France pour des produits vent, vague, pression payants à récupérer par le logiciel navimail ; échelle synoptique (monde) ou méso (europe, france) avec maille de qq km pour le modèle le plus fin (arome)
      • et c’est à peu près tout
      • par contre de très nombreux sites rediffusent ce que NWS produit

      Le plus souvent les fichiers sont récupérés compressés, avec l’extension bz2, et ingérés directement par les viewers.
      zyGrib ne sait pas afficher les grib de meteo-france (point très négatif) que tous les autres affichent.
      zyGrb sait afficher plein de champs de valeurs plus ou moins ésotèriques (humidité, nébulosité, champs en altitude, ...) au prix de contorsions à maitriser (toujours s’assurer, par le cartouche en haut à gauche) qu’on affiche bien ce qu’on espère.
      zyGrib sait afficher aussi les IAC Fleet (anachronique, sauf cas patologiques, voir article de Sergio) ainsi que des trucs (méso-échelle) autour du territoire suisse.
      Très difficle d’accorder sa confiance à des prévision au delà de 5 jours - sauf cas patologiques - NWS produit jusqu’à 15 jours (si !)

      Personnellement je les ais tous installé, pas bien difficile et c’est un peu ceintures et bretelles sur le même pantalon.

      Yves.

      Répondre à ce message

  • 16 décembre 2011 10:18, par yantho écrire     UP

    Bonjour
    pour moi zygrib 5.0.6 n’ouvre aucun des deux fichiers...

    Répondre à ce message

    • 16 décembre 2011 10:25, par yoruk écrire     UP     Ce message répond à ... Animateur

      Exact, je plante aussi, mais c’est normal compte tenu des procédures de décompression de zyGrib... du moins me semble t il (AMHA comme disent les Geeks:-/ )
      Michel

      Répondre à ce message

      • j’ai décompressé moi-même j’obtiens deux fichiers à terminaisons GRB et grb

        Répondre à ce message

        • 16 décembre 2011 10:53, par yoruk écrire     UP     Ce message répond à ... Animateur

          Oui, c’est bien cà, mais zyGrib semble avoir une procédure de décompression automatique des fichiers

          ***.grb.bz2
          ***.gz pour les fichier NOAA
          ***.mbz pour météo blue...

          Et il ne semblerait savoir faire que çà (ce qui est quand même pas mal ) :-)
          Yves nous confirmera peut être
          Michel

          Répondre à ce message

          • non , je confirme que zyGrib sait lire les fichiers .grb qu’on télécharge par saildocs (je viens de vérifier)

            il est de plus capable de décompresser à la volée les fichiers gribs compressés en bz2

            se peut-il que les deux fichiers mis ici par Robert soient au format Grib2 ? (que zyGrib ne comprend pas encore me semble-t-il)

            Répondre à ce message

          • 16 décembre 2011 15:06, par yvesD écrire     UP     Ce message répond à ... Animateur

            J’infirme. C’est un problème qu’on ne rencontre qu’avec zyGrib.

            Dans le zip de Robert il y a deux fichiers dont un 20111122180047.GRB d’environ 5ko et qui m’a servi à illustrer le bluffage des modèles méso (arome de météo france dans ce cas) dans mon articles sur les modèles de prévisions.

            Je dézippe le fichier de robert et je lance zyGrib-5.0.6 sur ce 20111122180047.GRB et me récupère un « échec lors de l’ouverture, ce n’est pas un fichier GRIB ou il contient des données non reconnues ou ... »

            J’ai signalé ce problème sur zygrib.org, sans retour pour l’instant.

            J’ai sans problème utilisé ce fichier avec Ugrib et navimail (de météo france, normal, c’est eux qui ont produit ce fichier) et un logiciel de nav non public domain.

            concernant le bz2, j’ai sans problème il y a qq semaines décompressé un bz2 issu du NOAA et ai passé sans problème la mouture décompressée à zyGrib, j’en ai conclu que zyGrib mange sans pb du .bz2 ou sa forme décompressée, ce qui n’a rien de surprenant, qu diable !

            Serait-ce un variante de grib (grib2 ? caisse ?) ...

            Répondre à ce message

  • 13 janvier 2012 17:27, par ebdos écrire     UP  image

    Bonjour,

    Les calculs mis en oeuvre sont complexes et requièrent de puissants calculateurs, capables d’intégrer les multiples informations fournies par les capteurs d’observations.
    Malgré la puissance des calculateurs, le temps de calcul doit être fort long.... (?)
    Ainsi, les modèles de prévision numérique sont téléchargeables 4 fois par jour sur NOAA. Cela donne à penser qu’ils sont élaborés 4 fois par jour par NOAA.

    Disposons nous 4 fois par jour de Grib élaborés à partir de données d’observations complètes, c’est à dire, nouveau calcul à partir de l’ensemble des données des capteurs ?
    Ou, est-il exact de dire que 1 grib par jour est élaboré à partir de l’ensemble des données d’observation, et que les 3 autres serait caclulés à partir de données partielles ajoutées au Grib complet ?
    Pouvez nous éclairer sur ce sujet, je vous en remercie cordialement .
    Bernard.L.

    Répondre à ce message

    • 13 janvier 2012 17:41, par yoruk écrire     UP     Ce message répond à ... Animateur

      Bonjour
      Yves qui va peut être passer par là pourra répondre beaucoup mieux que moi.
      Concernant zyGrib, les données sont annoncées toutes les 6 heures et présentées à l’écran toutes les 3 heures. Donc, quelque soit les méthodes d’optimisation des données NOAA-GFS, elles sont recalculées pour des prédictions toutes les 3 heures.
      Pour en témoigner, ici, en méditerranée orientale, nous prenons les données prévisionnelles des Gribs avec beaucoup de prudence, sachant qu’il s’agit de vents synoptiques, et que les thermiques et les configurations du terrain influent beaucoup. La prudence étant de les traiter en historique, pour éviter les mauvais coups, et d’interroger le site grec de Poséidon, très performant à 24/36 H…
      Cordialement
      Michel

      Répondre à ce message

    • 14 janvier 2012 04:38, par yvesD écrire     UP     Ce message répond à ... Animateur

      Pour vous répondre je vais préciser les notions d’assimilation, d’analyse et d’ébauche et décrire le processus temporel de prévision.
      Trop schématiquement, on va reconstruire à postériori un état initial encore mieux connu (l’analyse) de l’atmosphère, état sur lequel on va faire des calculs de proche en proche pour obtenir les prévisions aux échéances de 0 6 à 196 heures ?

      Remarque : n’hésitez pas à sauter ce qui vous parait incompréhensible (tout ?)

      Rappel :
      La modélisation de l’atmosphère - qui est la base de la prévision numérique du temps (PNT) - postule que les phénomènes de base sont continus dans le temps et dans l’espace, et elle s’appuie sur des lois d’évolutions continues dans le temps et l’espace. Ces lois sont représentées par des équations d’évolution (en pratique des dérivées partielles espace/temps)..

      La résolution de ces équations (c.a.d le calcul de l’évolution du temps) se fait par des calculs répétés (itératifs) en quelques points de la croute atmosphérique (typiquement des boites de 100 km par 100km et de 10 à 100 m d’épaisseur et avec un pas de temps - la maille temporelle - de, disons, 6 heures. On est donc passé d’une représentation continue (la modélisation) à une représentation discrète et non continue (le calcul), et aussi d’équations différentielles à des différences finies

      Pour obtenir des résultats de qualité ce calcul doit partir d’un état initial de qualité obtenu par exemple par des observations parfaites faites pour toutes les boites et toutes les 6 heures (mesures dans les stations) et toutes les 12 heures (lâchers de ballon sonde). A ces observations initiales, parfaites et complètes on applique les équations d’évolution, d’heure en heure pour aboutir à un nouvel état à 6 heures (et jusqu’à 144 voir 196 heures) d’échéance

      Le très gros problème est que :

      • on a pas d’observations pour tous les points (espace) du maillage : il faut reconstituer des points manquants.
      • les observations sont fréquemment décalées par rapport aux heures (0, 6, 12 et 18) du maillage, elles peuvent arrivent trop tard pour être prises en compte dans le calcul mais elles sont tellement précieuses que même arrivée en retard on s’arrange pour les prendre en compte ultérieurement. Elles peuvent intrinsèquement être déphasées par rapport aux 0, 6, 12 et 18h (observations faites en continu par les satellites défilants)
      • elles sont entachées d’erreur occasionnelles ou systématiques : on rejette les premières si elles sont trop erronées et on corrige les dernières si on sait les identifier (cas d’un thermomètre d’une station systématiquement/statistiquement optimiste).
      • dit autrement « les observations ne sont pas la meilleure approximation de l’état réel de l’atmosphère », (selon Hallot et al. in cours de l’ENAC)

      En pratique :
      Pour obtenir un état prévu à 6h (les heures sont toujours TU en météo), on lance des calculs vers 4 heure du matin :

      • On part des observations de la veille à 18h pour calculer à la fois une prévision à 0h du matin et aussi la manière dont l’atmosphère évolue à ce 0h, c’est l’ébauche dont la partie décrivant la manière dont l’atmosphère évolue à 0h est le modèle adjoint
      • On utilise cette ébauche pour :
        • reconstituer les très nombreux points manquant
        • recadrer dans le temps (c.a.d à 0 h) les observations faites plus tard (satellites défilant, mesures tardives) ou qui n’était pas arrivée à 0h (souvenez-vous, il est 4h du matin maintenant, elles sont arrivées),
        • corriger/rejeter les observations qui s’écarte un peu ou beaucoup de l’ébauche
        • et enfin corriger la prévision faite pour 0h pour qu’elle passe plus près des observations
          On obtient alors , par cette phase d’assimilation de donnée, « une meilleure estimation de l’état de l’atmosphère » à 0h : c’est l’analyse.
        • la citation ci-dessus devient « les observations ne sont pas la meilleure approximation de l’état réel de l’atmosphère ... Les observations ne servent donc qu’à rappeler le modèle vers la réalité »,
      • on applique les lois d’évolution sur cette analyse pour obtenir des prévisions à +6h, +12h, ... +196h (ou même de 3 heures en 3 heures)
      • et 6 heures plus tard (donc à 12 h TU), on recommence à calculer une ébauche à 6h, puis à ingérer les observations faites autour de 6h TU (ou recalées à 6h TU) pour obtenir une nouvelle analyse ... à 6h et une prévision à 12h et suivantes
      • etc ...
        L’image jointe (tirée du météorologie générale, cours de l’ENAC par Hallot et al.) précise ce processus itératif. Une autre image dans la transaction suivante en donnera une autre vision (ah, une seule image par transaction).

      Remarques :

      • Ceci dit, on comprend mieux les cartouches des fax météo du DWD qui précisent des observations à 0h (pointage synop), des analyses à 0h et des prévisions à 6h (prognosis) en relation avec la base des observations et l’heure du calcul.
      • Tout ce qui est précisé ci-dessus l’est pour l’échelle synoptique. Aux échelles inférieures (plus détaillées, méso-échelle ou aérologique) de nouvelles considérations apparaissent.

      Enfin, en réponse à vos questions :

      • oui, le calcul est énorme mais les ordinateurs météo sont des monstres qui vous moulinent une ébauche+assimilation en deux heures et 7 jours (ou 16, c’est pareil) de prévisions en 2 heures également, ce qui laisse 2 heures de repos toutes les 6 heures. Pas mal, non ?
      • oui, c’est fait toutes les 6 heures, 4 fois par jours
      • non, pas tout à fait nouveau calcul à partir de l’ensemble des données des capteurs mais plutôt évolution permanente de l’état numérique de l’atmosphère pour passer au plus près des observations faites toutes les 6 heures (dans les prévisions de ce matin il y a encore un peu de la tempête de 1999 ;-) )
      JPEG

      Répondre à ce message

      • je vous remercie pour ces explications assez claires pour ce qui me concerne.
        En synthèse je retiens que : Oui , toutes les 6h l’ensemble du processus est renouvelé en totalité, de la phase d’assimilation à la phase de production des grib.

        Ce faisant, j’ai souvent observé dans l’usage des Grib et leur analyse, toutes les 6h une continuité somme toute assez logique. En revanche j’observe aussi - assez souvent - dans cette sorte de continuité, un « gap » parfois important entre les grib produits à 18h et ceux produits à 24h.
        exemple : une dépression semble progresser de manière assez continue (tout en relativisant cette sorte de continuité dans la progression) entre le grib de J à 0h et celui de 6h, puis idem entre les grib de 6h à 12h, et idem de 12h à 18h. Sur le grib de 0h à J+1 la dépression en question présente un retard important par rapport a la prévision de Oh à J ou même par rapport à la prévision de 18h à J.
        Donc, dans la mesure ou les phases d’élaboration des grib sont reprises en totalité toutes les 6h, comment expliquer que de tels écarts puissent se produire ?
        Peut-on attribuer les écarts au fait que (lu dans votre texte) les ballons sondes sont lancés toutes les 12h ?

        cordialement
        B.L

        Répondre à ce message

        • Je note votre observation (gap entre 18h et 24h) pour laquelle je n’ai pas d’explication. Mon intuition me dit que la prévision de 24h serait faite sur des bases légèrement différentes des précédentes, par ex en y incorporant (ou en la recadrant) des observations plus précises. Je posterai mes informations lorsque j’en aurai.

          Ma connaissance se limite à ce qui est publié ... dans les revues auxquelles j’ai accès, c’est à dire essentiellement ce qui tourne autour des modèles français et européens.

          Autant il est facile de récupérer les données produites par le NOAA/NWS autant il est ardu de trouver des précisions précises et détaillées concernant le modèle (GFS et autres) et sa mise en oeuvre. Enfin, je parle pour moi, qui suis pas mal bloqué pour un article que je suis en train d’écrire sur les données de zyGrib

          Alors si quelqu’un à des bonnes informations (ou des URL sur des articles précis) de première fraicheur concernant GFS.

          Yves.

          Répondre à ce message

      • Dans la dernière livraison de La Météorologie, l’introduction de l’article de L Raynaud (cf image jointe) précise de manière très claire le role de l’assimilation de donnée pour obtenir un meilleur état initial (l’analyse, c’est ça) à partir des observations et des prévisions précédentes (l’ébauche).
        C’est vraiment très clair.
        Yves.

        Assimiler pour prévoir
        La prévision numérique du temps consiste à simuler l’évolution de l’atmosphère par le biais de modèles mathématiques. Son succès repose, d’une part, sur une connaissance précise des lois qui gouvernent l’évolution de l(atmosphère, et, d’autre part, sur la connaissance précise de l’état de l’atmosphère à l’instant ou la prévision est initialisée.
        La détermination de l’état initial est une étape d’autant plus importante que les prévisions météorologiques sont très sensibles aux conditions initiales (Rabier, 1995). Comme l’état vrai de l’atmosphère à un instant donné est inconnu, il s’agit de l’estimer à partir des différentes sources d’information disponibles. En premier lieu, les observations, in situ et satellitaires, fournissent des mesures en divers points du globe et de l’atmosphère terrestre, mais elles sont caractérisées par une répartition spatio-temporelle hétérogène. Par exemple, l’hémisphère Sud et les océans sont peu observés en comparaison de l’hémisphère Nord et des zones continentales. Pour palier ce manque de données dans certaines régions, une seconde source d’information est utilisée. Appelée ébauche, cette source est le plus souvent fournies par une prévision du modèle à courte échéance : c’est la meilleure estimation de l’état vrai du système en l’absence de toute autre information. L’assimilation de données désigne alors l’ensemble des techniques permettant de combiner de manière optimale les observations et l’ébauche, afin d’obtenir la meilleure description possible de l’état de l’atmosphère (Rabier, 1993), aussi appelée analyse (figure 1, voir image attachée). L’intégration de cette analyse dans le temps avec un modèle de prévision du temps fournit ensuite les prévisions météorologiques de quelques heures à quelques jours d’échéance
        Les observations et l’ébauche utilisées pour déterminer I’analyse sont néanmoins imprécises et ne fournissent qu’un reflet de la réalité. En effet, les observations sont entachées d’erreurs de mesure et de représentativité, et les prévisions des modèles numériques sont également impatfaite. Ces erreurs sont prises en compte lors du processus d’assimilation de données par l’intermédiaire de leur matrices de variances/covariances spatiales (à partir de là on entre dans le vif de l’article, c’est terminé pour nous)

        Répondre à ce message

    • Voici la deuxième image promise, tiré du « fondamentaux de météorologie » de S. Malardel (une version moderne du Triplet et Roche d’il y a 30 ans, avec beaucoup de météorologie dynamique)

      Précisions concernant l’assimilation (du moins ce que j’ai compris) :

      • on parle d’assimilation variationelle (en abrégé, VAR) lorsqu’on associe une fonction de cout qu’on cherche à minimiser (pour rapprocher le modèle des observations)
      • on parle de 3D VAR lorsqu’on « tord » ce qu’il faut dans l’espace pour rapprocher les prévisions faites pour un point du modèle (une boite tous les 100km) du point où l’observation à été faite
      • on parle de 4D VAR lorsqu’on « tord » dans l’espace et aussi dans le temps pour recaler une observation faite à n’importe quel moment des 0, 6, 12 et 18h de l’horloge de la météo (recaller une série de mesures avion par exemple)

      En 2012 la totalité des modèles d’échelle synoptiques que je connais (GFS du NOAA, CEPMT, Arpège et Arome de Météo-France, et al.) sont doté d’une assimilation 4D-VAR, plus couteuse en temps de calcul que le 3D-VAR mais qui permet également d’inclure dans les observations des phénomènes qui ne sont pas directement utilisés par ailleurs. Il s’agit en particulier des mesures et images faites par les satellites et aussi des mesures de vents faites par satellite (QuickScat)

      JPEG

      Répondre à ce message

      • Merci, j’ai tout lu, je pense avoir tout compris, et pire... j’ai tout compris...:-)

        Curieusement cette lecture confirme une observation de 10 ans sur le terrain : l’interprétation des prévisions en historique, éclaircie singulièrement notre vision du temps à venir... En particulier, mais c’est important dans la partie où je navigue (méditerranée orientale, où l’on sait trouver un abri sous 6H), on peut ainsi éviter les mauvais coups de vent... Enfin... très souvent
        Michel

        Répondre à ce message

  • Dans un article sur les trombes marines je tombe sur cette précision :

    Fondées sur la définition de l’Organisation météorologique mondiale, les rafales considérées [dans cet article] sont des pics d’intensité du vent observé pendant 3 secondes. Météo-France a choisi d’utiliser une autre définition qui confère à la rafale un caractère plus instantané, puisqu’elle est définie comme un pic d’intensité du vent pendant 0,5 seconde.

    Pour une masse d’air instable donnée la vitesse des rafales (en nœuds, toujours) selon Météo-France sera donc toujours plus élevée que celle de l’OMM.

    Reste à savoir quelle définition est utilisée pour les produits internationaux élaborés par Météo-France, par ex pour les bulletins navtex de la zone Metarea III

    Enfin, ce détail ne concerne pas notre cher zygrib, les grib du NOAA, ni celle de M-F, n’en comportant pas

    Répondre à ce message

    • Ha !!! pas d’infos sur les rafales dans notre cher zyGrib :-O :-O:-O

      Et cà, alors.... des rafales terrifiantes, moins fortes que le vent dominant... hein... costaud !!! :o)

      Si, si, il suffit de paramétrer les options de téléchargement... De toute façon, j’apprécie peu le traitement des rafales... Surtout ici... ou la topographie joue un rôle primordial

      Bon, je retourne à mon cockpit gérer les 24 ° à l’ombre qui nous accable aujourd’hui...

      Michel à Finike...

      JPEG

      Répondre à ce message

      • Et cà, alors.... des rafales terrifiantes, moins fortes que le vent dominant... hein... costaud !!!

        Effectivement, il faut le faire : vent moyen de 6,5 Nd et rafales à 5,8 ... noeuds

        J’imagine que les rafales mentionnées par le NOAA sont celle directement dérivées de la qualité (hétérogénité horizontale et verticale) de la masse d’air (instable, ex : traine active) et ne valent qu’en pleine mer très ouverte (ex : atlantique nord).

        Dans le cas des rafales liées au relief (les caps) ) et à la turbulence thermique (le passage sur les calcaires surchauffés) on sait en parler avec les modèles de méso-échelle, pae exemple Arome pour le litoral français et Poseidon pour la mer Egée, mais - à ma connaissance - il y a toujours un humain derrière la prévision ’expertisée) qui les porte à la connaissance du public.

        Répondre à ce message

Répondre à cet article

UP

Copyright et informations légales