je ne suis pas certain qu’un tel programme existe ni soit envisageable,
- la prévision météo de demain est faite aujourd’hui en fonction des données d’hier
- les modèles météo fonctionnent pour des mailles dont la taille dépend de la puissance des serveurs
- chaque carré de la maille n’a pas forcément un capteur enregistreur il est donc extrapolé aussi bien sur la prévision que sur l’observation
- les carrés de la maille proviennent d’un quadrillage abstrait du territoire, ils n’ont pas vocation a être homogène
- il suffit qu’a un seul endroit du carré de la maille la prévision soit juste pour qu’elle soit validée même si tout le reste ne correspond pas
- sauf a prendre les données et faire sa prévi soit même, les prévis présentées proviennent d’un calcul de probabilité qui est typiquement gaussien, partant de l’improbable a l’endroit ou la courbe est la plus fine a fortement probable la ou elle est la plus épaisse, sauf qu’elle peut afficher un plateau plus ou moins long voir des pics, est qu’elle est l’interpolation de plusieurs courbes gaussiennes qui interagissent entre elles, auquel il faut ajouter le choix du prévisionniste qui va favoriser le facteur vent, pluie, nuage, crème solaire ou risque météo voir assurance.
on a bien vu que suite a la tempête de 1999, météo France a déplacer son curseur coté pessimiste pour le risque de tempête pour ne plus être accusé de négligence, flirtant avec le risque inverse dit de “pierre et loup” ou a force de prévoir des élément qui n’arrivent pas ou amoindris peut faire négliger une annonce réelle.
donc pas mal de points a prendre en compte.
ceci dit, il est possible que le pioupiou puisse apporter quelques réponses
- plus il y a de capteur plus il est probable que chaque maille soit équipée donc moins d’extrapolation et plus de mesure
- il seront positionnés sur les sites, donc offrant une mesure directe a l’endroit qui intéresse
ceci dit il ne faut pas s’attendre a avoir une réponse rapide, en effet une grande partie de la prévision météo consiste a examiner une situation particulière dans son contexte particulier, et tenter de la rapprocher de situations antérieures documentées afin d’estimer son évolution.
les premières mesures régulières sur des points spécifiques ont environ 150 a 200 ans pour des mesures limitées tant en nombre qu’en répétitions
les premières mesures régulières a grande échelle concernent la période de l’entre 2 guerre a la fin de la seconde guerre mondiale
l’usage des satellites météo remonte aux années 70, soit une 40aine d’années
et le boom des sondes automatiques est lui autour des années 80
donc grosso modo, entre moyens modernes a grande échelle et super calculateur, nous avons:
- les 25-30 dernières années bien documentées
- des données plus réduite de 30 a 50 ans en arrière
- un relevé partiel et très localisé sur 50 a 150 ans.
considérant que l’on va chercher dans le passé des éléments identiques ou approchant en prenant en compte aussi bien la situation qui a emmené aux données de bases de la prévision, mais aussi la période dans l’année,
cela revient a:
partant d’un ensemble constitué de x jeu de cartes mélangées sur lequel on espère anticiper la sortie des cartes,
- se baser sur la combinaison connue des 30 dernières cartes tirées
- se baser sur des statistiques gaussiennes sur les 50 dernières cartes tirées
- se baser sur un empirisme éclairé a partir des 150 dernières cartes.
au final la combinaison connue des 30 dernières cartes sera la plus précise dans la mesure ou elle arrive a trouver une séquence connue, cependant la probabilité de trouver une séquence connue est plus faible.
les 50 dernières cartes offre une probabilité plus élevé de retrouver une séquence identique, mais pèche en précision des informations,
quant a l’empirisme éclairé sur les 150 dernières cartes a plus de chances de trouver une séquence identique, mais du fait de sa grande imprécision ajouté au fait que le fait doivent être marquant pour être remarqué malgré quelques coup de pot il va plus donner une tendance qu’une précision fine.
a ceci il faut ajouter qu’il existe des cycles ayant un impact plus ou moins subtils sur la météo dont certains vont de quelques jours a quelques centaines d’années et qu’il est nécessaire d’avoir la connaissance complète d’au minimum un cycle pour commencer a l’intégrer aux prévisions.
tout ça pour dire que tant la prévision que la correction fine et localisée de la prévision “qui n’est rien d’autre qu’une prévision” demande une masse de donnée énorme pour gagner en finesse.