Dynamiques stochastiques multi-échelles, instabilités et robustesse (2008)

Dynamiques stochastiques multi-échelles, instabilités et robustesse

Rapporteur : Daniel Schertzer (Météo-France).

Contributeurs : Pierre Baudot (Inaf CNRS), Hughes Berry (INRIA), François Daviaud (CEA), Bérengère Dubrulle (CEA), Patrick Flandrin (CNRS ENS Lyon), Cédric Gaucherel (INRA), Michael Ghil (ENS Paris), Gabriel Lang (AGRP Paris Tech), Eric Simonet (CNRS).

Mots clés : systèmes dynamiques aléatoires, non-stationnarité, dépendance de longue/courte portée, interactions locales/non locales, échelonnage discret/continu, cascades, analyses par ondelettes/multifractales, modélisation multi-échelles et agrégation/désagrégation, reconnaissance des motifs, dynamiques graphiques, distribution extrême et déviations importantes.
Introduction
Les structures hiérarchisées qui s’étendent sur une vaste gamme d’échelles spatio-temporelles sont omniprésentes en géosciences, en sciences de l’environnement, en physique, en biologie et dans les réseaux socio-économiques. Elles sont les structures fondamentales qui illustrent la complexité de notre univers en quatre dimensions. L’échelonnage, appelé également « scaling », est un puissant outil mathématique pour caractériser ces structures et en déduire des propriétés à différentes échelles, au lieu de considérer seulement des propriétés relatives à une échelle. Si la mise à l’échelle de temps ou d’espace a été étudiée dans de nombreuses disciplines, les analyses et les modélisations en quatre dimensions sont encore relativement peu utilisées, voire sous-développées, même si elles sont indispensables pour décrire, évaluer, comprendre, simuler et prédire les dynamiques sous-jacentes. Assez complémentaire de cette approche, la théorie sur les systèmes dynamiques aléatoires est aussi une excellente démarche pour comprendre les dynamiques multi-échelles. Cette théorie est susceptible de fournir des méthodes de généralisation intéressantes sur ce que nous avons appris sur les systèmes dynamiques déterministes, notamment dans le cas des bifurcations. D’autres domaines de recherche majeurs concernent les transitions de phase, les motifs et les comportements émergents résultant du passage à une échelle supérieure dans les domaines complexes en quatre dimensions.

Grands défis
1. Le paradigme de la cascade
2. Systèmes dynamiques aléatoires et bifurcations stochastiques
3. Transitions de phase, motifs et comportements émergents
4. Échelonnage spatio-temporel en physique et en biologie


1.2.1. Le paradigme de la cascade
Le concept sur les structures imbriquées à l’intérieur de structures plus grandes, elles-mêmes imbriquées dans des structures encore plus vastes, et ainsi de suite, le tout sur un grand nombre d’échelles spatio-temporelles, existe depuis longtemps en physique. Il figure, par exemple, dans l’ouvrage de Richardson (Weather Prediction by Numerical Processes, 1922) sous une présentation humoristique intitulée « Paradigme de la cascade ». Ce paradigme a été largement utilisé, au-delà de son contexte initial traitant des turbulences atmosphériques, dans les domaines de l’écologie, des théories financières et de la physique des hautes énergies. En général, un processus en cascade peut être compris comme une hiérarchie spatio-temporelle de structures où les interactions avec la structure mère sont, d’une certaine manière, similaires à celles avec ses structures filles. En physique stochastique multi-échelles, ce processus occupe une place prédominante, et c’est aussi le cas dans l’étude des systèmes complexes. En effet, chaque système complexe n’est autre qu’un système composé de ses propres répliques présentes à différentes échelles.

Les modèles en cascade ont été définis de façon progressive, tout particulièrement dans le cadre d’un échelonnage, c’est-à-dire quand les interactions filles sont une transcription rééchelonnée des interactions mères. Cette méthode a permis d’obtenir toute une série de résultats précis qui servent de puissante boîte à outils multifractale pour comprendre, analyser et simuler des champs extrêmement variables sur une vaste gamme d’échelles, au lieu d’une seule échelle donnée. L’adjectif multifractal traduit le fait que ces champs peuvent être compris comme une hiérarchie de fractales enchâssées à l’infini, par exemple, celles qui confirment les valeurs de ce champ en dépassant une valeur seuil donnée. Ces techniques ont été appliquées dans de nombreuses disciplines avec d’excellents résultats.

Un certain nombre de questions concernant les processus en cascade restent néanmoins ouvertes et concernent, entre autres, les classes d’universalité, les notions généralisées du terme échelle, les valeurs extrêmes, la prédictibilité et, de façon plus générale, leur rapport avec les systèmes dynamiques qu’ils soient déterministes (les équations de Navier-Stokes, par exemple) ou aléatoires (le sujet sera examiné dans le chapitre suivant). Il est sans doute important d’étudier plus en détail leurs rapports avec les transitions de phase, les motifs et les comportements émergents, également traités dans des chapitres séparés. Une attention toute particulière doit être portée aux analyses spatio-temporelles ou aux simulations, comme cela est souligné dans le dernier chapitre où la question générale de l’échelonnage spatio-temporel est abordée.


1.2.2. Systèmes dynamiques aléatoires et bifurcations stochastiques
Parallèlement à l’intérêt des mathématiciens pour les effets produits par le bruit dans les systèmes dynamiques, les physiciens ont également commencé à s’intéresser à ce sujet dans le cadre de travaux de laboratoire et de modélisation. L’influence du bruit sur les dynamiques à long terme a souvent été attribuée à des effets non locaux incompréhensibles et, à ce jour, aucune théorie générale n’existe à ce sujet. Dans ce contexte, L. Arnold et son « groupe de Brême » ont introduit une approche fort novatrice et prometteuse. Vers la fin des années 1980, ce groupe a développé de nouveaux concepts et outils pour aborder les systèmes dynamiques triviaux en association avec les processus stochastiques. La rapide croissance du champ des systèmes dynamiques aléatoires (SDA) fournit des concepts géométriques essentiels parfaitement adaptés et utiles dans le cadre de la modélisation stochastique.

Cette approche centrée sur la géométrie applique la théorie sur les mesures ergodiques de manière tout à fait ingénieuse. Au lieu de traiter un espace de phase S, elle étend cette notion à un faisceau de probabilités, S x espace de probabilité, où chaque fibre représente une source de bruit. Le bruit extérieur est paramétré dans le temps à travers un système préservant les mesures appelé « measure-preserving driving system ». Ce système « colle » simplement les fibres entre elles pour permettre de définir réellement la notion de circulation (cocycle). L’une des difficultés, présente aussi dans les cas de forçage non autonome (déterministes), est qu’il devient impossible de déterminer à l’avance et sans ambiguïté un attracteur indépendant du temps. Cette difficulté peut être surmontée grâce à l’application de la notion d’attracteurs à rétroaction. Cette rétroattraction traduit l’idée selon laquelle les mesures sont effectuées au moment (t) lors d’une expérimentation qui a commencé à un moment s<t dans un lointain passé. Nous pouvons alors observer l’« état invariant d’attraction » au moment t. Ces objets géométriques clairement définis peuvent être généralisés grâce à la stochasticité associée à un système et, dans ce cadre, sont appelés attracteurs aléatoires. Un tel objet invariant aléatoire décrit les statistiques figées au moment t si l’histoire de la variable a été « suffisamment » prise en compte, et si l’objet évolue dans le temps. Il codifie en particulier les phénomènes dynamiques liés à la synchronisation et à l’intermittence des trajectoires aléatoires.

Cette jeune théorie présente plusieurs grands défis mathématiques. Par ailleurs, une théorie plus complète sur les bifurcations stochastiques et les formes canoniques est en cours de développement. De fait, nous pouvons distinguer deux notions de bifurcation. La première est celle de bifurcation-P (P pour phénoménologique) qui correspond, grosso modo, à des changements topologiques de la fonction de densité de probabilité (FDP). La seconde est la notion de bifurcation-D (D pour dynamique) où l’on considère une bifurcation dans le spectre de Lyapunov associée à une mesure invariante de Markov. En d’autres termes, nous cherchons une bifurcation d’une mesure invariante comme nous cherchons la stabilité d’un point fixe dans un système dynamique autonome déterministe. Les bifurcations-D sont en effet utilisées pour définir le concept de robustesse stochastique à travers la notion d’équivalence stochastique. Ces deux types de bifurcations peuvent parfois, mais pas toujours, être en relation, et leur lien n’est pas encore établi. Bien que la théorie de la forme stochastique soit considérée comme plus étoffée que la théorie de la forme déterministe, elle reste incomplète et plus difficile à élaborer. Il va sans dire que la théorie de la bifurcation pourrait être appliquée aux équations aux dérivées partielles (EDP) tout en tenant compte que le fait de prouver l’existence d’un attracteur aléatoire puisse paraître fort problématique.


1.2.3. Transitions de phase, motifs et comportements émergents
Les transitions de phase sont généralement associées à l’émergence de motifs et de comportements collectifs non triviaux, en raison, par exemple, d’une divergence de longueur de corrélation. Au-delà de l’exemple classique des systèmes vitreux, ces caractéristiques ont été récemment observées dans les flux de cisaillement dans lesquels la transition du stade laminaire au stade turbulent se produit de manière discontinue par une croissance graduelle du nombre de Reynolds. Dans ce cas, le paramètre d’ordre est la fraction du volume occupée par la turbulence, si celle-ci s’organise lentement en mode de bandes, avec une longueur d’onde importante par rapport à n’importe quelle taille caractéristique du système.

Une transition similaire semble se produire dans la dynamique corticale lorsque les expérimentateurs accentuent le forçage du flux sensoriel, en utilisant des mesures spectrales ou informationnelles comme paramètre d’ordre. Lorsque le processus neuronal est soumis à une simple impulsion visuelle, il est presque linéaire, et l’activité de la population présente des motifs blob localisés. En revanche, s’il est exposé à des stimuli plus informatifs et réalistes, le processus neuronal semble hautement non linéaire, intégrant l’impulsion sur de vastes échelles spatiales (interaction autour d’un centre) et les motifs de population deviennent plus complexes et spatialement distribués.

Le défi consiste ici à élaborer un modèle stochastique simple pouvant prendre en compte les structures émergentes générées par la dynamique et leur dépendance au forçage. Un objectif plus essentiel à long terme est de saisir les dynamiques des flux vitreux et turbulents à l’aide de ce formalisme.

Une nouvelle approche consiste à considérer une population d’agents ayant leur propre dynamique et à caractériser leur comportement collectif à différentes échelles d’observation par agrégation progressive.

La manière la plus simple d’agréger des agents est d’en ajouter un nombre croissant de ces agents. S’ils sont distribués de façon identique et si les variables aléatoires sont indépendantes, c’est la loi des grands nombres et le théorème central limite qui s’appliquent, et l’évolution collective qui en résulte est analogue à l’évolution individuelle. Le résultat reste inchangé si le niveau de dépendance est faible ; ce serait l’équivalent de la phase laminaire. La nature du comportement collectif évolue parallèlement à l’augmentation de la dépendance spatiale (taux de convergence plus faible, processus de limites différentes). En modifiant la gamme des interactions, il devient possible d’induire une transition de phase.

Une autre forme de transition peut être observée si l’on tient compte des effets non linéaires dans le processus d’agrégation. Dans ce cas, le processus qui en résulte peut être une dépendance de courte portée ou de longue portée, même si les dynamiques propres à l’individu sont simples (dépendance auto-régressive de courte portée dans le temps et dans l’espace).

Un premier travail consiste à développer ces méthodes d’agrégation pour les modèles individuels simples et d’étudier l’effet conjoint de la dépendance et du processus d’agrégation. Les exemples d’application comprennent des problèmes de géophysique, d’hydrologie, d’hydrographie, de biologie intégrative et de sciences cognitives.


1.2.4. Échelonnage spatio-temporel en physique et en biologie
1.2.4.1. Arrière-plan empirique
Les systèmes présentant une hiérarchie de structures à une vaste gamme d’échelles spatio-temporelles sont presque omniprésents en physique et en biologie.

En géosciences, les « diagrammes de Stommel » qui établissent un rapport entre la durée de vie d’une structure et sa taille (habituellement représenté par les graphiques log-log) couvrent plusieurs ordres de grandeur, mais il nous manque toujours une explication satisfaisante de cet état de fait.

En biologie, la métagénomique a été récemment développée pour explorer la biodiversité et l’évolution microbienne à partir des déchets urbains afin d’améliorer les connaissances sur « l’arbre de vie », mais nous ne disposons toujours pas d’évaluations fiables de la structure temporelle.

Dans le domaine des réseaux informatiques et sociaux, le Web est l’exemple le mieux connu, mais des réseaux à échelle invariante et des réseaux de petit monde sont également présents partout ; dans ce cas, les chercheurs ont commencé à étudier les aspects temporels de ces réseaux, mais la relation entre l’évolution dans le temps et la structure spatiale requiert une plus grande attention.
1.2.4.2. État présent
a) L’hypothèse de la turbulence gelée de Taylor (1935), appliquée notamment en hydrologie, est probablement le plus simple passage de l’échelonnage temporel à l’échelonnage spatial. Cela est possible si l’on suppose que le système est advecté d’une vitesse caractéristique.

b) Dans d’autres cas, la relation entre l’échelonnage spatial et l’échelonnage temporel est moins évidente. Comme cela a déjà été souligné, tel est le cas des réseaux informatiques : jusqu’à présent, la topologie des réseaux (espace) et le trafic des informations (temps) ont été étudiés séparément. Or, la morphogenèse est un domaine de recherche qui requiert le développement d’analyses de l’échelonnage spatio-temporel.

c) Plus récemment, la comparaison de l’échelonnage temporel par opposition à l’échelonnage spatial a été utilisée pour déterminer un exposant d‘anisotropie (ou exposant dynamique) pour l’échelonnage spatio-temporel.
1.2.4.3. Quel est l’enjeu ?
a) Pourquoi devons-nous réaliser des analyses/modélisations spatio-temporelles ?
En principe, il est impossible de comprendre les dynamiques sans considérer les facteurs espace et temps. Par exemple, si de précédentes études sur les chromosomes ont été conduites uniquement sur les positions ADN 1D, les analyses à partir d’un échelonnage en 4D sont indispensables pour comprendre la relation entre la structure chromosomique et le processus de transcription.

b) Analyses des données
Nous avons besoin de nouvelles méthodologies :

  • pour réaliser des analyses conjointes multi-échelles spatio-temporelles pour les les explorations comme pour les estimations des paramètres et des incertitudes,
  • pour extraire des informations de données rares et hétérogènes,
  • pour l’assimilation de données en 4D prenant davantage en compte la variabilité multi-échelles des champs observés,
  • pour les modèles dynamiques lors de l’exploration des données.

c) Modélisations et simulations
Nous devons également développer de nouvelles méthodologies :

  • pour sélectionner un espace de représentation approprié (ondelettes, par exemple),
  • pour définir des générateurs économes et efficaces,
  • pour mettre en œuvre des paramétrages stochastiques à une échelle de maillage inférieure.

 

 

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply