Robustess, Resilience and Evolvability

Reporter : Daniel Schertzer – Meteo France

Contributors :

Pierre Baudot – UPMC Hughes Berry – INRIA Danièle Bourcier
Paul Bourgine
Valérie Dagrain
François Daviaud – CEA
Jacques Demongot – CNRS / Université Joseph Fourier Grenoble I Renaud Delannay
Bérengère Dubrulle – CEA
Patrick Flandrin – CNRS ENS Lyon
Cedric Gaucherel – INRA
Michael Ghil – ENS Paris
Gabriel Lang – AgroParisTech
Ivan Junier
Salma Mesmoudi
François Rodolphe
Thierry Savy
Eric Simonet – CNRS

Keywords :

Random dynamical systems, non stationarity, long range/ short range dependence, local/non local interactions, discrete/continuous scaling, cascades, wavelet/multifractal analysis, multiscale modeling and aggregation/disaggregation, pattern recognition, graph dynamics, extremes distribution, large deviations.

Introduction

Une problématique ubiquitaire des systèmes complexes concerne la possibilité de décrire, prévoir ou de contrôler leur dynamique, pour des échelles de temps courts et/ou de temps longs. L’acquisition d’une telle compétence conduit aux études de robustesse, de résilience, de viabilité et d’évolvabilité. Il va de soit que cette thématique recouvre un pan entier du développement des mathématiques et de la physique depuis ses origines jusqu’à ces avancées les plus récentes, appliqué et adapté ici aux systèmes vivants, sociaux et matières complexe. Nous proposons ici l’ébauche d’une section «Robustesse, résilience et évolvabilité» au sein « du département des questions transversales » dont la vocation est de sélectionner et de développer les outils d’analyse, de diagnostique, de prédiction et d’aide à la décision issues de la recherche théorique de pointe et de les mettre à disposition, jusqu’à l’implémentation in-sillico, de l’ensemble des chercheurs associés aux objets complexes. Nous présentons sommairement quelques unes des applications (chapitre 2) et approches (chapitre 3) qui ont pour certaines déjà pu montrer leur efficacité au cours de projets interdisciplinaires réalisés au sein de la communauté des systèmes complexes.

Ne sous-estimons pas cependant l’ampleur de la tache qu’il reste à parcourir, à la hauteur des enjeux pragmatiques et sociétaux associés à un tel projet. Les difficultés et le temps que la

présente assemblée d’experts, provenant de divers horizons, a mis à converger sur ce projet, in fine partiel et incomplet, attestent des difficultés. Sous l’impulsion de travaux ponctuels, les formalismes, méthodes, terminologies et algorithmes ont proliférés, les recherches en mathématique ou physique fondamentale ainsi que sur les modèles appliqués continuent de se développer essentiellement dans l’ignorance et l’incompréhension réciproque, et les ressources computationnelles à disposition pour de telles modélisations restent très largement insuffisantes. Ce sont notamment à ces 3 problèmes que ce projet de section se propose de répondre.

In fine, une ingénierie efficace des systèmes complexes multi-échelles doit être capable d’intervenir à une certaine échelle (ou à plusieurs) afin de rétablir une dynamique stable ou d’induire de nouveaux états souhaités, ou souhaitables, du système à toutes les échelles. Ceci pose le problème d’adapter les outils existants, mais aussi de développer de nouveaux outils, capables d’être exploités par les différents domaines de la science des systèmes complexes. Le défi consiste donc à mettre en place des outils aussi génériques que possible qui soient facilement utilisable par les différents acteurs des systèmes complexes. Ceci passe donc inévitablement par une activité de recherche fédérant les experts du domaine et tournée vers l’université numérique.

Un des objectifs de cette section concerne la capacité à formaliser les notions de robustesse, résilience, viabilité et évolvabilité en dépit de la variabilité des significations associées à ces notions. Par exemple, en physique, la résilience constitue une mesure de la résistance d’un matériau à un choc. En écologie, elle est la capacité d’un écosystème ou d’une espèce à récupérer un fonctionnement et/ou une évolution « normale » après avoir subi un traumatisme. En psychologie, elle consiste en la capacité de prendre acte de son traumatisme pour ne plus vivre dans la dépression. En économie, elle est la capacité à revenir sur la trajectoire de croissance après avoir encaissé une crise. En informatique, elle est la capacité d’un système ou d’une architecture réseau à continuer de fonctionner en cas de panne. Dans le domaine de la gouvernance, de la gestion du risque et du social, la résilience communautaire associe les approches précédentes en s’intéressant au groupe et au collectif plus qu’à l’individu isolé. Dans l’armement et l’aérospatial, la résilience dénote le niveau de capacité d’un système embarqué de pouvoir fonctionner en mode dégradé tout en évoluant dans un milieu hostile.

Les systèmes dynamiques constituent un des domaines de recherche et d’enseignement les plus adaptés pour aborder ces notions. Le contenu des cours numériques, ainsi que les lignes de recherche, s’articuleront essentiellement autour de cet axe. Étant donnée la possibilité de réduire un grand nombre de systèmes (statiques ou dynamiques) à des systèmes dynamiques (éventuellement stochastiques), les autres approches (e.g. modèles discrets, dynamique booléennes,…) seront systématiquement comparées à ces approches.

Dans le cadre des systèmes dynamiques, la robustesse d’un état se caractérise par la capacité du système à revenir à son état initial après une perturbation des variables. Pour la théorie ergodique, la stabilité à des perturbations infinitésimale d’une trajectoire dynamique est quantifiée par les exposants de Lyapunov (théorie de Floquet pour les systèmes périodiques). La production d’entropie le long d’une trajectoire chaotique est mesurée par la somme des exposants positifs (Eckmann & Ruelle, 1985, Barreira & Pesin, 2007 pour revues). Récemment, le concept d’exposants de Lyapunov a été étendu aux perturbations finies, et un domaine de recherche actif s’est développé autour du concept de vecteurs de Lyapunov qui mesurent les directions associées aux stabilités et instabilités. Partiellement motivés par des enjeux géophysiques, différentes sortes de vecteurs (singular, Bred, covariant, Ginelli & al, 2007) ont été proposés et analysés en détail, offrant ainsi des pistes d’application à d’autres domaines.

La notion de résilience a récemment été formalisée dans le cadre de la théorie de la viabilité

(Aubin, 1991, Martin, 2004, Aubin, Bayen & Saint-Pierre, 2010 pour revues). La théorie de la viabilité se focalise sur la capacité d’un système à préserver certaines propriétés, le principe de résilience consiste alors à définir les propriétés essentielles, appelées contraintes de viabilité, permettant de restaurer ces propriétés, et d’étudier les perturbations qui font sortir la dynamique du système du domaine de viabilité. Enfin, la notion d’évolvabilité, ou d’adaptabilité, pour laquelle la formalisation du point de vue des systèmes dynamiques reste à être établie, est un concept issu de la biologie de l’évolution qui est de plus en plus repris dans les domaines de l’intelligence artificielle, des méthodes d’apprentissage et des algorithmes évolutionnaires. Cette notion fait référence à la capacité d’un organisme (e.g. un ensemble de lois) à acquérir de nouvelles compétences par l’exploration de nouveaux états (par exemple, par mutation ou recombinaison en génétique) lui permettant d’évoluer dans un nouvel environnement.

1.2.1. La résilience, robustesse et évolvabilité au travers des grands objets

1.2.1.1. Droit et Politiques publiques

Le droit, comme toute institution, contribue à une meilleure coordination/adéquation des actions humaines. Il est d’abord un ensemble de règles, certaines prescriptives et d’autres proscriptives, qui visent à réguler les interactions sociales de toutes sortes. Le droit se complexifie avec l’évolution et l’interconnexion croissante des sociétés humaines. Un besoin de droit comparé entre les différents états se développe parallèlement.
La loi devient de plus en plus complexe, voir trop complexe. Par exemple, la décision du Conseil Constitutionnel français du 29 décembre 2005 (Conseil Constitutionnel, 2005) considère que la loi de finances en cause était d’une « excessive complexité ». Un contribuable doit avoir la capacité d’évaluer le montant de son impôt avec une « anticipation raisonnable ». Il a été reproché les critères suivants : la longueur de l’article (9 pages) mais surtout les nombreux liens et nœuds qui rendent les résultats opaques.
On peut élaborer un programme qui n’a pas pour objectif de simplifier la loi mais de mesurer sa complexité grâce à des outils capables de l’exploiter. Les caractéristiques de la complexité résident dans la combinatoire d’éléments, leurs interactions, l’opacité cognitive humaine, la diversité des échelles, l’évolution temporelle. Ces caractéristiques ont pour effet une flexibilité fonctionnelle, une adaptabilité et résilience, une capacité de co-évolution (lois européennes & jurisprudences), mais elle favorise l’incertitude et l’insécurité de la règle.

La jurisprudence suit la même tendance de complexité croissante à cause de la pluralité des sources du droit et de l’augmentation des liens entre textes. Les questions clés se catalysent autour de l’anticipation des évolutions voire des revirements de jurisprudence ou de la nécessité d’écrire de nouvelles lois.

1.2.1.2. Santé, médecine et biologie

Un système de santé efficace doit se baser sur le suivi, la prévention et l’intervention. Ceci nécessite de comprendre les mécanismes lié à l’émergence et la propagation des maladies dans un système multi-échelle de la plus grande complexité, allant de la molécule à la structure de notre société. Nos institutions se doivent d’élaborer un système de santé robuste où l’intervention sanitaire soit minimisée en faveur d’une structure favorisant la robustesse de nos défenses et l’évolvabilité de nos comportements.
Du point de vue médical, la stratégie consistant à multiplier les moyens, et par conséquent leur coût, doit faire place, lorsque ceci est possible, à une expertise où la formation pluridisciplinaire de haute qualité est nécessaire. Ceci peut passer par la formation des médecins/biologistes aux notions de robustesse, résilience et évolvabilité. Le principe générique consiste à réduire la complexité des problèmes en les réduisant à des systèmes de basse dimensionnalité, afin d’identifier les perturbations nécessaires, minimales, permettant de maintenir ou de restaurer la viabilité du système. Un exemple de ce type d’approche provient de l’étude de la mort subite du nourrisson, où l’analyse de la dynamique du cycle respiratoire monitoré en direct (Pham & al, 1983, Baconnier & al, 1983) et la détection de sa transition vers l’état pathologique, permet par simple perturbation ponctuelle de remettre l’oscillateur respiratoire dans son cycle normal.
Un système de santé efficace nécessite aussi de modéliser l’écosystème homme/environnement dans une perspective multi-échelle. Nous pouvons citer deux exemples qui montrent les enjeux et l’urgence de ce travail:

1) La résistance bactérienne aux antibiotiques: Les bactéries pathogènes résistent de plus en plus

aux antibiotiques, ce qui pose un problème majeur de santé publique avec l’apparition de maladies nosocomiales devant lesquelles le médecin se trouve largement démuni. L’apparition de ces souches bactériennes pathogènes résistantes résulte de leur évolution dans un milieu où elles se trouvent confrontées à ces molécules. Cette évolution résulte essentiellement de transferts de gènes. La compréhension de ces phénomènes et leur contrôle requiert la prise en compte des phénomènes qui sont en jeu dans la bactérie à l’échelle moléculaire, mais aussi du milieu dans lequel ces populations bactériennes évoluent, milieu totalement artificiel et anthropisé. En d’autres termes, ce problème doit être considéré à différentes échelles, depuis l’échelle moléculaire, dans la bactérie, jusqu’à l’hôpital, avec l’ensemble des pratiques des personnes y travaillant ou y résidant. La stratégie de production de nouvelles molécules a montré ses limites. De nouvelles approches intégratives doivent donc être envisagées qui doivent s’assigner le but de créer des conditions écologiques telles que l’invasion du milieu par ses souches multirésistantes soit impossible.

2) Épidémie virale ou bactérienne : une approche multiéchelle écologique similaire peut être envisagée pour d’autres problèmes de santé publique. Des solutions simples ont déjà fait leurs preuves pour la prévention d’épidémies et la disparition des souches les plus virulentes d’un pathogène. Par exemple, l’assainissement et la compartimentalisation des eaux souillées réduit l’incidence du choléra, et même si elle ne parvient pas toujours à l’éradiquer, elle rend les souches les plus virulentes inadaptées en jouant sur la probabilité de transmission de la bactérie entre malades et non-malades, qui est un paramètre essentiel de la dynamique de toute épidémie. De telles solutions doivent être adaptées à notre société où l’aspect multi-échelle (de la molécule à la société) doit être intégré.

1.2.1.3. Optimisation des procédés dans l’industrie de la transformation biologique et alimentaire

De nombreux procédés de transformation alimentaire et de maturation des condiments peuvent être considérés comme des systèmes dynamiques complexes. En effet, de nombreuses variables sont en interactions à différents niveaux d’échelle (microscopique, macroscopique…). Contrôler ces procédés pour maintenir la qualité nutritionnelle, sanitaire et organoleptique des produits est un enjeu primordial pour l’industrie alimentaire. Une méthode d’exploration d’un processus agroalimentaire consiste en l’élaboration d’un modèle mécanistique utilisant les méthodes développées dans le cadre de la théorie de la viabilité. Un tel modèle a récemment été implémenté pour reproduire in-sillico le processus d’affinage du camembert (Mesmoudi & al, 2009). Cette théorie peut être appliquée avec deux objectifs, connaître les domaines de viabilité du système en fonction des contraintes de contrôle (par exemple la durée d’affinage dans le cas de la maturation du fromage) et évaluer la sensibilité du procédé à des perturbations dans ces domaines. Le domaine de viabilité d’un processus de transformation alimentaire peut être très large et comprendre des centaines de milliers de trajectoires possibles (10e24 trajectoires dans le cas de l’affinage du Camembert). Ce pool de trajectoires possibles se réduit drastiquement par l’augmentation du nombre de contraintes prise en compte sur les paramètres, traduisant ainsi un accroissement des exigences quantitatives et-ou qualitatives sur le produit final. Les trajectoires solutions sont alors non triviales (forment des petits îlots d’espace solution non connexes) et correspondent à proprement parlé à un processus de maturation complexe (voire transition de phase ci-dessous, et les problèmes de satisfaction de contraintes, Mézard, 2003 pour revue).

Les enjeux de compétitivité auxquels sont confrontées les industries agro-alimentaires portent entre autres sur la qualité des produits et leur constance, et par conséquent la maîtrise des procédés de transformation. En se basant sur ces évaluations de robustesse des états du domaine de la viabilité, nous proposons d’élaborer un outil d’optimisation multi-objectif, qui tente d’optimiser à

la fois la durée du procédé, la qualité du produit final et le nombre d’interventions humaines. Ceci permettra de reconstruire les meilleures dynamiques des procédés de transformation et ainsi de contrôler le comportement global du produit.

1.2.1.4. Environnement et Développement durable

Résilience et robustesse des écosystèmes : L’écologie développe des théories fondées sur les propriétés de systèmes dynamiques pour décrire la stabilité des populations d’organismes face aux perturbations. Les perturbations sont définies par la modification de paramètres physico-chimiques ou biologiques du milieu, comme des invasions ou comme la dispersion d’éléments qui modifient le milieu naturel à différentes échelles : molécules organiques et pharmaceutiques (xénobiotiques), flux de gènes provenant de cultures ou d’élevages OGM, espèces invasives végétales et animales, pressions anthropiques sur certains territoires (littoral, espace périurbain).L’écologie développe un paradigme multi-échelle quant aux groupes fonctionnels d’organismes et aux échelles de territoires leur correspondant (populations, communautés, méta-communautés). La notion de biodiversité et sa perception dépend de l’échelle choisie: la médiatisation des enjeux de la conservation de la biodiversité exceptionnelle (espèces rares) à un échelon local cache les enjeux de la conservation de la biodiversité ordinaire (par exemple, la baisse des effectifs du moineau domestique).

Les problèmes de résilience concernent l’extinction totale de certaines espèces emblématiques ou inconnues du public, sous l’effet de la modification des milieux par des perturbations abiotiques ou par prédation, parasitisme, compétition avec une espèce nouvellement introduite ou migrante. Ils concernent aussi les agrosystèmes productifs, en particulier pour leur protection contre les ravageurs. Des méthodes d’intervention fondées sur une approche multiéchelle et écologique peuvent être envisagées et parfois développées avec succès. Par exemple, l’aménagement d’une hétérogénéité spatiale bien conçue peut permettre de maintenir des populations d’auxiliaires à un niveau suffisant pour empêcher les explosions démographiques des populations de ravageurs (réserves et maillages, bandes herbeuses de bord de champ, haies). Cet exemple illustre la nécessité de concilier une connaissance fine de l’écologie des espèces concernées avec l’ensemble des pratiques humaines dans un contexte économique.

1.2.1.5. Géophysique

L’instabilité gravitaire est un processus géomorphologique impliquant des mouvements de roches le long d’une pente topographique sous l’effet de la pesanteur. Elle implique différents processus comme la solifluction, les glissements de terrain, les écoulements de débris, les avalanches, les effondrements… Ses dimensions peuvent varier de plusieurs ordres de grandeur et elle peut se produire sur Terre mais également sur d’autres planètes comme Mars.
L’instabilité apparaît lorsque la composante tangentielle de la force de pesanteur dépasse la capacité de résistance des matériaux constituant le sol, ce qui provoque une rupture. La résilience est donc contrôlée par la cohésion du matériau, la friction interne et l’état de contrainte. Les facteurs pouvant produire la rupture sont par exemple le changement de l’angle de pente suite à l’érosion, la surrection, les séismes, les éruptions volcanique, le changement de teneur en eau (modification de la pression de pore).
L’avalanche peut être précédée de déstabilisations locales et une mesure des modifications de réseaux de forces peut donner des informations sur l’imminence du phénomène critique.
Les glissements gravitaires constituent un processus très fréquent dans les zones de relief, pouvant avoir des effets considérables sur la morphologie, et entraînant un risque géologique important pour les régions voisines. L’étude des processus d’initiation et de propagation des grands glissements déclenchés par crise climatique, séisme ou activité volcanique, nécessite une approche

pluridisciplinaire qui combine l’observation détaillée des zones de glissement sur le terrain (cartographie, interférométrie d’images radar (InSar), etc), l’analyse des propriétés physiques et mécaniques des roches superficielles altérées ainsi que la modélisation du processus de propagation de l’instabilité, en utilisant des milieux modèles composés de particules avec ou sans cohésion.

1.2.1.6. Economie-finance

La stabilité du système économique et financier est un enjeu capital pour le devenir de notre société. Cependant, les produits financiers ne sont actuellement pas pensés dans un souci de stabilité structurelle du marché. La faute vient en partie de la non-sensibilisation des acteurs du système à la problématique de l’impact multi-échelle (phénomène de cascades) dans un système multi-agents. Cette sensibilisation nécessite le développement d’outils d’analyse structurelle (robustesse, évolvabilié, résilience) alors que les méthodes actuelles les plus performantes sont essentiellement basées sur l’analyse statistique des pools de données passées extrêmement partielles (dans l’espace et le temps) et négligeant les coûts socio-économiques collatéraux laissées à la charge des infrastructures d’états. Ces analyses sont alors utilisées pour développer des outils de modélisation stochastique pensés pour optimiser une rentabilité à une échelle très locale.
Dans un souci de normalisation des marchés, il est nécessaire de développer des outils financiers originaux qui favorisent l’innovation à l’échelle de l’individu et qui renforce la stabilité structurelle du système ainsi que sa capacité à évoluer vers de nouvelles problématiques prenant en compte l’ensemble de la population mondiale. Le problème est très similaire à la problématique de stabilité géopolitique mondiale tout en favorisant la diversité des cultures.

Une des problématiques cruciales à étudier, et pour laquelle l’ensemble des acteurs du monde financier, mais aussi l’ensemble de la société, doit être sensibilisé, concerne la stabilité du système sur des échelles de temps longs. Il est temps de finir de penser que la fin d’une crise annonce une nouvelle crise.

Le problème essentiel est de réconcilier la dynamique à courts termes des échanges financiers, et plus généralement des échanges économiques, avec une croissance économique stable favorisant l’épanouissement de l’ensemble des individus. Ceci ne peut se faire qu’à travers une modélisation multi-échelle tant du point de vue temporel que du point de vue de l’ensemble des acteurs du monde économique.

Pour résumer, la normalisation de l’économie et de la finance doit être pensée à travers un systèmes intégré où les aspects multi-échelles et multi-factoriels doivent être étudiés avec des outils de la science des systèmes complexes, et plus particulièrement des systèmes dynamiques. Le contrôle des risques systémiques pourra être alors envisagé, ce qui n’est pas possible à l’heure d’aujourd’hui. Nous tendrons alors vers un système permettant l’épanouissement de tous les individus tout en participant à sa stabilité.

1.2.2. Stochastic and multiscale dynamics, instabilities, robustness and evolvability

Hierarchical structures extending over a wide range of space-time scales are ubiquitous in the geosciences, the environment, physics, biology, and socio-economic networks. They are the fundamental structures building up our four-dimensional world’s complexity. Scale invariance, or "scaling" for short, is a powerful mathematical tool for characterising these structures

and inferring properties across scales, instead of dealing with scale-dependent properties. Whereas scaling in time or in space has been investigated in many domains, four-dimensional scaling analysis and modeling are still relatively little used and under-developed, even though it is indispensable for describing, estimating, understanding, simulating and predicting the underlying dynamics. Rather complementary to this approach, random dynamical system theory is also a powerful approach for grasping multiscale dynamics. This theory is likely to provide interesting generalizations of what we have learned from deterministic dynamical systems, particularly in the case of bifurcations. Other important domains of investigation are phase transitions, emerging patterns and behaviours which result when we move up in scale in the complex four-dimensional fields. And finally we can evoke algorithms investigating the High dimensional viability. In the another hand, under a large deviation a system can move from one attraction bassin to another. This capacity of the system to visit several attraction bassin is a caracteristic of it’s evolvability.

1.2.2.1. The cascade paradigm

The idea of structures nested within larger structures, themselves nested within larger structures and so on over a given range of space-time scales has been in physics for some time, and could be traced back to Richardson’s book (Weather Prediction by Numerical Processes, 1922) with his humoristic presentation of the paradigm of cascades. This paradigm became widely used well beyond its original framework of atmospheric turbulence, in such fields as ecology, financial physics or high-energy physics. In a generic manner, a cascade process can be understood as a space-time hierarchy of structures, where interactions with a mother structure are similar in a given manner to those with its daughter structures. This rather corresponds to a cornerstone of multiscale stochastic physics, as well as of complex systems: a system made of its own replicas at different scales.

Cascade models have gradually become well-defined, especially in a scaling
framework, i.e. when daughter interactions are a rescaled version of mother ones. A series of exact or rigorous results have been obtained in this framework. This provides a powerful multifractal toolbox to understand, analyse and simulate extremely variable fields over a wide range of scales, instead of simply at a given scale. Multifractal refers to the fact that these fields can be understood as an embedded infinite hierarchy of fractals, e.g. those supporting field values exceeding a given threshold. These techniques have been applied in many disciplines with apparent success. However, a number of questions about cascade processes remain open. They include: universality classes, generalized notions of scale, extreme values, predictability and more generally their connection with dynamical systems either deterministic-like (e.g. Navier-Stokes equations) or random (those discussed in the next section). It is certainly important to look closely for their connections with phase transitions, emerging patterns and behaviours that are discussed in the corresponding section. Particular emphasis should be placed on space-time analysis and/or simulations, as discussed in the last section on the general question of space-time scaling.

1.2.2.2 Random dynamical systems and stochastic bifurcations

Along with mathematicians’ interest in the effects of noise on dynamical systems, physicists have also paid increasing attention to noise effects in the laboratory and in models. The influence of noise on long-term dynamics often has puzzling non-local effects, and no general theory exists at the present time. In this context, L. Arnold and his "Bremen group" have introduced a highly novel and promising approach. Starting in the late 1980s, this group developed new concepts and tools that deal with very general dynamical systems coupled with stochastic processes. The rapidly growing field of random dynamical systems (RDS) provides key geometrical concepts that are clearly appropriate and useful in the context of stochastic modeling.

This geometrically-oriented approach uses ergodic and measure theory in an ingenious manner. Instead of dealing with a phase space S, it extends this notion to a probability bundle, S x probability space, where each fiber represents a realization of the noise. This external noise is parametrized by time through the so-called measure-preserving driving system. This driving system simply glues the fibers together so that a genuine notion of flow (cocycle) can be defined. One of the difficulties, even in the case of (deterministic) non-autonomous forcing, is that it is no longer possible to define unambiguously a time-independent forward attractor. This difficulty is overcome using the notion of pullback attractors. Pullback attraction corresponds to the idea that measurements are performed at present time t in an experiment that was started at some time in the remote past, and so we can look at the "attracting invariant state" at time t. These well- defined geometrical objects can be generalized with randomness added to a system and are then called random attractors. Such a random invariant object represents the frozen statistics at time t when "enough" of the previous history is taken into account, and it evolves with time. In particular, it encodes dynamical phenomena related to synchronization and intermittency of random trajectories.

This recent theory presents several great mathematical challenges, and a more complete theory of stochastic bifurcations and normal forms is still under development. As a matter of fact, one can define two different notions of bifurcation. Firstly, there is the notion of P-bifurcation (P for phenomenological) where, roughly speaking, it corresponds to topological changes in the probability density function (PDF). Secondly, there is the notion of D-bifurcation (D for dynamical) where one considers a bifurcation in the Lyapunov spectrum associated with an invariant Markov measure. In other words, we look at a bifurcation of an invariant measure in a very similar way as we look at the stability of a fixed point in a deterministic autonomous dynamical system. D- bifurcations are indeed used to define the concept of stochastic robustness through the notion of stochastic equivalence. The two types of bifurcation may sometimes, but not always be related, and the link between the two is unclear at the present time. The theory of stochastic normal form is also considerably enriched compared to the deterministic one but is still incomplete and more difficult to establish. Needless to say, bifurcation theory might be applied to partial differential equations (PDEs) but even proving the existence of a random attractor may appear very difficult.

1.2.2.3 Phase transitions, emerging patterns and behaviour

Phase transitions are usually associated with the emergence of patterns and non-trivial collective behaviour, for instance due to the divergence of a correlation length and the presence of singularity in the partition function (free energy) or potential. Such transitions uncovers the traditional transitions of mater from solid-liquid-gas phases, transition to turbulent flow in hydrodynamic, and is now an almost ubiquitously present phenomena in complex systems models, such that it has become paradigmatic to describe living systems as lying “between crystal and smoke” (Atlan, 1979).
Ferromagnetic materials has been an extensively studied for their phase transition, when the temperature decreases under a given critical value, it goes from a non-magnetised disordered phase to a magnetisation-ordered phase. It has motivated many simplified modelling in statistical mechanic such as the Ising model in various dimensions, the Potts model, and spin glasses model where the long range frustrating interaction give rise to many metastables states that imposes a slow “aging” of the glass (Sherrington and Kirkpatrick, 1975). Recent efforts of formalisation of those frustrated state have leaded to the study of K-Sat problems (problems of random Boolean constraint satisfaction) that combine computational, belief propagation and statistical mechanic approaches (Mézard, 2003).

The consideration of finite size systems has the important consequence of transforming the discontinuous heavyside transition function into a smooth continuous as a function of the order parameter.
Beyond the classical example of glassy systems, these features have been recently observed in shear flows, where the transition from laminar to turbulence occurs discontinuously through gradual increasing of the Reynolds Number. In such a case, the order parameter is the volume fraction occupied by the turbulence as it slowly organizes into a band pattern, with a wavelength that is large with respect to any characteristic size of the system.

The present challenge is to build a simple stochastic model which can account for the emerging structures generated by the dynamic and their dependence on the forcing. A more fundamental long-term aim is to catch both glassy and turbulent flow dynamics under such formalism. A novel approach consists in considering a population of agents which have their own dynamics and characterizing their collective behaviour at different observation scales through gradual aggregation.

The simplest way to aggregate agents is to sum an increasing number of them. When they are identically distributed and independent random variables, the law of large numbers and the central limit theorem apply and the resulting collective evolution is analogous to the individual one. The result does not change when the dependence is short range; this would be the equivalent of the laminar phase. As the spatial dependence becomes long range, the nature of the collective behaviour changes (lower rate of convergence, different limit process). By playing with the interaction range, one is therefore able to induce a phase transition.

Another kind of transition is observable if one allows for non-linear effects in the aggregation process. In such a case, the resulting process may be short-range or long-range dependent, even if the dynamics of the individual are simple (autoregressive short-range dependence in space and time).

A first task is to develop such aggregation methods for simple individual models and to investigate the joint effect of dependence and aggregation process. Examples of applications include geophysical problems, hydrology and hydrography, integrative biology and cognition.

Catastrophe theory is another popular approach dealing with singularities in the dynamic and relating them even more directly to shapes transformation. In 4 parameters continuous dynamical system (with a slow-fast coupling that merely remains statistical bath), Thom could show the existence of seven prototypal critical points of the potential function having sophisticated bifurcation geometry and simple polynomial expansions which he called the elementary catastrophes (Thom, 1977). Arnold further revealed the connection of those elementary catastrophes with the simple Lie groups (Arnold, 1992). The generalised catastrophe theory, in arbitrary dimension, is a still open field of research, Thom gave preliminary sketch of the description of the embryogenesis stages using catastrophes that still have to be developed, and catastrophe theory has found many application in a broad range of fields (example: the shape modification of red blood cells as a function of the blood’s viscosity, Rioual & al, 2004).

Renormalisation techniques have also proved to be a powerful tool in the study of phase transitions and singular points analysis. They take their origin in electrodynamic, where the singularity in this context is due to by the self interaction with 1/r2 field, that latter manifested in quantum electrodynamic as loops in Feynman’s diagrams. The Renormalisation group was then

introduced by Wilson and could explained both critical phenomena in classical statistical mechanics and quantum field theory on the same topological ground (Wilson & Kogut, 1974). Following Wilson, the renormalisation flow was shown to be the inverse of heat flow (Pochlanski). Such ideas both of scaling-clustering and of time-reversed renormalisation flow, has been extensively exploited by the team of Makse & Song who applied a renormalisation like procedure to various biological and social networks. Their “renormalisation” procedure could unify both scale-free and small-world networks on a same scaling coefficient measure (Song & Makse, 2006). Today the renormalisation is still an ongoing active subject of mathematical research since it is obviously linked to at least two central problems, the zeros of the Riemann Zeta function (which can be considered as a partition function), And the solution of the 3-D Euler and Navier-stokes equations (Frisch & al, 2008). For example, the recent breakthrough of Perelman on the Poincaré’s conjecture (Perelman, 2002) and notably the singularity removing “surgeries” on the Ricci heat flow may provide some trails to investigate intermittency in 3-D hydrodynamic.

1.2.2.4. Space-time scaling in physics and biology

Empirical background

Systems displaying a hierarchy of structures on a wide range of time and space scales occur almost everywhere in physics and biology. In the geosciences, ‘Stommel diagrams’ displaying life time vs. size of structures (usually in log-log plots) span several orders of magnitude, but a satisfactory explanation of this state of affairs is missing. In biology, metagenomics have recently been developed to explore microbial biodiversity and evolution by mining urban waste to improve our knowledge of the “tree of life,” but the time structure is far from being reliably estimated. In the area of computer and social networks, the web is the best-known example, but scale-invariant and small-world networks are encountered everywhere; in this case researchers have begun to explore the temporal aspects of such networks, but the connection between time evolution and spatial structure requires further attention.

State of the art

a) Taylor’s hypothesis of frozen turbulence (1935), also used in hydrology, is presumably the simplest transformation of time scaling into space scaling. This is obtained by supposing that the system is advected with a characteristic velocity.

b) In other cases, the connection between space and time scaling is less evident. As already pointed out, this is the case for computer networks: (space) network topology and (time) computer traffic have been separately studied up to now. Morphogenesis is a research domain that requires the development of space-time scaling analysis.

c) More recently, the comparison of scaling in time vs. scaling in space has been used to determine a scaling time-space anisotropy exponent, also often called a dynamical exponent.

What is at stake

a) Why do we need to achieve space-time analysis/modeling?
Basically there is no way to understand dynamics without space and time. For instance, whereas earlier studies of chromosomes were performed only along 1D DNA positions, 4D scaling analysis is required to understand the connection between the chromosome structure and the transcription process.

b) Data analysis

We need to further develop methodologies:
• to perform joint time-space multiscale analysis either for exploratory analysis or for parameter and uncertainty estimations,
• to extract information from heterogeneous and scarce data,
• to carry out 4-D data assimilation taking better account of the multiscale variability of the observed fields,
• for dynamical models in data mining.

c) Modeling and simulations
We also need to further develop methodologies:
• to select the appropriate representation space (e.g. wavelets), • to define parsimonious and efficient generators,
• to implement stochastic subgrid-scale parametrizations.

1.2.2.5 Algorithmes permettant l’investigation d’un espace de dimension élevé

Des analyse géométrique de la viabilité ou d’un bassin de capture basé sur le calcul d’une part de la distance à la frontière et d’autre part de la projection sur cette frontière, permettent de calculer dans un espace de dimension élevée la robustesse et la capacité de résilience du système étudié. Basés sur des algorithmes optimaux pour la Distance Euclidienne transform (EDT) dans une dimension arbitraire développés pour des mathématiques morphologiques et l’analyse d’image, un de ces algorithmes (Coeurjolly, 2007) a été adapté pour proposer des méthodes et des algorithmes qui effectuent une analyse géométrique de la viabilité ou d’un bassin de capture. Particulièrement cet algorithme peut évaluer la résilience d’un système dynamique contrôlé : sa capacité pour maintenir des propriétés données (Martin 2004). Dans ce contexte, la définition de la résilience est basée sur la distance à la frontière du noyau de la viabilité le long des trajectoires possibles. La complexité de cet algorithme est de O(d.Nd), ce qui a permis d’approcher des problèmes à 8 dimensions et un nombre de points supérieur à 10^8 point. Pour le moment cet algorithme est limité uniquement par les ressources matérielles d’où la nécessité d’utilisation de machine très puissantes en calcul.

1.2.2.6. Déviation massive et plusieurs bassins attracteur

Considérons un système dynamique qui évolue de manière déterministe dans le temps. Son évolution est représentée par une trajectoire dans l’espace d’états. Au bout d’un temps très longs, le système atteint une sorte d’état d’équilibre, i.e., il est attiré vers une zone particulière de l’espace où il restera indéfiniment et qu’il parcourt de façon « régulière ». Cet « attracteur » peut être un point, une courbe ou un ensemble topologique très complexe. En général l’attracteur qui piège le système dépend du point de départ: l’espace est ainsi partitionné en différents bassins d’attractions, un bassin d’attraction correspondant aux conditions initiales qui amènent le système vers un attracteur précis. La théorie de Freindlin-Wentzell étudie ce qui se passe lorsque le système précèdent est soumis à de petites perturbations aléatoires browniennes. Sur des intervalles de temps finis, le système perturbé se comporte avec une très grande probabilité comme le système déterministe. Cependant, la situation change radicalement sur de grands intervalles de temps: les perturbations stochastiques vont permettre au système de s’échapper de n’importe quel bassin d’attraction. Un tel événement de passage d’un attracteur à l’autre est très est très rare car il ne peut se produire que grâce aux petites perturbations aléatoires: cela s’appelle une grande déviation. La théorie de Freindlin-Wentzell étudie la situation limite lorsque l’intensité des perturbations tend vers zéro. Les probabilités des sauts entre attracteurs s’évanouissent exponentiellement vite et il est possible de décrire le plus

probable de ces événements très rares, par exemple en caractérisant les trajectoires optimales permettant au système de transiter d’un attracteur à un autre et en quantifiant l’énergie de perturbation nécessaire pour réaliser une telle transition (Cerf, 2000).

1.2.3. Ressources et planning

La recherche sur ce thème transversal, est organisée autour d’appel d’offres qui répartiront les budgets alloués. Le budget global sera à répartir sur des appels d’offres bi-annuels et les ressources matériels (locaux, ressources computationelles). Le rôle de cette section est notamment d’injecter les experts traditionnellement étiquetés comme issu de la recherche fondamentale mathématique et physique au plus près des travaux de modélisations et d’expérimentations des systèmes sociaux et vivants. Aussi, il sera porté une attention toute particulière à ce que ces appels d’offres soient adressés et relayés, non seulement aux organismes de recherches travaillant déja sur ces thématiques transversales ou organismes de recherche appliquée type INRIA, mais aussi aux instituts de recherche plus "éloignés" des mathématiques et physique fondamentales. Il s’agit ni plus ni moins de réunir une partie des initiatives déjà existantes sur ce thème et de mettre en oeuvre, de confronter, et récolter le fruit de l’excellence du patrimoine français dans les domaines des systèmes dynamiques et physique statistique directement au niveau des grands objets détaillés ci-dessus.

1.2.3.1. Appels d’offres à la communauté

Ces appels d’offres proposeront de financer des postes chercheurs invité résidant (cf. 4.2), des post-doctorants, doctorants et des postes ingénieurs. Ces postes pourront être de deux types: postes résidant dans la section du département de l’université, et postes délocalisés, résidant dans les équipes d’origine. Chaque chercheur financé sera chargé d’écrire ou de poursuivre l’écriture d’un cours s’inscrivant dans le cursus de l’Université Numérique. Nous proposons ci-dessous une première liste d’équipes qui sont concernées possédant une expertise reconnue sur ce sujet et dont la majorité fait déjà parti du réseau des systèmes complexes (les autres, seront contactés lors des appels d’offre). Les équipes participantes proposées, regroupées selon les 5 catégories précédentes (plus une classe générique) sont:

Modèles génériques:

  • Système dynamique : Hugues Chaté (IRAMIS, CEA) , Francesco Ginelli (ISC-PIF), Halina Frankowska (paris 6, mutabilité), Chaouqi Misbah (Université Joseph Fourier, Grenoble), A. Chenciner (géométrie et dynamique, Paris 7, à consulter), Jean-Christophe Yoccoz (laboratoire de mathématiques d’Orsay, Paris 11, à consulter), David Ruelle (IHES, à consulter), Daniel Schertzer (ENCP,CEREVE).
  • Topologie : Daniel Bennequin (géométrie et dynamique, Paris 7, à consulter), Mikaïl Gromov (IHES, à consulter),
  • Data Assimilation (Physique) : Bernard Legras (LMD, ENS), Olivier Tallagrand (LMD, ENS), Michael Ghil (CERES-ERTI, ENS), Guillaume Deffuant (CEMAGREF, Clermont).
  • Physique statistique: Olivier martin (LPTMS, ENS).
  • Statistique & probabilité : Michèle Thieulen (Laboratoire de Probabilités et Modèles

    Aléatoires, paris 6, à consulter).

  • Viabilité et résilience : Sophie Martin (CEMAGREF), Isabelle Alvarez (CEMAGREF,

    LIP6).

  • Informatique : Oded Maler (VERIMAG, CNRS), Joseph Sifakis (IMAG, CNRS)
  • Robotique :Pierre Bessiere (E-MOTION, CNRS), Claudine Schwartz (Université Joseph

Fourier, Grenoble), Michael Blum (IMAG, CNRS)

Droit et Politiques publiques: Danièle Bourcier (CERSA, CNRS)

Santé médecine biologie:

  • Morphogenèse des plantes : Vitaly Volpert (MAPLY, Lyon1), Daniel Barthelemy (AMAP, INRA).
  • Génétique végétale : Alain Charcosset (Génétique Quantitative et Méthodologie de la Sélection, INRA)
  • Morphogenèse animale et Veillissement: Camille Beslon (TimC Grenoble). Christophe Godin (AMAP,INRA-INRIA).
  • Société d’insectes : Guy Theraulaz (Centre de Recherches sur la Cognition Animale, CNRS). Physiome : Jean-Pierre Françoise (Laboratoire J.-L. Lions, Paris 6), Jean-Louis Coatrieux (INSERM, Rennes)
  • Psychologie et psychopathologie : Yves Burnod (INSERM), Zoe Kapula (CNRS).

    Environnement et Développement durable

  • Géophysique : Philippe Davy (Géosciences Rennes, CNRS), Renaud Delannay (Groupe Matière Condensée et Matériaux, Université de Rennes).
  • Climatologie : Michael Ghil (CERES-ERTI, ENS), Eric Simonet (INLN, CNRS).
  • Ecologie: Pierre Auger (IRD-Bondy), Michel De Lara (CERMICS, Ponts), Gabriel Lang

    (AgroParisTech).

  • Géographie : Noel Bonneuil (CAMS EHESS).
  • Sociologie: Camille Roth (CAMS, EHESS), Nils Ferrand (LISC, CEMAGREF), David

    Chavalarias (CREA,Polytechnique) Jean-Phillipe Cointet (CREA,Polytechnique).

  • Intelligence territoriale : Denise Pumain (Laboratoire Géographie-cités, CNRS).

    Optimisation des procédés dans l’industrie:
    Transformations biologiques et alimentaires : Nathalie Perrot (INRA-AgroParisTech), Salma Mesmoudi (UMR Grignon GMPA axe Malices, Gilles Trystram (UMR GENIAL, INRA- CEMAGREF).

    · Economie-finance: Jean-Pierre Aubin (CREA,Polytechnique), Nicolas Seube (ENSIETA), Nizar Touzi (Centre de Mathématiques Appliquées, Polytechnique, à consulter).

    1.2.3.2. Ressources Immobilières

    Le décloisonnement des recherches et l’interaction bijective des domaines théoriques et appliqués nécessite, au-delà des collaborations classiques à distance, un rapprochement physique et continu dans le temps des communautés. Cette section devra donc être dotée de locaux au sein du département. Les chercheurs résidents ou invités seront bien entendu associés et directement fléchés à une plusieurs grandes-thématiques objets de l’université numériques, et seront investi d’une charge d’enseignement et de production insérée dans la médiathèque de cours évolutive. La surface estimée est de 12m2 par chercheur résident.

    1.2.3.3. Ressources computationnelles

    Une partie de la section sera dédiée à la mise en service d’outils logiciels d’estimation, de prédiction et de visualisation de la dynamique, utilisable et mis à disposition des communautés. Ceux-ci seront développés en concertation avec la section intégration dans les efforts de modèles

intégrés, et favorisera la création de briques génériques, toujours dans le cadre des logiciels libres. Pour initier le travail, nous disposons des résultats préétablis de plusieurs développements dans ce domaine:

  • Morphex (Lyon) : stimulation de tout type de système complexe. Palteforme COSMO (Libre).
  • VPH : (INRIA) : toolbox physiome.
  • Software Optimisation évolutionnaire multi-objectif parallèle (Salma Mesmoudi)
  • MUSCA Software.
  • UMVF (université médicale virtuelle francophone)
  • Workflow sur grille ou cluster UNC (Romain Reuillon, ISCPIF).
  • Drug Dicovery : (Bernard Pau)
  • Proget WISDOM (Vincent Breton)

    En concertation avec les développeurs originels, ces logiciels incorporeront à la fois les requêtes spécifiques issues des utilisateurs ainsi que les avancements algorithmiques proposés. Ce travail sera assuré par les postes ingénieur de recherche requis en 3.1.
    Les ressources matérielles de calcul seront mutualisées et assurées par des grilles de stockage et grilles de calcul, en concertation avec la section intégration des modèles.

    1.2.4. Proposition de cours

    Les enseignements numériques seront déclinés en deux grandes classes : cours générique (outils de base) & cours exemples (outils spécifiques)

    1.2.4.1. Curriculum Juridique

    Nécessité dans les cours de Licence de droit d’introduire des cours de base sur la théorie des graphes ou les réseaux de neurones avec les applications au droit.
    Compilation des travaux qui ont été faits sur Droit et Intelligence artificielle (Conférences ICAIL) et l’ingénierie du droit (Conférences JURIX).

    Contenu des cours :
    Qu’est ce qu’un système ?
    Histoire de la science des systèmes
    _ De la théorie des systèmes à l’intelligence artificielle et au connexionnisme
    _ L’intérêt de l’étude du droit comme système
    _ La rédaction des lois et les effets des lois
    Etudes de cas
    Modèles de la décision administrative et judiciaire : spécificités, contraintes techniques et procédurales

    1.2.4.2. Curriculum modèle robustesse résilience et évolvabilité

    Base mathématique système dynamique

  • Logique et informatiques : Logique classique ZFC, théorie ensembles, et Booléen, introduction aux catégories, logique constructiviste, Topos, Théorie de la démonstration.
  • Topologie : Homologie, Cohomologie et Homotopie, dualité de Poincaré, Théorèmes des Points fixes. K-théorie index d’Atyah-Singer, invariants de Gromov-Witten, supersymétrie.

Dimension d’Hausdorff.

  • Géométrie : Géométrie euclidienne, hyperbolique et elliptique, Revêtements, métrique et

    courbures. Géométrie projective, géométrie différentielle, Géométrie symétrique,

    transformation conformes et inversions du cercle, Géométrie symplectique.

  • Algèbre : théorie de groupe, extensions et correspondance de Galois, Anneaux et corps,

    algèbres de Lie, Algèbres normés. Fonctions Zetas, fonctions L. Groupe de Renormalisation.

  • Analyse complexe : pôles, résidus, ensemble de Julia ensemble de Fatou.
  • Mesure et probabilité : Théorie de Lebesgue et Borel, axiomatique de Kolmogorov.

    Distributions. Processus gaussien, de Levy. Théorèmes Centraux Limites. Martingales.

    Processus Markoviens. Agrégation. Large déviations.

  • Dynamique hyperbolique – Théorie Ergodique : Exposant de Lyapunov, théorème de

    Récurrence, théorème ergodique de Birkhoff, Von Neumann et d’Oseledets. Théorie de

    Morse, Axiom A, Théorie de Pesin. Mesure SRB. Hyperbolicité partielle.

  • Dynamique elliptique – Théorie KAM.

    Base physique théorique

  • Physique classique : Gallilé, Kepler, Newton, Hamilton, Lagrange, Théorème de Noether.
  • Physique relativiste : équations de Maxwell, invariance de Lorentz, Groupe de Poincaré.

    Covariance et principe d’équivalence. Tenseurs, spineurs, twisteurs et algèbre de Clifford.

  • Physique quantique : Equation de Schrödinger, Operateurs algébre de Von Neumann,

    Espaces d’Hilbert, Dualité onde-corpuscule et non-commutativité. Superposition. Mesure

    quantique. Principe d’exclusion. Statistique de Fermi-dirac et de Bose-Einstein.

  • Quantique des Champs : Equation de Dirac, Intégrale de chemin, fonction de Green.

    Renormalisation de Wilson. Dualité boson-fermion. Invariance de Jauge. Supersymétrie.

  • Physique statistique: Théorème H, Mouvement brownien, fonction de corrélation, équations

    de Langevin, Chaos de Wiener, Intégrales d’Ito et Stratonovitch. Théorèmes de fluctuation hors équilibre. Réciprocité d’Onsager. Modèle d’Ising. Processus d’exclusion. Probléme SAT. Renormalisation.

  • Hydrodynamique : Equation d’Euler, Navier-stokes, turbulence, théorie K41, Spectre Multifractal, Champs de Gaussiennes. Intermittence.
  • Système Granulaires
  • Systèmes collectifs

     

     

     

     

     

     

    References

    Arnold, V. I., Catastrophe Theory, 3rd ed. Berlin: Springer-Verlag, 1992.

    Atlan, H., Entre le cristal et la fumée. Seuil, Paris, 1979.

    Aubin J.-P., Viability theory, Birkhäuser, (1991).

    Aubin J.-P., Bayen A. Saint-Pierre P. Applied Viability Theory. Regulation of Viable and Optimal Evolutions, Springer-Verlag (2010).

    Baconnier P., Benchetrit G., Demongeot J., Pham Dinh T., Simulation of the entrainment of the respiratory rhythm by two conceptually different models. Lecture Notes in Biomaths, 49, 2-16 (1983).

Barreira L. and Pesin Y., Non uniform Hyperbolicity: Dynamics of Systems with Nonzero Lyapunov Exponents. Cambridge University Press, (2007).

Cerf R., Pisztora A., On the Wulff crystal in the Ising model, Ann. Probab., 28 n° 3, 947- 1017, (2000).

Cerf, R., Large deviations for three dimensional supercritical percolation. Astérisque 267, (2000).

Challet D., Sorin S., Yaari, G., The universal shape of economic recession and recovery after a shock, Economics – The Open-Access, Open-Assessment E-Journal, Kiel Institute for the World Economy, vol. 3(36), pages 1-24, 2009.

Coeurjolly D., and Montanvert A., Optimal Separable Algorithms to Compute the Reverse Euclidean Distance Transformation and Discrete Medial Axis in Arbitrary Dimension. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29(3):437-448, 2007.

Conseil Constitutionnel, Décision n° 2005-530 DC du 29 décembre 2005 (2005), online URL: http://www.conseil-constitutionnel.fr/conseil-constitutionnel/francais/les- decisions/acces-par-date/decisions-depuis-1959/2005/2005-530-dc/decision-n-2005-530-dc- du-29-decembre-2005.975.html

Eckmann J. -P., Ruelle D., Ergodic theory of chaos and strange attractors, Rev. Mod. Phys. 57, 617–656 (1985).

Frisch, U., Matsumoto, T.and Bec, J., Singularities of Euler flow? Not out of the blue!, J. Stat. Phys. (2003).

Ginelli F., Poggi P., Turchi A., Chaté H., Livi R., Politi A., Characterizing dynamics with covariant Lyapunov vectors, Phys Rev Lett 99, 130601 (2007).

Martin.S., 2004. The cost of restoration as a way of defining resilience: a viability approach applied to a model of lake eutrophication. Ecology and Society 9(2): 8. online URL: http://www.ecologyandsociety.org/vol9/iss2/art8/

Mesmoudi S., Alvarez I., Martin S., Sicard M., Wuillemin P.-H., Geometric Analysis of a Capture Basin, Application to cheese ripening process, ECCS 2009.

Mézard M., Passing messages between disciplines, Science 301(2003)1686.

Perelman, G., The entropy formula for the Ricci flow and its geometric applications, arXiv:math/0211159v1 2002.

Pham Dinh T., Demongeot J., Baconnier P., Benchetrit G., Simulation of a biological oscillator: the respiratory rhythm. J. Theor. Biol., 103, 113-132 (1983).

Rioual, F., Biben T., and Misbah C., Analytical analysis of a vesicle tumbling under a shear flow, Phys. Rev. E. 69, 061914 (2004).

Song C., Havlin, S. &. Makse, H., Self-similarity of complex networks. Nature 433, 392-

395 (2005).
Sherrington D., Kirkpatrick S., Phys. Rev. Lett. 35, 1792 (1975)
Thom, R., Stabilité structurelle et morphogénèse, Interédition, Paris, 1977

Wilson, K. G. & Kogut, J., The renormalisation group and the e-expansion. Physics reports 12 N°2 75-200 , 1974.

Theory and Measure of Networks

Reporter

Jean-Baptiste Rouquier Contributors
Cyril Bertelle Jean-Philippe Cointet Jean-Pierre Gaudin Damien Olivier Matthieu Latapy Lionel Tabourier

Keywords

Complex networks, Metrology, Hierarchical clustering, Communities, Graphs, Dynamics, Robustness, Partial data, Contextual data, Diffusion processes.

Introduction

Technology, society and nature produce data at an ever increasing rate, and part of this data can be modeled as graphs. In many fields, the graph point of view sheds light complementary to the specialized analysis proper to each field. The complex network approach is a way to work on the relational structure characterizing most complex systems.

In order to define the boundaries of the complex network domain, we suggest the three following criteria: this domain deals with graphs that are:
built from observation data
sufficiently large to allow statistical analysis
evolving mainly by local mechanisms

Much progress has been done during recent years on this specific area, revealing in particular some features common to many networks from various fields (existence of a giant connected component, short distance between nodes, heterogeneous degree distribution, tendency to share common neighbours etc).

Beyond these characteristics, what are the current challenges of complex networks? Our aim is to identify transverse problems from various fields, or challenges asking for general methods. Networks are considered here not only as a tool to study complex systems, but also as an object of study in itself.

1.1.1. Metrology and modeling1.1.1.1. Incomplete, noisy, biased data

In most cases the available data obtained are the result of an intricate measurement protocol which is by nature incomplete and biased.

Data incompleteness can be due to various reasons: privacy concerns, retention strategies… But beyond that, in many cases a massive collection is too costly to be implemented and sometimes even irrelevant.

Bias and noise are intrinsic features of most available data collection procedures. The example of the Internet is typical: routing links are discovered with very heterogeneous probability and noise is produced by phenomena such as load-balancing which creates fake links.

An important challenge for the field consists in overcoming these issues through innovative methods and tools for data collection. In particular, the barrier of cost or feasibility may be reduced by methods that rely on embedded systems such as mobile phones, devices equipped with RFID chips (like Navigo or Oyster), software offered to the user, etc.

Three main directions seem relevant to deal with such situations:
* Use of artificial models to replace missing data, smooth noise, or detect inconsistencies; * Rely on other sources to fill gaps or cross-check the measurements
* Focus on specific meaningful properties which bias can be estimated and even corrected using the knowledge we have of the collection process.

1.1.1.2. Formalism enrichment

The network formalism is based on a strictly relational approach (and homogeneous in terms of nodes) which needs to be driven closer to actual systems.

Need for new contexts
This includes geographical, demography, economics and politics approaches. For example, how to deal with data concerning the involvement of partners in an interacting group? Taking that into account calls for an enriched analysis of relational structures, and vice versa: the network approach sheds light on these contexts.

These issues request important modeling efforts, to control what information is lost in the modeling process which is necessarily simplifying – e.g. by approximating the economy of a city population by some flows such as water and money.

Tools adaptation
We therefore must develop procedures capable of taking into account more detailed information, beyond the already wide-spread case of directed and / or weighted networks:

* The overlay of several network (multi-network)
* The semantic of links (e.g. text content attached to an exchange of emails)
* Heterogeneous nodes (bipartite networks if there are two types of node, but possibly more)

1.1.2. Analyzing networks: from statics to dynamics

1.1.2.1 Brief overview of past and present work

During the last decade, important efforts have been dedicated to seize the properties of static networks:

* generation models fitting real networks (e.g. Goldenberg, Zheng, Fienberg, Airoldi, 2009) * promising frameworks of visualization software (Gephi, Tulip…)
* many parameters to quantify their topology and efficient algorithms to compute them: at a

local scale (patterns, node importance) as well as at a global one (diameter, centrality…), see da Costa Rodrigues Travieso Villas Boas 2007

* algorithms to discern structure:
– community detection methods to describe their organization (see Fortunato 2010) – small world structure and navigability
– hierarchical clustering (like a dendrogram).

Those concepts help to address the need to classify networks. A classic distinction is between natural and man-made networks. There is a tendency towards assortativity in the former, where links derive from affinity, while in the latter, disassortativity is often observed and external constraints have an influence (like public policy on business networks). But this distinction about the origin of data has limits in its operative strength, other classifications should be looked for. Indeed, we now need discriminating properties to classify networks, and ways to relate networks across fields, to ease the porting of methods, to gain insights and intuition from other fields

1.2.1.2. Measuring and analysing the dynamics

Yet there is now a great interest in taking into account the dynamical aspects of these large networks (sometimes also called “diachronic” or “longitudinal” data), as interaction patterns evolve through time. This induces changes both on and of the network itself, revealing events which occur through its life and explaining its structure. In the long term such study would provide control on trajectories of the structure by local or global actions on the network (like a public policy). If those events are incidents with negative consequences, it is important to provide ways to make the network robust against accidents and resilient to quickly recover from them.
Collecting dynamical data induces new metrological problems that have to be tackled: see the example of the Internet infrastructure (network routers and servers) whose dynamics is faster than the measurement process.

A well-spread point of view consists in analyzing the dynamical network as a sequence of static snapshots. This involves adapting the existing tools to a larger amount of data, but beyond that, this method is not sufficient to grasp comprehensively the dynamics of the network: we need to propose intrinsically dynamical notions that would take into account its evolving nature.

1.2.1.3. Evolution of the structure

Understanding the multiscale organization (i.e. the hierarchy) is crucial to understand both how large scale emerges from local interactions (bottom-up) and conversely how global institutions and existing structure influence individual entities (top-down).

Community structure evolution is a central issue in characterizing the organization of networks: how to adapt the efficient tools that have been proposed to describe how a community appears, dies, splits or merges? Or is it possible to locate community cores which would be particularly stable through time? To discern steps during the evolution?

One may also cite event detection, link prediction, and others (many of which still being to invent).

1.2.1.4. Diffusion processes on networks

Another aspect of the dynamics consists in studying phenomena occurring on the network and in particular spreading processes. From a virus epidemic to a packet of information transferred through peer-to-peer exchanges, these problems can be described as diffusion processes on a complex network.

Still important efforts must be realized in order to propose efficient estimates of real spreading phenomena characteristics:

* the records of diffusion processes are scarce, often noisy and relies on unverifiable hypotheses, but recent data collection campaigns promise imminent progresses in this field

* spreading models are mostly based on intuition and rarely cross-checked with real-world data

Then we will be able to study obvious links with the previous section: an evolving structure affects the diffusion phenomena, while agents on a network can (in some models) affect the network topology (stigmergy).

References

S. Boccaletti, V. Latora, Y. Moreno, M. Chavez, D.U. Hwang. “Complex Networks: Structure and Dynamics”, Physics Reports 424(2006), pp 175-308

Alain Barrat, Mac Barthélemy, Alessandro Vespignani. “Dynamical Proecesses on Complex Networks”, Cambridge University Press, 2008

Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, “A Survey of Statistical Network Models”, 2009

Santo Fortunato, “Community detection in graphs”, 2010

L. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas, “Characterization of Complex Networks: A Survey of measurements”, Advances in Physics 57, 2007