Thématique : Complex Matter

2.2.3. Complex matter

Contributors: Francesco Ginelli (ISC-PIF), Ivan Junier (ISC-PIF)

The roadmap item about complex matter (considered as “Object” of research) can be found here. This document provides the overall structure of the corresponding digital research group and the digital university. It is articulated around the scientific "grands objets" (research fields) and around the teaching implementation (basic and advanced courses).

Introduction

The field of complex matter is currently driven by a large body of new experiments and theoretical ideas in various branches of physics and biology. The former concerns systems that are composed of many interacting entities, such as those found e.g.in condensed matter, statistical physics or ultra- cold atomic physics. The latter aims at understanding the functioning of living systems from the single molecule level up to collective behaviors of cells and animals. Beyond their apparent diversity, these systems share a common characteristic: the emergence of complex collective behaviors from the interaction of elementary components. As a consequence, experts in these fields have been developing tools that are particularly well adapted for the multi-scale modelling and the multi-scale analysis of complex systems. Applications to social sciences issues (econophysics, social physics, etc.) are constantly on the rise.

The emergence of self-organized or self-assembled structures, criticality, percolating systems, out- of-equilibrium systems, disordered systems, nonlinear systems, active matter, fluid dynamics and turbulence, are some of the subjects of complex matter that are useful to tackle complex systems encountered in biology and more generally in multi-agent systems. Tools coming from signal analysis and statistical inference are powerful tools to extract the fundamental interactions that are responsible for an emerging behavior at a particular scale.

The goal of a digital research group, combined with a digital university, is to develop a platform that will be useful both to experts in complex matter and scientists/engineers involved in other fields of complexity sciences (from biology to multi-agent systems such as in social systems). The aim is therefore twofold. First, techniques issued from the field of complex matter must be visible to the rest of the complex system community. Due to its high level of formalization, this body of expertise is going to play a crucial role in the development of a quantitative approach to complexity. On the other way around, complex matter experts need to be informed of the challenges coming from the different fields of complex systems so they can be aware of the potentiality of their methods for investigating other fields of knowledge.

2.2.3.1. Research fields (Grands objets)

The following is a list of relevant research fields which contribute to the complex matter paradigma. They have been selected according to their transdisciplinary span and the potential interest of their ideas and tools for the complex system community at large.

Soft condensed matter

The field of soft condensed matter deals with the physics of easily deformable matter such as liquids, colloids, polymers, gels, foams (some part of granular matter may be included) — see

(Chaikin and Lubensky, 1995) for a general presentation of the field. The predominant feature of these systems is that the energy scale of their microscopic dynamics is the thermal energy, which is a pretty low energy scale with respect to the chemical bond energy encountered in solid states. This softness of the interaction and the diversity of the molecules that are at play results on a rich zoology of emerging collective behavior. Development of analytical tools, such as filed theory and the renormalization group (Lesnes, 1998) has allowed a powerful treatment of these systems. Interestingly, collective behaviors encountered in various biological systems (e.g. tissue formation) can be described using such tools.

Equilibrium approaches give hint on the natural trend of a system and may explain many of the self- organizing processes that can be encountered in biological systems, e.g. the formation of bilipidic membrane, the folding of amino acids and nucleic acids, the osmotic stability of a cell. Neverthess, a distinctive feature of biological systems comes from the presence of active processes. Non- equilibrium approaches based on (discrete and continuous) dynamical equation of conservation and out-of-equilibrium fluctuation theories have been developed in order to deal with phenomena such as morphogenesis, active molecular transport (e.g. kinesins, dinesins along microtubules), mitotic separation of chromosomes, cellular division, cellular structure and cellular motility (active polymerization).

Non-equilibrium approaches are also used to investigate the properties of biomolecules at the single molecule level, giving new insights into how proteins and nucleic acids do interact and dynamically process (e.g. the study of the replisome using single molecule techniques) (Ritort, 2006).

Non-equilibrium phase transitions and critical phenomena

The long lasting interest for non-equilibrium statistical physics has recently experienced a noticeable revival through the development of new methods and new areas of applications, especially including complex biological systems which, generically, persist in an out of equilibrium state.

Most recent efforts in this area have been devoted to interacting particle systems (Marro and Dickman, 1999). This broad class of stochastic systems is commonly used to model a wide range of non-equilibrium phenomena (chemical reactions, epidemiology, transport in biological systems, traffic and granular flows, social and economic systems, growth phenomena, etc…). Interacting particle systems can be investigated by a combination of numerical and analytical methods; some of them have even been solved exactly (see e.g. (Derrida, 1998)).

Biophysics has been very useful to understand living matter from the single molecule level up to the collective behavior of interacting cells (e.g. a tissue). At the single molecule level, powerful single-molecule techniques (e.g.fuorescence techniques or micro-twizzers allowing to apply pN forces) together with novel non-equilbirum theories have provided a better understanding of both the dynamics and the thermodynamics properties of complex biomolecules (nucleic acids and amino acids) in vivo. At the multi-cellular level, the advance of powerful visualizing tools (e.g. confocal microscopes) and the use of powerful theoretical tools for describing active matter and collective behavior have provided an unprecedented view of the genesis of living systems, and how they evolve and interact in space and time.
On the other way around, biology has been proved to be extremely useful to physics. Indeed, living systems have evolved for millions of years under very different non-equilibrium conditions. In this regard, the research of the thermal behavior of biological matter have shown an unprecedented richness of details, which are likely to have important consequences in the complex organization of living matter.

From the theoretical side, although the usual formalism of equilibrium statistical physics does not apply to out-of-equilibrium systems, it is now well-known that many of the tools developed in equilibrium settings can also be used out-of-equilibrium. This is in particular the case for the framework of critical behaviour, where concepts such as scale invariance and finite-size scaling have provided (largely numerical) evidence for universality in non-equilibrium systems (Hinrichsen, 2000). It is possible to investigate systems in which the non-equilibrium character stems not from the presence of gradients imposed, for instance, by boundary conditions, but because of the breaking of micro-reversibility – that is to say, time-reversal invariance – at the level of the microscopic dynamics in the bulk.

A large part of the research activity on non-equilibrium statistical physics is also centred on the various phase transitions observed in many contexts. Indeed, many non-equilibrium situations can be mapped onto each other, revealing a degree of universality going well beyond the boundaries of any particular field: for example, self-organized criticality in stochastic (toy) sand piles has been shown to be equivalent to linear interface depinning on random media, as well as to a particular class of absorbing phase transitions in reaction-diffusion models. Another prominent example is the jamming transition which bridges the fields of granular media and glassy materials (Mari et al., 2009). Synchronization and dynamical scaling are, likewise, very general phenomena which can be related to each other and to the general problem of understanding universality out of equilibrium. Non-equilibrium phase transitions and critical phenomena play a key role in many different fields of science, ranging from public health issues (infection spreading) to engineering problems (material failures, crack growth in hetereogeneous materials).
In recent years, the study of infection spreading in human societies has largely relied on concepts developed in mathematics and tout of equilibrium statistical physics (absorbing phase transitions, directed percolation, Levy flights, etc..).

Concerning applications to material sciences, statistical physics offer an approach to material failures and crack propagations in hetereogeneous media which goes beyond the standard continuum elastic theory. In brittle materials, for example, cracks initiate on the weakest elements of the micro- structures. As a result, toughness and life-time display extreme statistics (Weibull law, Gumbel law), the understanding of which requires approaches based on probabilistic theories. Moreover, in hetereogeneous materials crack growth often displays a jerky dynamics, with sudden jumps spanning over a broad range of length-scales. This is also suggested from the acoustic emission accompanying the failure of various materials and – at much larger scale – the seismic activity associated with earthquakes. This intermittent “crackling” dynamics cannot be captured by standard continuum theory. Furthermore, growing cracks create a structure of their own. Such roughness generation has been shown to exhibit universal morphological features, independent of both the material and the loading conditions, reminiscent of interface growth problems. This suggests that some approaches issued from statistical physics may succeed in describing the failure of heterogeneous materials.

Disordered systems

The statistical description of disordered systems is a very active field at the interface between mathematical physics and probability theory. It concerns systems that are either composed of heterogeneous particles, which can be a molecule or an economic agent, or composed of identical interacting particles that see different environments. Spin glasses models are the classical paradigma for these systems (Mézard et al., 1987), and the last 30 years have witnessed a spectacular development of their theoretical understanding. Various powerful methods have been developed to understand the correlations arising in these disordered systems, the associated phase transitions (replica theory, cavity method) and, from a dynamical point of view, how they explore their rugged energy landscape in search of local minima (mode coupling theory, dynamical

heterogeneities approach, fluctuation dissipation out of equilibrium).
These models describe the fundamental properties of a surprising large number of different systems ranging from diluted magnetic materials and glassy systems to neural networks. In recent years it has also been realized that many NP complex combinatorial optimization problems are intimately related to the spin glasses formalism. Spin glasses formalism has been applied to the study of folding processes in biomolecules (proteins, RNA, DNA) and to the formalization of social and economic systems (Challet et al., 2005).

Tools from the field of disordered systems are particularly promising for working out microscopic laws underlying the phenomena we are investigating or experiencing. More precisley, most experiments consist in measuring averaged quantities, correlation functions or consist in observing specific emerging patterns. The question is to find out which entities interact together and to determine the nature of the interaction. A paradigmatic example concerns the functioning of neural networks. In this case, the experiences consist in measuring the (complex) correlation between the spiking activity of neurones. The problem then is to determine the interacting neurons and the nature of their interaction (e.g. repression or activation) (Mézard, 2008).

Collective behavior in active matter systems

Active particles are able to self propel themselves by absorbing energy from their environment and transforming it into movement along a preferred direction. The general understanding of the collective properties of these self-propelled particles is the focus of a fast- increasing body of research in statistical physics and beyond (Ramaswamy, 2010). Under the vocable of active matter, one has observed the emergence of a research community involving physicists, biologists, engineers from IT (ad-hoc networks, Hua, 2009), and from swarm robotics (Sahin, 2005).
The collective coherent motion of a large number of these self propelled particles (generally known as flocking) is indeed an ubiquitous phenomena in nature. Examples of large scale structures emerging in such systems range from bird flocks and fish schools to cells growth, bacteria aggregates and segregation phenomena in a driven monolayer of elongated granular matter.
A cornerstone in the theoretical approach to active matter is the concept of universality, that is the idea that, despite the many individual differences existing between these systems, it could be possible to classify them according to their symmetries and conservation laws, thus delimiting broad universality classes. Minimal models – such as the celebrated Vicsek model (Vicsek et al., 1995) – are representative of these classes, and current research involving physicists and mathematicians is focused on the formulation of the proper continuum description (via Langevin equations) of active matter (Toner, 2005).

In recent years this approach has indeed revealed that active matter yields novel fascinating collective properties. Among these, let us mention the existence of true long-range order in 2D systems with XY symmetry, the ubiquity of giant number fluctuations, long-range correlations, and density segregation in the orientationally-ordered phases of collections of self-propelled particles (Chate 2006, 2008).
A closely related fundamental problem in social animal behavior is understanding how the behavior at the group scale (such as the complex aerial displays of starling flocks) results from the behavior and interactions among individuals (Parrish 1997). Modeling efforts aimed at specific animal groups thus represent the tool to link ibehavioral patterns at individual level to the behavior at group level, and should be performed in close conjunction with experimental or field data (to which models could be confronted). Obviously, this activity is closely related to and benefits from the theoretical knowledge accumulated in studying minimal models.
Furthermore, it is only recently that modern imaging and tracking techniques have started to allow for the study of large groups. In this context, a remarkable set of data is obtained in the context of

the EU FP7 StarFlag project which succeeded in fully reconstructing the 3D positions and velocities of individual birds in large groups of starlings (Ballerini 2008). Further experimental efforts on animal groups include the study of fish schools, sheep herds, insect swarms, etc. Collective phenomena in human crowds and more generally displacements patterns in human are an object of many theoretical and experimental studies too (Helbing, 2000).

Due to the ubiquity of mobile phones, smartphones and other Wi-Fi devices, as much as the ever increasing importance of cloud and diffused computing, the study of networks of mobile and intercommunicating agents is also a fundamental topic in current IT research. The collective motion paradigma is also at the heart of control problems for swarm robotics. In this context, proper behavioural rules at the individual level are studied and devised so that large group of simple robots self organize to perform the needed task at the collective level.

Multi agent models are also at the heart of many studies performed on social insects (ants, termites, bees, etc…). The objective here is the understanding the individual level processes which allow these groups to take decisions at the collective level and coordinate their activities in order to construct complex architectures(Theraulaz 2002). The concept of swarming intelligence is often evoked for these systems.

Of particular importance, finally, are the studies of the collective dynamics in bacterial populations and multicellular organisms, as much as the characterization of the dynamics of cytoskeletal filaments and molecular motors ("active gels") inside a single cell (Voituriez, 2006).

Granular Matter

Systems that are driven by molecular agitation can be modeled using tools that have been developed and tested for more than 100 years. In contrast, granular systems are composed of macroscopic particles that loose energy during interactions via inelastic collisions. Although the apparent simplicity of these systems, the characterization and understanding of their properties is only recent, raising new challenges for characterizing the collective behavior of systems which needs continuous injection of energy in order to evolve (de Gennes, 1999, Mehta, 1994).

The field of static granular matter has generated much activity for what concerns the geometrical characterization of force networks. From the dynamical point of view, driven granular matter tackles different fields such as the problem of avalanches, the characterization of traffic jams, the dynamic of sand piles, the genesis of pattern formation in natural phenomena (e.g. the formation of sand dunes), the mixing and segregation mechanisms in vibrated granular matter (e.g. mixing of aliments in the agro-industry). Theoretical development has revealed links with statistical physics of disordered systems (e.g. the concept of jamming), but also with fluid mechanics and thermodynamics. New challenges regards the extension of fluctuation dissipation relations, one of the tenets of equilibrium statistical mechanics, to granular systems. These relations allow one to relate the response of a system to external perturbations with its unperturbed fluctuations, and bears connections with a wide range of questions, from transport properties to resilience and robustness issues.

Turbulence and fluidodynamics

Turbulence describes the complex and unpredictable motions of a fluid (Monin, 1971, 1975). Examples are ubiquitous, from the volutes of a rising smoke to the dynamical patterns formed by cream mixing in a coffee cup and of far reaching importance; understanding the nature of turbulent flows is a central issue in a wide range of disciplines, from engineering (aeronautics, combustion, etc.) to earth sciences (climate theory, weather forecast, etc.).

While the dynamics of an incompressible Newtonian fluid is described by the Navier-Stokes equations, very little is known analytically about their solutions. Indeed, when the inertial

contribution to the Navier-Stokes equation outbalance the the viscous one, the fluid exhibit a transition between laminar (regular) and turbulent (chaotic) flow.

Approaches to turbulence have so far relied on scaling approaches, as in the celebrated K41 theory, which describe the energy cascade from larger to smaller structures by an inertial mechanism, or on reduced models (shell models, Burger equation, etc.). Direct numerical simulations of the Navier-Stokes equations, on the other hand, are prohibitively difficult, since the number of degrees of freedom which is needed to describe the flow grows with a power of the ratio between inertia and vicosity (the so called reynolds number). Still nowadays, the most refined pseudo-spectral numerical techniques are not able to describe turbulence at the Reynolds numbers achievable by best experimental facilities. A complementary approach developed in the last decades, finally, regards turbulence as a manifestation of deterministic chaos, and uses the typical quantifiers of nonlinear dynamics (Lyapunov exponents, fractal dimensions, etc., Eckmann 1985) to describe its properties (Bohr, 1998).

Nowadays, turbulence is still a substantially open problem (Procaccia, 2008), and there are many fascinating problems in many disciplines closely related to turbulence and fluidodynamics. At the more theoretical level, many efforts are being devoted to the problem of intermittency in turbulence and bifurcations in turbulent flows, once again a problem closely related with chaos theory. Magnetohydrodynamic turbulence (the emergence of a magnetic field through the turbulent motion of an electrically conducting fluid, (Biskamp 2003) plays an important role in many astrophysical and geophysical problems, such as the generation of the earth magnetic fields. Finally, fluidodynamics problems plays a central role in atmospheric sciences, oceanography and climate sciences. In particular, recent developments in chaos theory show interesting links with the goal of enhancing the predictability time in weather and climate forecasts (Kalnay 1997).

2.2.3.2. Tools and methods (Implémentation)

Systems in the field of complex matter share common characteristics and hence raises transversal questions. Generic tools must be available for the community. Mathematics, statistichal mechanics and nonlinear dynamics offer a formal language by which a quantitative investigation of complex systems may be carried on. We roughly distinguish between basic tools (roughly teached at the high end of undergraduate sudies) and more advanced ones, suitable for master level, PhD and permanent formation of active researcher.

Towards a complex systems curriculum studiorum

In the following we propose a list of basic formal methods commonly employed by theoretical physicist in the study of complex systems. They can be teached at an undergraduated level and represent a common mathematical language for a quantitative analysis of complex systems. We believe their teaching should lie at the heart of a complex system curriculum studiorum.

Elements of linear algebra

  • Linear vector spaces, matrices, eigensystems, linear algebric equations__ Calculus
  • Real and complex numbers, differentiation, integration, function series summation, Fourier series, ordinary differential equations, partial differential equations, distribution theory.
  • Information theory, Bayesan theory, Markovian processes, Langevin equations and Fokker Planck approach, stochastic calculus (Ito and Stratonovich approaches)
  • Numerical methods
  • Introduction to general purpose programming language(s) (C++ ?) and basic numerical tools: linear algebraic equations, least squares method, numerical integration, fast fourier transforms, eigenvalues problems, maximization and minimization, roots finding, random numbers.

    Elements of mechanics

  • Dynamics, Hamiltonian formulation, basics of fluidodynamics, basics of electromagnetism
  • Elements of statistical mechanics
  • Emerging behaviors from local interactions (Ising systems): application to non-physical systems. Statistical ensembles — partition functions. Intro to out-of-equilibrium methods (Response theory).
  • Dynamical systems theory
  • Periodic and chaotic motion, elements of ergodic theory, time series analysis

    Advanced topics

    Working out microscopic laws from macroscopic observables

    This is a central issues in the study of emergent systems. Let us mention here an important problem that most scientists/engineers have faced or will be facing. In order to investigate a system composed of heterogeneous agents that interact with each other, we first start by measuring average quantities such as correlation functions. We then want to work out the microscopic laws that give rise to these macroscopic correlations. From the point of view of statistical physics techniques, this can be seen as an Inverse (Ising) problem and very promising tools have been developed in order to work out the microscopic details. This has been used for instance for working out neural couplings between retinal ganglion cells (Cocco, 2009), identification of direct residue contacts in protein- protein interaction (Weigt et al., 2009).

    Numerical methods

    Discretizing the continuous description: for either solving partial derivative équations or simulating large systems (Finite Element Methods, Lattice Boltzmann methods, (Biased) Monte Carlo methods, Genetic algorithm, Stochastic integration, Molecular Dynamics, Agent-based approaches, …).

    Numerical simulations of complex systems: heterogeneous agents, heterogeneous interactions, integration of multiple spatial and temporal scales (coarse-graingin methods, parallelisation methods).

    Response theories

    By measuring the way of a thermal system responds to an external small perturbation, one can have access to the way it relaxes when it is not perturbed (Einsitein-Smoluchowski relation). More generally, Onsager relations describe the interplay between flows and forces through the phenomenological concept of transport coefficients. These relations have been formalized using fluctuation theory, showing that linear transport coefficients are related to the time dependence of equilibrium fluctuations in the conjugate flux (linear response theory). Onsager reciprocity relations further provide symmetry relations between transport coefficients mixing different types of perturbation allowing to understand the mutual influence of different parameters and perturbations.

Linear (equivalently equilibrium) response theory is nowadays well established. New challenges come from the description of active matter, and more generally from out-of equilibrium systems and non-linear effects, i.e. how a system responds to strong fluctuations. Recent progress, which must taught as n advanced topics, has been made in both fields. For instance, general linear fluctuation dissipation relations have been derived for stationary states (Marini Bettolo Marconi, 2008, Baiesi et al., 2009). Fluctuations theorems have revealed general symmetry properties for the fluctuations of systems that are driven arbitrarily far away from equilibrium, highlighting deep connections between statistical non-equilibrium behaviors and equilibrium properties (Ritort, 2008). These approaches must be used as an approach to tackle the case of athermal systems (energy needs to be continuously injected) and more generally to systems where there is no separation scale between microscopic elements and macroscopic description (granular matter, embryogenesis, general collective behaviors auch as in social phenomena). This must be a way to understand how such systems tend to evolve with respect to their interaction with the environment.

An overview of the complex matter French community

There is a huge community, most of it belonging to statistical physics, working in the field of complex matter. In the following, rather then centrating on individual researcher names, we choose to list some of the labs that have been very active in these fields

Granular Matter: ESPCI, LPS (ENS Paris), ENS Lyon, SPEC (CEA/Saclay)
Soft condensed matter: SPEC (CEA/Saclay), IPHT (CEA/Scalay), LPTMC Jussieu, ESPCI, Laboratoire Matière et Systèmes complexes (MSC), ISC
Disordered systems: LPTMS (Orsay), LPS ENS (Paris), IPHT and SPEC (CEA/Saclay), Laboratoire de physique ENS (Lyon)
Out of equilibrium critical phenomena: LPT (ENS Paris), ESPCI, IPHT and SPEC (CEA/Saclay) Active Matter: SPEC (CEA/Saclay), Institut Curie, ESPCI, ISC
Animal behavior: CRCA Toulouse

References

Baiesi et al., Fluctuations and Response of Nonequilibrium States, Phys. Rev. Lett. 103, 010602 (2009)

Ballerini, M. et al.Interaction ruling animal collective behavior depends on topological rather than metric distance: Evidence from a field study, Proc. Nat. Ac. Sci. (2008) vol 105, p 1232

Biskamp, D. Magnetohydrodynamic Turbulence, Cambridge: Cambridge University Press (2003).

Bohr T. et al.Dynamical systems approach to turbulence, Cambridge: Cambridge University Press (1998)

Chaikin, P.M. and Lubensky, T.C., Principles of condensed matter physics, Camridge Univ. Press (1995)

Challet, D., Marsili, M. and Zhang, Y-C., Minority Games: Interacting Agents in Financial Markets, Oxford University Press (2005).

Chaté, H., Ginelli, F. & Montagne, R. Simple model for active nematics: Quasi-long- range order and giant fluctuations. (2006) Phys. Rev. Lett., vol 96 p 180602

Chaté, H. et al. Collective motion of self-propelled particles interacting without cohesion. Phys. Rev. E (2008) vol 77, 046113.

Cocco, S. et al., Neuronal couplings between retinal ganglion cells inferred by efficient inverse statistical physics methods. Proc Natl Acad Sci USA (2009) vol. 106 (33) pp. 14058-62

Derrida, B., An exactly soluble non-equilibrium system: the asymmetric simple exclusion process, Physics Reports (1998) vol. 301 (1) pp. 65-84

de Gennes, P.G., Granular matter: a tentative view, Rev. Mod. Phys. (1999) vol. 71 pp. 374

Eckmann J.-P.and Ruelle D., Ergodic theory of chaos and strange attractors Rev Mod. Phys. (1985), vol 57 p 617.

Helbing, D., Farkas, I. & Vicsek, T. Simulating dynamical features of escape panic. Nature (London) (2000) vol 407, pp 487-490.

Hinrichsen, H., Non-equilibrium critical phenomena and phase transitions into absorbing states, Advances in Physics (2000) vol. 49 pp. 815

Hua H., Myers S., Colizza V., and Vespignani A. WiFi networks and malware epidemiology. Proc. Natl. Acad. Sci USA (2009) vol 106 pp. 1318-1323

Kalnay E. Atmospheric modeling, data assimilation and predictability, Cambridge: Cambridge Univ. Press (2007).

Lesnes, A., Renormalization methods: critical phenomena, chaos, fractal structures, Wiley, New- York (1998)

Mari et al., Jamming versus Glass Transitions, Physical Review Letters (2009) vol. 103 pp. 25701

Marini Bettolo Marconi, U., Puglisi, A., Rondoni, L. & Vulpiani, A. Fluctuation- dissipation: response theory in statistical physics. Phys. Rep. (2008) vol 461, p 111

Marro J. and Dickman R., Nonequilibrium phase transitions in lattice models, Cambridge University Press (1999)

Mehta, A., Grabular Matter: an interdisciplinary approach, Springer (1994)

Mézard, M., Parisi, G. and Virasoro, M.A., Spin glass and beyond, Singapore: World Scientific (1987)

Mézard, M. and Mora, T., Constraint satisfaction problems and neural networks: a statistical physics perspective, eprint arXiv (2008) vol. 0803 pp. 3061

Monin A. S. & Yaglom A. M., Statistical fluid mechanics Vol 1, Cambridge: MIT Press

(1971).

Monin A. S. & Yaglom A. M., Statistical fluid mechanics Vol 2, Cambridge: MIT Press (1975).

Parrish, J.K. & Hamner, W.M. (eds.). Animal Groups in Three Dimensions. Cambridge: Cambridge University Press (1997).

Procaccia, I and Sreenivasan, KR.The State of the art in Hydrodynamic Turbulence: Past Successes and Future Challanges Physica D (2008) vol 237 pp. 1825-2250.

Ramaswamy S, The Mechanics and Statistics of Active Matter, Annu. Rev. Condens. Matt. Phys., (2010) vol.1.

Ritort, F., Single-molecule experiments in biological physics: methods and applications. Journal of Physics: Condensed Matter (2006) vol. 18 pp. 531

Ritort, F., Nonequilibrium fluctuations in small systems: From physics to biology, Advances in Chemical Physics (2008) vol. 137 pp. 31-123

Sahin, E. & Spear, W.M. Swarm Robotics. Berlin: Springer (2005).

Theraulaz, G. et al. Spatial Patterns in Ant Colonies. Proceedings of The National Academy of Sciences USA (2002) vol 99, pp. 9645–9649.

Toner J, Y. Tu Y and Ramaswamy S, Hydrodynamics and phases of flocks, Ann. Phys. (2005) vol 318 p 170

Vicsek T, et. al., Novel type of phase-transition in a system of self-driven particles. Phys. Rev. Lett. (1995) vol 75, pp. 1226-1229

Voituriez, R., Joanny, J.F. & Prost; J. Generic phase diagram of active polar films. Phys. Rev. Lett. (2006) vol 96, 028102.

Weigt et al., Identification of direct residue contacts in protein-protein interaction by message passing, Proc Natl Acad Sci USA (2009) vol. 106 (1) pp. 67-72

Thématique : Épistémologie des systèmes complexes

Ou « comment » réaliser et appliquer la méthode scientifique dans le cadre des systèmes complexes, en publiant à 500 contributeurs dans 20 disciplines.

Contributeurs : Nicolas Brodu

Afin de réaliser les grands projets de demain et de répondre aux questions scientifiques posées par les systèmes complexes, il nous faut passer la barrière de la publication par quelques individus isolés et travailler de façon collaborative et pluridisciplinaire. Ce changement de pratique peut être grandement facilité, voire même tout simplement permis, par des outils et infrastructures permettant d’adapter et d’appliquer la méthodologie scientifique dans ce cadre nouveau.

Voici une proposition qu’il est possible d’intégrer dans l’infrastructure du campus numérique. Cette page sert de lieu de discussion sur comment mettre en œuvre une épistémologie des systèmes complexes. N’hésitez pas à commenter et ajouter vos idées. Le résultat sera intégré dans le document final sous une forme encore à définir, par exemple dans l’axe transverse «Infrastructures» du campus numérique qui comprendrait cette section ainsi que celle concernant les «Modèles intégrés».

L’infrastructure de recherche à mettre en œuvre comprendrait :

Un outil sur le modèle des wikis, amélioré. En plus de l’édition à plusieurs, il faut également un mécanisme pour assurer l’authentification (ex: clef de cryptographie privée, à valeur légale dans de nombreux pays) ainsi qu’un système de versions généralisé (historique de l’article + commentaires + données utilisées + code des expériences). Mais également des outils pour gérer et améliorer la bibliographie, rentrer des formules de math, etc. Bref, un système d’édition collaborative dédié à la rédaction scientifique, assurant tant la paternité des idées que leur expression facile en ligne et leur diffusion. Et un moteur de recherche très efficace pour voir dans les références si une idée existe déjà, ainsi que dans les articles en cours de construction (cf point suivant). Le tout avec une interface réellement utilisable par des non-informaticiens…

Un « marché des articles en cours ». Que chacun puisse proposer une idée nouvelle et commencer un article, avec le système détectant automatiquement les articles similaires en cours de construction pour proposer de les fusionner (analyse sémantique). Ceci permettrait de travailler

potentiellement à beaucoup, d’éviter la frustration de voir une initiative similaire « publiée » avant soi, tout en gardant les paternités. Et tout en réduisant les risques de fraudes : toute tentative de copier/coller ou d’idées trop similaires serait détectée par le système et annoncée aux participants de chaque initiative similaire. Rien n’empêche également le système de fouiller d’autre bases de données comme arXiv à la recherche de similitudes.

Une possibilité également comme dans les « forges » logicielles de poster des annonces à la communauté, style « on cherche un spécialiste de XYZ », ou alors « on propose des données nouvelles sur XYZ, appel à participation pour le dépouillement ».

Quand un article/projet est suffisament abouti, les auteurs peuvent décider de le figer et le soumettre. Une fois accepté il entre dans les base de données bibliographique classiques (HAL, ArXiv, …), avec comme bonus dans la nouvelle infrastructure les traces et historiques des commentaires, fausses pistes tentées, etc, qui ont menées à sa construction. Plutôt que juste un PDF sur le site d’un éditeur qui ne garde rien de l’histoire de l’article. Problème de confidentialité ? de navigabilité dans l’historique ?

À terme un système de publication gérant le peer-reviewing au sein du système, et utilisant les dernières avancées en graphes de communautés pour s’assurer que le peer-reviewing ne devienne pas du copinage. Note: la notion même de peer-reviewing est à redéfinir si 5000 contributeurs soumettent un article. Il devient alors difficile de trouver 3 ou 4 reviewers dans le domaine, n’ayant à la fois pas contribué au projet et disposant des compétences pour juger le travail de 5000 autres personnes…

Les articles produits seraient en Creative Commons, soit aucun coût d’accès à la connaissance. Les coûts récurrents (travail d’édition, communication et animation, hébergement, équipe d’ingénieurs pour maintenir le système, etc.) seraient supportés en amont, chaque labo/organisation participant pour entrer dans le système, plutôt que pour accéder aux articles des éditeurs comme dans le système actuel. Les contributeurs à titre individuel ne paieraient rien pour obtenir un compte dans le système. Paierait seulement qui veut apparaître dans la liste des « affiliations » à un individu, ce qui résoud implicitement les cas des étudiants (affiliés) et des chômeurs/chercheurs précaires/isolés à l’étranger (pouvant soumettre à titre individuel), tout en jouant sur le fait que les labos/universités vont vouloir apparaître tôt ou tard (surtout si on publie un classement actualisé mensuellement des contributions par affiliation…).

C’est assez utopique, ça impliquerait un changement de pratiques conséquent, mais ça permettrait certainement des articles à 500 ou 5000. En fait, le souci n’est pas technique (c’est faisable avec les technologies actuelles, moyennant du temps et de l’argent pour mettre le système en place) mais surtout de convaincre/motiver une communauté suffisante pour l’utiliser et démarrer le processus : comme tout réseau de ce type, l’intérêt pour un nouvel entrant de participer au système dépend grandement du nombre d’utilisateurs existants. Le challenge serait ensuite de changer la façon de juger les gens par indice bibliométrique… ce qui est encore moins évident. Mais on peut rêver : qui ne tente rien n’a rien, et c’est souvent en lançant une dynamique qu’on fait évoluer les choses, même si on y arrive pas du premier coup 🙂

Références

Ne pas oublier le « Specific Program: Cooperation » du « FP7 »:

http://cordis.europa.eu/fp7/cooperation/home_en.html

Peut-être se rattacher aux initiatives existantes : What are e-Infrastructures?
Proposer un Flagship sur le sujet dans le cadre du programme Européen Future and Emergent Technologies – Proactive.

Plateforme – Reconstruction de dynamiques multi-échelles

2.1.3.1. Plateforme – cognition sociale – application à l’analyse de corpus électroniques

Coordinator:

David Chavalarias (CNRS)

Contributors:

David Chavalarias (CNRS), Jean-Philippe Cointet (INRA SenS), Camille Roth (CNRS), Carla Taramasco

Introduction

Du fait du déploiement d’une partie de l’activité sociale sur des médias numériques (publications scientifiques, archives de brevets, voire page web ou blogs, etc…) nous disposons aujourd’hui de très larges corpus électroniques qui constituent le support d’un savoir distribué. Ce savoir est élaboré localement par des individus et des communautés qui créent par leurs

contributions des liens entre des éléments de connaissance.

L’objectif de cette plateforme est de développer des méthodes de reconstruction et de visualisation de ce savoir distribué :
1) par l’identification de modules reflétant la structure des domaines d’activité des communautés, 2) par des visualisations de l’articulation de ces modules
3) par la reconstruction de leurs dynamiques.

L’ambition est de fournir pour les corpus numériques un outil équivalent à ce que ‘Google Earth’ est à la cartographie.

Ces différents axes de recherche seront développés au sein d’équipes interdisciplinaires comportant des spécialistes des domaines d’application. Ceux-ci pourront s’appuyer sur ces reconstructions multi-niveau de leurs projets de recherche pour développer de nouvelles approches tout en apportant des éléments de validation de la reconstruction en question. Outre l’aspect théorique du problème de la reconstruction des dynamiques multi-échelles, cette plateforme nécessitera un investissement important dans la constitution de large bases de données et dans le déploiement de moyens de calcul distribués.
En particulier, cette plateforme pourra comporter les axes suivants :

2.1.3.1. Cartographie de la science et reconstruction des dynamiques des paradigmes scientifiques.

La question de la visualisation de l’organisation de la science et de ses différents paradigmes n’est pas seulement épistémologique mais devient une nécessité pratique face à l’accroissement exponentiel de la production scientifique. Nous manquons aujourd’hui d’une vision claire de la manière dont s’articulent les différents champs de recherche scientifique, que ce soit au niveau du chercheur désireux d’identifier le contexte scientifique d’une question, d’une institution qui souhaite avoir une vision globale sur une question donnée (par exemple la thématique du réchauffement climatique) ou du décideur qui doit se faire une idée de la science en marche afin de mieux choisir les outils d’aide au développement de telle ou telle branche de la science. Cet axe de recherche développera des méthodes de cartographie de la science à grande échelle et de visualisation de ses dynamiques muti-niveaux afin par exemple de pouvoir détecter les champs scientifiques émergents.

Cette étude pourra être couplée à une analyse longitudinale des carrières individuelles, des réseaux sociaux de la recherche et des institutions ouvrant ainsi des opportunités d’analyse pour les sciences de gestion, la sociologie (science studies ou sociologie politique), mais également pour les décideurs de politiques scientifiques.

2.3.1.2. Nouveaux outils de navigation.

La reconstruction mutli-échelle de connaissances extraites d’un ensemble de documents issus d’un corpus vivant est également une opportunité pour développer des outils de navigation inédits. Les structures émergentes exhibées par de nouvelles méthodes d’analyse statistiques permettent de naviguer à travers ces gigantesques corpus d’une façon intuitive puisque les motifs de haut-niveau et leurs articulations apparaissent comme des propriétés naturelles du système tant au niveau des connaissances les plus fines qu’aux niveaux de généralité supérieurs. Ces outils pourront par exemple être implémentés sur des archives électroniques telles que HAL ou arxiv et accroître la vitesse et la pertinence de la recherche d’informations.

2.3.1.3. Innovation et veille scientifique.

Les méthodes de cartographie et de reconstruction de dynamiques peuvent être appliquées au corpus des brevets qui exhibe une structure similaire aux corpus des publications scientifiques : titres, mots-clés, résumé les textes complets. Il devient alors possible de tracer une carte multi-

niveaux des thématiques couvertes par les brevets, repérer les domaines porteurs et les niches éventuelles. Le fait que certains brevets s’appuient sur d’autres de manière explicite et que ceux-ci sont catégorisés de manière thématique permettra également de visualiser la diffusion de l’innovation dans les différentes sphères technologiques et d’en faire une analyse longitudinale. Enfin, ce type de méthodes appliquées aux corpus des brevets pourrait aboutir à de nouvelles manières d’évaluer la valeur d’un nouveau brevet.

2.1.3.4. Découverte scientifique et extraction de connaissances.

Les méthodes de détection de modules peuvent également être appliquées à des problématiques d’extraction de connaissance. Cette plateforme se propose développer par exemple l’extraction d’informations concernant les réseaux des gènes et de protéines à partir d’une analyse automatique des publications en biologie d’une part, et de l’analyse des données concernant les co- expressions des gênes (données issues de mesures par micro-array par exemple) d’autre part. Cela permettrait de produire des cartes à grande échelle de modules fonctionnels en biologie.

2.1.3.5. Détection de tendances à partir des bases de requête dans les navigateurs.

Les requêtes effectuées dans les navigateurs sont une source d’informations très importante sur ce que les gens recherchent. Les bases de données concernant les requêtes dans les navigateurs peuvent aussi donner lieu à une analyse utilisant les mêmes méthodes de cartographie dynamique que pour les corpus électroniques. Des outils bien plus performants de détection de tendances que ceux proposés par Google par exemple (google trends, qui est déjà utilisé à des fins de marketing) pourront être proposés. En couplant cela à des analyses géographiques cela ouvrira également des perspectives concernant la détection précoce de préoccupations sociales comme par exemple le déclenchement d’une épidémie.

Complexity of the immune system

Complexity of the immune system

Contributed by Véronique Thomas-Vaslin

As a complex biological system, the immune system is an adaptive, highly diversified, robust and resilient system with emergent properties, such as anamnestic responses and regulation. The immune system is characterized by complexity at different levels: network organization through fluid cell populations with inter- and intra-cell signaling, lymphocyte receptor diversity, cell clonotype selection and competition at cell level, migration and interaction inside the immunological tissues and fluid dissemination through the organism, homeostatic regulation while rapid adaptation to a changing environment.

The immune system develops during the fetal life and organizes in relation with the mother immunity and microbiote that thus transmits its historicity. The genetic diversity of the antigenic receptors and the correct differentiation and renewal of lymphocytes insures during all the life a potential to react to any antigens that is kept through quiescent lymphocytes that remain in “standby”. Then, quiescent lymphocytes that perceive antigens are activated and involved collectively during immune responses, through various functions and communications.   This allows the cognition of the worldwide molecular diversity, including the eukaryote and prokaryote cells that compose our human “holobionte” organism. Innovative primary and memory adaptive immune responses arise in responses to the constant fluxes of molecular perturbations and alterations occurring throughout all our life. This immune protection insures that at the macroscopic level, organisms remain in healthy state, with resilience to immune perturbations and infections, efficiency for reproduction of species, including the protection of the fetus from immune system mother. Delicate networks and oscillations through regulations occur daily in the immune system and lymphoid organs. They continuously reproduce new diversified lymphocytes, provide a selection that kill more than 90% of the cells produced, to distribute and control functions of selected lymphocytes through the body and establish collaborative cell functions of immuno-surveillance.
Understanding the organization and regulation of this complex immune system  (but also disorganization, instability and aging) refers to transversal questions already mentioned for other complex systems such as other biological, social or ecological macro systems, with some peculiarities specific to the immune system as summarized below.

Transversal questions commons to other complex systems (specific to immune system):

-Study and modelling of adaptive multiscale system (the adaptive immune system)
-Integration of high-throughput multiscale and multiparametric data and metadata and sharing (data from transcriptome, proteome, but also cytome, repertome…)
-Computer or mathematical tools for exploration and formalisation (supervised and non supervised statistical modeling, mechanistic reconstruction of immune system behaviour)
-Theoretical reconstruction (data mining, multiscale analysis, representation of heterogeneous data, organisation of knowledge’s database describing the immune system around the lymphocyte level, from molecule to organism, data-driven and hypothesis-driven reconstruction
-Metamodels, multiformalism for reconstruction and visualization of dynamics, differentiation, and behaviour (mathematical & computer modelling for lymphocyte cell population dynamics, activation, regulation and selection processes; use of oriented object, graphical language based on state and transition diagrams, SMA, ontologies, for modelling the immune system…)
-Fluctuations, stability, variability, regulations at multiscale levels (Multilevel/Multiscale: organism, lymphoid tissues, lymphocyte populations, cellular and molecular lymphoid repertoires)
-Robustness/resilience (describe, predict and control immune system development & aging; resilience to perturbations, transition to immunopathologies (infection, autoimmunity, cancer…); immunotherapy/vaccination.
-Model the relationships between biodiversity, functioning and dynamics of the (eco)systems (diversity, stability / perturbation of immune repertoires and lymphocyte populations)
-Self organization, simulation of virtual landscapes (auto-organisation of cells in lymphoid organs and development, cell network and immune repertoire)
-Data mining: extraction, visualization of data and semantic and syntactic analysis of scientific literature requires artificial intelligence and automatic learning approaches (information extraction and visualization of immune literature with concepts specific to immune system according to  a given context)

Transversal questions commons to other complex systems Questions specific to the immune system
Study and modeling of adaptive multi-scale system The adaptive immune system
Integration of high-throughput multi-scale and multi-parametric data and metadata and sharing Biological generic data from transcriptome, proteome, but also cytome, repertome…
Computer or mathematical tools for exploration and formalization Supervised and non supervised statistical modeling, mechanistic reconstruction of immune system and lymphocyte behaviour
Theoretical reconstruction Multi-scale analysis, representation of heterogeneous data, organisation of knowledge’s database describing the immune system around the lymphocyte level, from molecule to organism, for data-driven and hypothesis-driven reconstruction
Metamodels, multi-formalism for reconstruction and visualization of dynamics, differentiation, and behaviour Mathematical & computer modelling for lymphocyte cell population dynamics, activation, regulation and selection processes; use of oriented object, graphical languages, SMA, ontologies, for modeling the multi-scale entities of the immune system…
Fluctuations, stability, variability, regulations at multi-scale levels Multi-level/Multi-scale: organism, lymphoid tissues, lymphocyte populations, cellular and molecular lymphoid repertoires
Robustness/resilience and relation to organization Behavior of immune system from development to aging; resilience to perturbations, transition to immunopathologies (infection, autoimmunity, cancer…); immunotherapy/vaccination
Model the relationships between biodiversity, functioning and dynamics of the (eco)systems Diversity, stability/perturbation of immune repertoires and lymphocyte populations
Self organization, simulation of virtual landscapes Auto-organization of cells in lymphoid organs and development, cell network and immune repertoire
Data mining, extraction, visualization of data and semantic and syntactic analysis of scientific literature requires artificial intelligence and automatic learning approaches Information extraction and visualization of immune literature with concepts specific to immune system,  according to  a given biological context

Table 1: Crossing transversal questions identified for the investigation of the complex systems with the questions specific to the immune system.

Challenges related to the complexity of the immune system

More than transversal question common to other complex systems, the immune system present some peculiarities that require particular investigations and modeling and represent new challenges to overcome.
1. Objective identification of immune system cell populations

2. Lymphocyte population dynamics & repertoire selection: Integration of multilevel/ multiscale data and dynamic modeling

3. Understanding resilience or instabilities to perturbations, immune dysfunction in order to improve immuno-intervention strategies

4. Extract, visualize and organise immunological knowledge from scientific immune literature

5. Contribute to global evaluation of complex systems and risk issue

6. Revisite the “immune system”: limits, definition, characteristics, functions and stability

7. Bio-inspired and artificial immune systems

8. Immune system and communication

9. From micro-ecosystems to social ecological developments, clinical and research impacts

1. Objective identification of immune system cell populations

Innate and adaptive immune system subpopulations are currently defined based on the revelation of a combination of cell surface or intracellular/nuclear molecules that the researcher has to define. Thus, the cell populations revealed by cell staining are largely dependent on the mixture and the number of chosen parameters (n) that will drive the number of subpopulations (2n). Techniques like Flow cytometry analysis allow quantification of several parameters from individual cells allowing characterizing cell size, structure, specific phenotype and function of millions of cells in a multi-dimensional way. However, analyses performed by manual gating inspect parameters 2 by 2 and do not reveal the complexity of the lymphocyte subpopulations that co-express several parameters.
The challenge is developing methods and software tools for current immunological analysis and automatic identification of cell subsets and their trajectory during their differentiation and their cell cyle. This allows objective investigation and identification of cell subpopulations that have certainly been ignored by immunologists, to identify variability/stability, resilience or perturbations among development/aging, through genetic backgrounds, and during the course of perturbations as immunopathologies or immunotherapies.

2. Lymphocyte population dynamics & repertoire selection: Integration of multilevel/ multiscale data and reconstruction of dynamic interactions

The most important feature of the immune system is the availability of a diverse cell repertoire and its selection constraints. Lymphocytes are produced from precursors in primary lymphoid organs that differentiate and somatically rearrange DNA variable genes composing a particular repertoire. T or B cell repertoires are thus collections of lymphocytes, each characterized by its antigen-specific receptor produced by random somatic rearrangements of V(D)J gene segments during lymphocyte differentiation, producing a potential repertoire of a quadrillion of TCR/Ig receptors about one thousand beyond the lymphocyte count in a single individual. Then, process of lymphocyte selection with high cell death or amplification of particular antigen specific clones represent a network of dynamical interactions conferring tolerance to avoid autoimmunity though retaining the potential to respond to a very large collection of antigens. Thus the dynamics of cell fluxes and turnover, cell selection process through division and cell death constraint the immune system to adapt a dynamic equilibrium according to programmed genetic variability’s and permanent antigen challenge. The rules governing the clonal selection processes and cell population dynamics stability or disturbance in immune pathologies and aging are far to be fully understood. Integration of high-throughput data describing qualitatively and quantitatively cell populations, repertoire diversity and gene expression should allow data mining, signature discovery and reconstruction of dynamics behaviours.

The challenge is the integration of multiscale data and metadata describing cell populations, cellular and molecular repertoires and gene expression across time, lymphoid organs and genetic background or various conditions describing physiological or pathological states or treatments. Organisation of knowledge’s using standardised database with ontologies and state transition diagram and influences should improve the organisation of data for data mining and dynamic computational modelling. Object-oriented computer modelling taking into account the levels of the “organism”, the “organs”, the “cell” and the “molecule” through various time scales, should improve the interoperability of mathematical and computer models already developed in the field, allowing also the direct intervention of the biologist to implement the models and suggest new experiments or treatments.

3. Understanding resilience or instabilities to perturbations, immune dysfunction in order to improve immuno-intervention strategies

Aging, immunopathologies as infectious, autoimmune or inflammatory diseases, cancer as well as immunotherapies, vaccination represent either internal instability or external aggressions that impact the stability and reactivity of the immune system at various biological levels (from molecules to organism). Genetic or environmental component alterations (antigens, infections, chemicals, nutriments…) or other biological instabilities (as in nervous, hormonal, metabolic systems…) and  disorganisation related to  aging can affect the organisation of immune system its dynamics and repertoires and turn the physiologic equilibrium to immuno-pathologies. The identification and quantification of variability and perturbations at these different levels and through time should allow understanding the resilience or instability of the system. Conversely, improving knowledge on the physiological or pathological dynamic behaviour of the immune system should also reveal keys for immuno-interventions.
The challenge is to connect and better integrate knowledge’s as a result of data mining and dynamic computer modelling and simulations of such perturbations. The resilience and homeostatic regulation of the system (steady state dynamic equilibrium) but also variability/fluctuation (according to genetic background, physiological development and aging) to pathological perturbations of the immune system should thus be investigated by multidisciplinary approaches. This requires the development of original biological, mathematical and computer modelling tools. This might allow to assess the quantity /quality of small perturbations at various scale levels that can impact /dys-balance the whole immune system equilibrium or on the contrary to estimate the maximal variability the system can endure without global perturbations at the organism level.

4. Extract, visualize and organise immunological knowledge from scientific immune literature__

The complexity of the immune system, related to biological multi-scale levels, but also of the data generated by multiple technologies, published in the form of unstructured text requires the development of innovative techniques of data and literature mining to enhance information retrieval, visualization of enormous quantities of data and organisation of knowledge.

The challenge is to develop data mining, text mining and machine learning methods to have a better understanding of the complexity of the immuno-physiome. Innovative data mining, semantic and syntactic analytical approaches should help define the concepts that have to be extracted and algorithms to automatically extracts the data with a maximum of accuracy.

5. Contribute to global evaluation of complex systems and risk issue

A global evaluation of the behaviour of complex systems should be undertaken under philosophical and scientific aspects. The behaviour of complex systems is related to their multi-scale organisation. While the immune system is related to micro-levels from molecule to organism, the biosphere is related to macro-levels from organisms to global environment, though social interactions, migration, ecosystems, climate and biosphere. The immune system represents a model of choice to evaluate the common properties of organisation and behaviour of such other complex systems at higher scale levels. Indeed data, simulations and predictions are difficult to establish for some systems. Organisation of systems results from the selection among diversities of only a small fraction of all potential possibilities, with an infinite combination of parameters. This contributes to selected dynamic equilibrium allowing the systems to resist perturbations trough time unless the resilience is disrupted.
The challenge is to provide a global analysis of common properties of complex multi-scale systems to understand the robustness and degree of resilience of systems selected on the basis of their organisation and risk of changes in the dynamic equilibrium. The notion of emergence and immergence have to be analysed to understand whether aging and evolution of a system and threshold effects are involved in the resilience of systems or could induce their disorganisation.

6. Revisiting the “immune system”: limits, definition, characteristics, functions and stability

Complex systems are often viewed as multi-scale, self-assembly, adaptive dynamic and cognitive networks of diverse interacting agents capable of sensing patterns with degenerative properties. In biology, links between entities and processes are insured at various scales. At the macroscopic level, the nervous system insures the cognition, perception and memory of “self”, through mental links and relations to macroscopic external environment, allowing to define ego as well as physical/somatic identity based on consciousness, memory and social interactions. Similarly, at the microscopic level, the immune system as a cognitive, diverse, dynamic, fluid and anamnestic system, sense the quality and quantity of microscopic patterns, either from body or environment. The immune system is thus at the interface of the dynamic symbiotic organisation of the individual (composed in adults as many prokaryotic than eukaryotic cells) and constantly senses its molecular and celllular environment, and its own components (idiotopes). This leads to individual cell signalling up to collective decision-making allowing for discrimination and memory of microscopic entities in a systemic way.

Biological and philosophical conceptual questions remain about the notion of organisation, organism, immune system, the perception of self, identity, memory, tolerance and resilience.

• Are there limits between the immune system, the organism and the environment?
• Has the immune system a role to define the identity of an organism?
• What are the major characteristics of an organisation and an organism?
• How do cognition, diversity, selection, memory and dominant tolerance contribute to the dynamic stability of the system and the resilience of the organism?
• How can we define the immune system? Is the term “immune”, with its etymologic origin meaning “exempt”, adequate according to current knowledge?

Responding to these challenges will improve global data exploration and understanding of the complexity of the immune system (Immuno-physiome) linked to other biological systems or to macro ecological/biosphere systems.

7. Bio-inspired and artificial immune systems

Knowledge’s assembled to understand, reconstruct, simulate and predict the complex multi-scale behaviour and resilience of the immune system dynamics in health, aging, diseases or treatments could be useful for the design of innovative artificial immune systems reproducing or inspired from the behaviour of the natural immune system. Thus, understanding this natural organisation, selected during the evolution of species and cells in organism, can help to design innovative evolutive artificial immune systems, and referring to the “war” metaphor to design the best “immuno-logistic” optimization. This could help understanding the characteristics of an organisation as a process and as a result, from organisms to societies and for the design of regulatory processes and security purposes.

The challenge is to overcome the conceptual and technical limitations to design self-organized artificial immune systems resilient to perturbations and able to preserve the identity and integrity of the organism or societies.

8. Immune system and communication

The immune system is inside the holobionte and poly-genomic organism, at the interface between eukaryote and prokaryote cells. This cognitive system makes the interface between the molecular world and cells, on the basis of dynamic communication. Deciphering the concept of cellular and molecular communication and signal transmission could be done at various levels: at horizontal level inside innate and adaptive, between cells, between organisms, and at vertical level from molecule to organism and up to social system.

The challenge is to model the rules that govern communication, the interactions, transmission and percolation up to emergence of patterns. Modeling the physiological communication and transmission of information could help understanding alterations resulting in pathologies and aging and to design therapeutic interventions to improve defective communication.

9. From micro-ecosystems to social ecological developments, clinical and research impacts

Cognitive systems like the immune system and the nervous system are involved in the perception, adaptation and memory of our microscopic to macroscopic social ecological environments that are constantly perturbed, and in the orientation of our individual and collective behavior. Indeed defective immune responses or altered regulations of the immune system have great impact on our health, and consequently on our decisions and social behavior.

Immuno-pathologies can potentially affect each individual, but also increase their frequency in the society as epidemic spreading and alter the health, the reproduction, activity and the longevity of individuals, with societal impact. On one side, in case of immuno-deficiencies, or inefficient responses of the immune system to rapidly control replicative microbes or tumors cells infections and tumors can progress. The role of vaccination is thus primordial to accelerate and amplify the immune response to control the infection and prevent transmission to other individuals. On the other side, in case of defective control and feedback regulations of the immune system, the uncontrolled reactivity against body components, like in autoimmune and inflammatory diseases, or the defective orientation of immune responses or cell population dynamics could also occur and lead to allergies, metabolic diseases, fetal abortions, tumor growth.

Aging of the immune system and of the human population can moreover alter both sides with delayed or defectives process: the internal cell metabolism, reproduction and repair inside adaptive lymphocytes and innate cells; the inter-cell communication/activation/functions/distribution and altered feedback loops through various biological levels.

Perturbations in our environment, lifestyle and human industrialization since the last century, has allowed for the rapid change of the immune context, as detected by lymphocytes. The occurrence of some 133 millions new chemicals with more than 10, 000 new substances created each day should be considered. The deviation of immune regulations and functions related to excessive hygiene and deprivation of the co-evolutive microbiote (like in caesarean) or wide usage of antibiotics could alter the cross-talk between the immune system, the microbiote and the antigenic world and lead to emergence of new pathologies like allergies and metabolic disorders.

Human interventions by prevention, biotherapies, chemotherapies, chronobiology can try to manipulate and control immune responses. One way is to improve and accelerate a specific immune response by vaccination, in order to gain the race against selected replicative pathogenic microbes or tumors. Another way is to induce specific tolerance against some body components, while preserving other potential beneficial responses with specific immuno-regulation. This is indeed an alternative to global immunosuppression that non-specifically decreases the immuno-competence and increases the risk of occurrence of infections or tumors.

The challenge is to integrate interactions from the micro-ecosystem that includes the immune system and the microbiote of each individual, up to the social-ecological development of humans that include personal and societal health, nutrition, chronobiology, stress, industrial and technological developments that impact back on immune system by immergence. Information should be given to the society at any level, from child to elderly and also researchers in multi-disciplinary domains, like mathematicians and computer scientists involved in modeling of immune system and ecosystems. Indeed people should have information’s about the complex cognitive immune system behavior that keep the trace of the molecular and cell history of our body, those cells react at any instant to molecular perturbations in its environment to preserve by emergence the individual but also eco-socio system viability. The consciousness that in each individual our immune system is facing our world according to its context that depends on hygiene, food, micro-flora, chemicals, antibiotics, therapies, aging and stress could change the way understanding the traces that the immune system lives in the body up to social systems. Moreover, immuno-clinical investigations and immunotherapies are developing and open new avenues for prevention. Risk perception and its evaluation at global levels of organization, for the resilience of our living systems is also of importance.

Conclusions

Identifying theoretical and methodological questions related to the complexity of the natural and artificial immune systems will help to structure new ideas and collaborative work across complex systems. Responding to these challenges will improve the global data exploration, the emergence of new concepts and understanding of the immune system linked to other biological systems or to macro ecological/biosphere systems. The ImmunoComplexiT network  from the RNSC  http://immunocomplexit.net/is currently  questionning and modeling the complexity  of the immune system.

Some references

Abi Haidar, A., Six, A., Ganascia, J.-G., & Thomas-Vaslin, V. (2013). The Artificial Immune Systems Domain: Identifying Progress and Main Contributors Using Publication and Co-Authorship Analyses (Vol. 12).

Bellier, B., Six, A., Thomas-Vaslin, V., & Klatzmann, D. (2011). Predicting immune responses to viral vectors and transgenes in gene therapy and vaccination : the coming of systems biology. Clinibook.

Bellier, B., Six, A., Thomas-Vaslin, V., & Klatzmann, D. (2013). Systems Immunology, Novel Evaluation of Vaccine. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 2089-2092 ): Springer New York.

Bersini, H., Klatzmann, D., Six, A., & Thomas-Vaslin, V. (2012). State-transition diagrams for biologists. PLoS ONE, 7(7), e41165. doi:10.1371/journal.pone.0041165

Jacquemart, F., & Thomas-Vaslin, V. (2016). L’évaluation globale des technologies. In B. Bocquet (Ed.), La Fièvre de l’évaluation (pp. 196): Presses Universitaires du Septentrion.

Jacquemart, F., Thomas-Vaslin, V., & Coutellec, L. (2016). Pour une évaluation globale des OGM : Des perspectives épistémologiques renouvelées pour l’analyse des risques.Retrieved from https://hal.archives-ouvertes.fr/hal-01298382

Lavelle, C., Berry, H., Beslon, G., Ginelli, F., Giavitto, J., Kapoula, Z., . . . Bourgine, P. (2008). From molecules to organisms: towards multiscale integrated models of biological systems. Theoretical Biology Insights, 1, 13-22.

McEwan, C., Bersini, H., Klatzmann, D., Thomas-Vaslin, V., & Six, A. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems: Luniver press. ISBN.

Six, A., Bellier, B., Thomas-Vaslin, V., & Klatzmann, D. (2012). Systems biology in vaccine design. Microb Biotechnol, 5(2), 295-304. doi:10.1111/j.1751-7915.2011.00321.x

Six, A., Mariotti-Ferrandiz, M. E., Chaara, W., Magadan, S., Pham, H. P., Lefranc, M. P., . . . Boudinot, P. (2013). The Past, Present, and Future of Immune Repertoire Biology – The Rise of Next-Generation Repertoire Analysis. Front Immunol, 4, 413. doi:10.3389/fimmu.2013.00413

Thomas-Vaslin, V. (2014a). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

Thomas-Vaslin, V. (2014b). Evaluation de la résilience et des perturbations des systèmes complexes. La lettre de l’inSHS du CNRS. Retrieved from http://www.cnrs.fr/inshs/Lettres-information-INSHS/lettre_infoinshs_32.pdf

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Thomas-Vaslin, V. (2016, sep 2015). Understanding and modelling the complexity of the immune system. Paper presented at the First Complex Systems Digital Campus World E-Conference 2015, Tempe, United States.

Thomas-Vaslin, V. (2017a). Le rôle des traces dans le système immunitaire : des anticorps au corps (B. Galinon-Mélénec Ed. Paris CNRS éditions ed. Vol. 4).

Thomas-Vaslin, V. (2017b). Questionnements et connaissance de la complexité. In E. Matériologiques (Ed.), Qu’est ce que la science… pour vous? Textes rassemblés par Marc Silberstein (pp. 251-256). Paris.

Thomas-Vaslin, V. (2017). Understanding and Modeling the Complexity of the Immune System. In P. Bourgine, P. Collet, & P. Parrend (Eds.), First Complex Systems Digital Campus World E-Conference 2015 (pp. 261-270). Cham: Springer International Publishing.

Thomas-Vaslin, V., Altes, H. K., de Boer, R. J., & Klatzmann, D. (2008). Comprehensive assessment and mathematical modeling of T cell population dynamics and homeostasis. J Immunol, 180(4), 2240-2250.

Thomas-Vaslin, V., & Jacquemart, F. (Producer). (2016). Approche de la résilience et perturbations des systèmes complexes par une évaluation globale. Congrès mondial pour la pensée complexe: Les défis d’un monde globalisé; reseau-canope.fr/congres-mondial-pour-la-pensee-complexe/pensee-complexe.html#bandeauPtf. [article] Retrieved from https://www.reseau-canope.fr/fileadmin/user_upload/Projets/pensee_complexe/thomas_vaslin_jacquemart_approche_resilience_perturbations_systemes_complexes.pdf

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013). Lymphocyte Dynamics and Repertoires, Biological Methods. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 1145-1149): Springer New York.

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013). Lymphocytes dynamics and repertoires, modeling. In W. O. Dubitzky W (Ed.), Encyclopedia of Systems Biology (pp. 1149-1152): Springer, Heidelberg New York.

Thomas-Vaslin, V., Six, A., Pham, H. P., Dansokho, C., Chaara, W., Gouritin, B., . . . Klatzmann, D. (2012). Immunodepression & Immunosuppression during aging. In M. B. Portela (Ed.), Immunosuppression (pp. 125-146). Brazil: InTech open acces publisher.

Vibert, J., & Thomas-Vaslin, V. (2017). Modelling T Cell Proliferation: Dynamics Heterogeneity, Depending on Cell Differentiation, Age, and Genetic Background. PLoS Comput Biol, 13 (3), e1005417. doi:10.1371

Read more

Plateforme – De la Molécule à l’organisme, de la biologie à la santé

Rapporteur : Nicolas Brodu
Contributeurs :

Habib Benali – IMED, Jussieu

Yves Burnod –

Katia Dauchot – CREA ISC-PIF

Jacques Demongeot – TIMC-IMAG

René Doursat – ISCPIF, CREA

Emmanuel Faure – ISC-PIF

Zoi Kapoula – CNRS

Salma Mesmoudi – LIP6, INRA

Nathalie Perrot – INRA

Nadine Peyrieras – CNRS

Marie-Catherine Postel-Vinay –

François Rodolphe – INRA

Alessandro Sarti – CREA

Thierry Savy – ISC-PIF

Randy Thomas – CNRS

Roberto Toro – Pasteur

Introduction

Le Campus Numérique des Systèmes Complexes est animé par des Netlabs organisés en départements (Ex de département: De la molécule à l’organisme et de la biologie à la santé).
Les Netlabs sont des ensembles d’acteurs (chercheurs, ingénieurs, étudiants, médecins, industriels, etc) qui partagent les mêmes questions (ou des questions proches), exprimées de façon commune sous forme de Systèmes complexes basés sur l’étude des dynamiques spatio-temporelles multi- échelles.

Par exemple, pour le Département “De la Molécule à l’organisme et de la Biologie à la Santé, ces dynamiques sont :

– les dynamiques des êtres vivants (Evo , Devo et viellissement, adaptation et apprentissage, pathologies et thérapeutiques…) ; Les dynamiques de la Biologie génèrent et suivent l’organisation du vivant avec ses axes propres : réseaux moléculaires, cellulaires, organiques (ex. cérébraux), sociaux
– les dynamiques de l’organisation socio-économique de la Santé (hôpital, recherche, industrie, politique, budget et règlement, organisation territoriale….) . Les dynamiques de la Santé rejoignent les dynamiques culturelles , économiques, territoriales etc.

Pour résoudre ces questions, les acteurs des NetLabs développent et partagent: – des outils mathématiques et moyens informatiques
– des expertises des différents domaines applicatifs
– des plate-formes expérimentales ,
– des bases de données regroupant des grands ensembles de résultats et/ou de données expérimentales
– des méthodes de Web-mining et représentations communes des résultats
– des moyens d’intelligence sociale pour les projets collectifs

Les NetLabs jouent à la fois :
– sur des lieux partagés qui facilitent les échanges directs et permanents entre acteurs et qui sont les cœurs du Campus,
– et sur des réseaux autour des cœurs, à géométrie variable, en fonction des communautés d’intérêts. Chaque cœur est animé par une équipe où les responsabilités sont organisées par deux priorités:
– faire avancer la recherche sur la compréhension et la modélisation des dynamiques multi-échelle des grands systèmes,
– créer des interfaces entre compétences multiples pour faciliter la vie de tous celles et ceux qui y travaillent à prendre en charges des problèmes de grande envergures.

L’Université Numérique fournit à chacun une représentation à la fois intégrée et dynamique des connaissances et recherches. Cette offre intégratrice vise à réponde à un besoin très fort des étudiants, chercheurs, médecins, acteurs de la R&D industrielle, qui sont souvent perdus par l’offre explosive du Web.

Cette représentation intégrée des connaissances et recherches peut se baser : – sur la grille commune des grands objets et des grandes questions,
– sur les échelles des grands objets et sur leurs dynamiques multi-échelle,
– sur les modèles et les bases mathématiques utilisées
– sur les cartographies des connaissances et acteurs (outils de web-mining).

Ce qui fait la force et l’originalité du Campus, c’est de jouer à la fois :
– sur un apport parallèle et permanent de contenu par tous les acteurs (le réacteur d’enrichissement) – sur le fait de placer chaque apport de contenu nouveau dans une organisation d’ensemble qui est structurés par les axes propres des grands objets et des grandes questions (la grille unificatrice)

De même, le Campus explicitera le maillage entre les NetLabs et les départements autour de la connaissance des grands systèmes. La marque de fabrique de l’Université numérique, celle qui fera d’elle une université demandée sur le plan international, c’est cette offre à la fois très unifiée et très riche, expérimentale et théorique, ouverte à tous les acteurs autour des cœurs dynamiques ds Netlabs.

2.1.2.1. Les objets qui s’incarnent dans les sections

Section “L’homme physiologique virtuel, Physiome”

Le Physiome International (IUPS, http://www.physiome.org.nz), connu sous le nom Virtual

Physiological Human (VPH, http://www.vph-noe.eu) en Europe, est un grand défi de collaboration

internationale dont le but générale est d’établir un context collaboratif internationale qui permettra

de décloisonner les disciplines des sciences de la santé. Puisque l’organisme, en tant que “système

complexe” par excellence, est un tout, il faut établir et renforcer l’intégration inter-disciplinaire.

Pour citer un document phare (Fenner et al. 2008) qui a servi à la Commission Européen

d’inspiration pour les financements important autour du VPH :

“The physiome concept … has been fervently embraced by the European scientific community,

which recognizes that the current partitioning of health science endeavour along traditional lines

(i.e. scientific discipline, anatomy, physiology, etc.) is artificial and inefficient with respect to such

an all-embracing description of human biology. It is argued that a more effective approach must be

sought, encompassing cross-boundary disciplines and integrating them according to the focus of the

problem in hand, unconstrained by scientific discipline, anatomical subsystem and temporal or

dimensional scale…

This is a radical approach that deserves to be complemented by a radical framework in which

observations in laboratories and hospitals across nations can be collected, catalogued, organized and

shared in an accessible way so that clinical and non-clinical experts can collaboratively interpret,

model, validate and understand the data. It is a framework of technology and methods, and together

they form the virtual physiological human (VPH). This vision is complemented by a community of

active protagonists, collectively pursuing physiome projects across the world (Plasier et al. 1998;

Bassingthwaighte et al. 1999

;

Kohl et al. 2000

;

Schafer 2000; Hunter et al

.

2002

,

2005

;

Bro &

Nielsen 2004

;

Crampin et al. 2004), and through harmonized action, it may be possible to create a

coherent and credible VPH infrastructure in Europe within a decade.”

La vision globale est bien décrite dans une publication (Hunter et al. 2009) basée sur la

feuille de route du Réseaux d’Excellence VPH NoE, document qui est utilisé par la Commission

Européenne pour la rédaction des prochains appels à projets dans ce domaine.

Au delà de ces intiatives européennes, et en complément, le RNSC peut jouer un rôle de

renforcement, au niveau français, mais aussi d’innovation. Au sein du RNSC/CNSC, on peut

combler une lacune, à savoir, on peut tisser des liens entre les mondes, encore trop séparés, du

physiome (la physiologie, biomécanique, génie biomédicale, etc.), des neurosciences, et la biologie

systémique (le métabolisme, génome, protéome…). Le terme de “Connectome” a été suggéré pour

ce contexte, qui affirme de la façon la plus claire possible la nature intégrée du système complexe

qu’est l’organisme vivant.

Plusieurs laboratoires en France participent activement déjà à différents aspects de cette

initiative (voir liste non-exhaustive ci-dessous), mais il faut souligner que le principe même est de

miser sur une participation la plus large et la plus ouverte possible à la fois de laboratoires de

recherches mais aussi d’éducateurs et de cliniciens engagés en e-Santé et plus largement dans des

projets de Technologies pour la Santé.

Ces recherches ont le noble objectif de concourir à la fois à chercher à améliorer nos

connaissances fondamentales, à créer de nouveaux concepts et de nouvelles théories, à créer des

méthodologies, des technologies et de l’instrumentation innovantes, et d’une façon générale à

améliorer l’autonomie et la santé, au niveau individuel et à l’échelle de la population, dans les

domaines de la prévention, du diagnostic, de l’intervention, de la thérapie, de la surveillance et de

l’accompagnement.

Pour accomplir ces objectifs, il sera crucial de s’appuyer sur (et d’étendre) des technologies

d’intéropérabilité telles que :

des standards permettant l’échange et le stockage de données biomédicales (images, signaux

biomédicales, données de biologie moléculaire…) ;

des ontologies de références qui permettront l’étiquettage des données mais aussi de modèles

mathématiques qui décrivent le corp humain, sa biomécanique, son métabolisme, sa physiologie, sa

physiopathologie à toutes les échelles depuis le moléculaire jusqu’au corp entier, et ceci de façon

individualisée dans un avenir proche ;

des langages de markup XML (e.g., SBML, CellML, et autres) qui favorisent l’échange, et même la

réutilisation, de modèles mathématiques existants et futurs et l’incorporation de données

expérimentales et cliniques stockées dans des “repositories” compatibles.

des réseaux de calculs hautes performances, tels que DEISA, déjà engagé à fournir des ressources

aux laboratoires participants aux projets VPH (FP7) ;

des “workflows” permettant de relier toute une chaine de données et technologies depuis les images

et données cliniques d’un patient, en passant par des modèles patient-spécifiques, pour servir au

médecin d’aide au diagnostic et au traitement.

Laboratoires déjà impliqués dans des projets VPH (liste non-exhaustive) :

S.R. Thomas (CNRS, UMR8081, Orsay et Villejuif)

I. Magnin et D. Friboulet (Créatis, INSERM et CNRS, Lyon)

P. Baconnier et J. Demongeot (CNRS, TIMC, Grenoble)

N. Ayache et M. Sermesant (INRIA)

A. Hernandez, G. Carrault, JL Coatrieux (INSERM U-642. Université de Rennes 1, Rennes)

P. Hannaert (INSERM U927, Poitiers)

F. Gueyffier (CIC201 UMR 5558, Lyon)

E. Grenier et B. Ribba (INRIA, Lyon)

References (Section Physiome) :

Bassingthwaighte, J. B. 2000 Strategies for the Physiome project. Ann. Biomed. Eng. 28, 1043–

1058. (doi:10.1114/1.1313771)

Bro, C. & Nielsen, J. 2004 Impact of ‘ome’ analyses on inverse metabolic engineering. Metab. Eng.

6, 204–211. (doi:10.1016/j.ymben.2003.11.005)

Crampin, E., Halstead, M., Hunter, P., Nielsen, P., Noble, D., Smith, N. & Tawhai, M. 2004

Computational physiology and the Physiome project. Exp. Physiol. 89, 1–26. (doi:10.1113/

expphysiol.2003.026740)

Fenner, J. W. et al. 2008 “The EuroPhysiome, STEP and a roadmap for the virtual physiological

human.” Phil. Trans. R. Soc. A 366, 2979–2999. (doi:10.1098/rsta.2008.0089)

Hunter, P., P. V. Coveney, et al. (2010). “A vision and strategy for the virtual physiological human

in 2010 and beyond.” Philos Transact A Math Phys Eng Sci 368(1920): 2595-2614.

Hunter, P., Robbins, P. & Noble, D. 2002 The IUPS human Physiome project. Eur. J. Physiol. 445,

1–9. (doi:10.1007/s00424-002-0890-1)

Hunter, P., Smith, N., Fernandez, J. & Tawhai, M. 2005 Integration from proteins to organs: the

IUPS Physiome project. Mech. Ageing Dev. 126, 187–192. (doi:10.1016/j.mad.2004.09.025)

Kohl, P., Noble, D., Winslow, R. L. & Hunter, P. J. 2000 Computational modelling of biological

system: tools and visions. Phil. Trans. R. Soc. A 358, 579–610. (doi:10.1098/rsta.2000.0547)

Plaisier, A. P., Subramanian, S., Das, P. K., Souza, W., Lapa, T., Furtado, A. F., Van der Ploeg, C.

P., Habbema, J. D. & van Oortmarssen, G. J. 1998 The LYMFASIM simulation program for

modeling lymphatic filariasis and its control. Methods Inf. Med. 37, 97–108.

Schafer, J. A. 2000 Interaction of modeling and experimental approaches to understanding renal salt

and water balance. Ann. Biomed. Eng. 28, 1002–1009. (doi:10.1114/1.1308497)

Section Neurophysiopathologie chez l’homme

a) Characterizing pathology

Human physiopathology creates uncertainties with constantly

moving frontiers between discipline fields, for example, neurology, neurosciences, psychiatry,

immunology, cancer,

immunodeficiency, infections, autoimmunity, and metabolism. Human

physiopathology is characterized by progressive dysfunction and deterioration at multiple space and

time scales with non-linear interactions between physiologic/biologic functions, cognitions,

emotions, and social consequences. Problems can result initially from local conflict between

internal and external signals (e.g. dizziness) but this conflict can expand diffuse and create

additional loops with multiple pathogenic reciprocal interactions. Functional problems could be

primary or secondary effects of spontaneous adaptive mechanisms aiming to counter primary insult

and dysfunction, and is important to dissociate.

:

Two main challenges :

1.

To apply complex system principles and theoretical frameworks on designing experimental

studies, and analysis of data at different scales (neurological, physiological, behavioral, neuro-

psychological) from individual or large patient populations.

2.

To search for cross-correlations and interactions in order to get new insight about pathogenic

primary or secondary mechanisms. This could lead to novel more sensitive differential diagnostic

tools, but also for better medical care or functional re-adaptation. There is a need to go beyond a

limited multi-disciplinarity of parallel different approaches and use complex systems tools to cross

data fr om different fields and gain further insight.

b) A vast issue

The issue concerns the whole internal and general medicine, immunology,

neuroscience, psychiatry, geriatrics, paediatrics, functional re-education and public health.

Examples of

functional problems, some of them with no measurable organic basis: vertigo

(dizziness and equilibrium problems, fear to fall in elderly, isolated hearing loss, tinnitus), learning

problems (dyslexia), but also neuro-degenerative diseases (types of dementia, Lewy-Body,

Alzheimer). Major questions are the significance of instantaneous fluctuations of measures

(physiologic, behavioral, e.g. in the case of dementia) in relation to physiopathology and

progressive degeneration of cortical-subcortical circuits. Other examples could be given in

immunology: time and space (lymphoid tissues), dynamics and selection of lymphocytes insuring a

diversified somatic repertoire and high turnover, analysis of the functionalities of the immune

system in physiological (ontogeny to aging, gestation) and pathological conditions (cancer,

autoimmunity, infections), and interactions with other biological systems like nervous, endocrine,

metabolic systems. This could be based on dynamics analysis of fluid lymphoid cell populations,

quantification and identification of phenotype and functions, repertoires, genomics and proteomics.

In this line, deciphering the significance of immune repertoire diversity clearly requires to take into

account their multiscale level from the molecule to cell populations as well as from the individual to

species evolution (Boudinot et al, 2008).

:

c) Examples of specific objectives – and

research groups potentially contributing

Ageing –

Alzheimer and other dementias

Zoï Kapoula, IRIS group, CNRS

Marc Verny, Salpétrière, CHU, Univ Paris VI

Bruno Dubois, Salpétrière

CRICM (CNRS-INSERM), CHU Univ Paris VI

Anne-Marie Ergis, CNRS Paris 5

Eye Brain (startup

connected with B. Dubois team)

Pr. Xiao, Psychiatric Mental Research Institute, Shangaï

Auditory dysfunction, equilibrium problems

Zoï Kapoula, IRIS group, CNRS

Pierre Bonfils/Alain Londero, Université Paris 5 CNRS

Josiane Bertoncini, CNRS Paris 5

Pierre Denise, INSERM, Université Caen

Christine Assainte, CNRS, Marseille

Thierry Van den Abbeele, Université Paris 7, Robert Debré

Dyslexia

Zoï Kapoula, IRIS group, CNRS

Jean-François Demonet, Toulouse?

Sylviane Valdois, Grenoble?

Franck Ramus, ENS Paris?

C. Billard, CHU Kremlin Bicêtre

O Boespflug-Tanguy, CHU Robert Debré

Pr John Stein (Oxford)

Pr Arnold Wilkins (Eseex University)

Dr. Wolfgang Jaschinski (Leibniz Research Centre for Working Environment and Human Factors)

d) Example of

implementation

Ageing

– Alzheimer and other dementias

Multiscale research on same patients

Brain imaging

(MRI,

Biomarkers (cerebrospinal fluid, biology)

SPECT, DaT scan, neuroradiology)

Clinical data

Neuropsychological tests

(neuro-geriatrics)

Eye movement tests – in patients

Eye movement tests in young healthy adults with and without cortical interference by Transcranial

Magnetic stimulation (TMS)

– emphasis on the study of variation of eye movement behaviour

induced by TMS – comparison with

data from patients

Patient Populations to compare

Healthy elderly

Alzheimer

Dementia Lewy body

Moderate Cognitive impairment

Parkinson Dementia

Fronto temporal dementia

e) Common tools – methods – platforms

  • Brain imaging, biological research
  • Novel neuropsychologic tests
  • Binocular eye tracking & Brain function & stimulation (IRIS group CNRS, platforminstalled at 3 hospitals in Paris, Robert Debré, Salpetrière, European Hospital Georges

Pompidou,

candidate for IBISA label)

  • Fonctionnement 30 ke/year
  • ARC (assistant recherche clinique)
  • Temps médical (PH, vacations)
  • Equipement 40 ke
  • 2 post-docs
  • 1 doctorant
  • 1 ingénieur assistant• • •
  • Site for teaching, training, for workshops bringing together clinicians, researchers,

Investigation of different types of eye movements (reflexive vs voluntary) activating

different

cortical sub-cortical networks

f) Specific challenges & needs

– Institut Numérique et Université Numérique

Create a bank of data (multiscale, mlti-time) for further analysis and modelling by

theoreticians with powerful tools and integrative models (Fourier, wavelet, time series,

theory of information, ICA etc.). Promote links with theoreticians.

Cross correlate data : biological-brain imaging-clinical- neuropsychological- eye movements

for each

population

Comparisons of different patient populations & healthy

Develop stochastic models –

(link neurophysiopathology with mathematics and physics)

Particularly extract patterns of variation or fluctuation – patterns of regularity specific to

different populations

For a given population compare patterns of variation

of different measures and over time-

hours

(for neuropsychologic tests) – seconds (for eye movement tests)

Determine patterns of variation

for different physiologic parameters of eye movements

(latency, speed, accuracy) subtended by cortical versus sub-cortical structures

Determine patterns of variation artificially induced in healthy by brain stimulation

(TMS)

vs patterns in patients

g) Funding

Clinical research teams

h) Research teams

Fonctionnement

80 Ke/an

i) Infrastrucure

Besoin d’un local pivot pour la section (150 à 200 m2)

A Paris centre to connect easily with

all concerned hospitals

Meeting site for

theoreticians

experimental and clinical investigators

theoreticians, associations of patients.

j) Teaching

  • Ongoing experimental projects
  • Integrative research and modelling
  • Instruments and techniques used
  • k) Valorisation – Translational research
  • Create clinical tools for differential diagnosis, following up of evolution of disease,2.2.2.2 Les questions

    Introduction

    Biological investigations provide knowledge and are expected, at some point, to translate into clinical research and medical advances for the treatment of human physiopathology. We hope to find cures for diseases and other key medical conditions, if possible, or at least to understand those conditions better. Yet it is increasingly clear that better understanding can only arise from a more holistic or integrative view of biological systems. We thus need to develop a better grasp of biological systems as complex systems, and to transfer this understanding into clinical research. Doing so requires a strongly interdisciplinary approach, and should provide novel insights into physiology and pathology.

    After a brief presentation of the general aims and concepts discussed in this topic, we list and offer details on four main challenges. How investigations should be driven in biology is a matter of debate. Should they be data-driven, object-driven or hypothesis-driven? Do we at least agree about the aim of deciphering the causal chains underlying biological processes? Do we expect models to bring insights and knowledge about the behaviour of biological systems, and to make accurate predictions?

    Recent advances in functional genomics and in the study of complex diseases (such as cancer, autoimmunity or infectious diseases, mitochondrial diseases or metabolic syndrome) have shown the necessity for an alternative way of thinking in biology, a view in which pathology and physiology result from interactions between many processes at different scales. The new scientific field of systems biology has emerged from this perspective; it focuses on the study of gene, protein, and biochemical reaction networks and cell population dynamics, considered as dynamical systems. It explores the biological properties resulting from the interaction of many components, investigating processes at different scales and their overall systemic integration. Complex systems science provides a conceptual framework and effective tools for unravelling emergent and immergent features from molecules to organisms and vice versa. The term “immergence” is meant to imply that some macro-level constraints cascade back in a causal way onto micro-levels. Both emergent and immergent properties should be understood from the multiscale reconstruction of data recorded at the appropriate

On each pathology

Treatment efficacy

Public conferences

spatial and temporal scales. We expect to find generic processes (design patterns for computer science) which apply from upper to lower levels of organization, and vice versa, and which allow their coupling e.g. synchronisation, reinforcement, amplification, inhibition, achieved through basic processes such as signalling through molecular interactions, diffusion, vesicular transport, ionic transport, electric coupling, biomechanical coupling and regulation of molecules and macromolecules characteristic features (including their concentrations).

Complex systems almost always involve a wide range of scales both in time (typically femtoseconds in chemical reactions, seconds in metabolism processes, days to months in cells, and years in an living organism) and space (typically nanometers for molecular structures, micrometers for supramolecular assemblies, organelles and cells, centimeters for tissues and organs, and meters for organisms). Finding the pertinent space and time scales for experimentation and modeling is a major issue. Classical approaches (biochemistry, cellular and molecular biology, behavioural and cognitive studies, etc.) usually have a “preferred” scale set by default, mainly due to the principle protocols and experiments being designed to work only at a specific scale. This makes back and forth interactions between different scales in observations, experimentations, models and simulations a very exciting transdisciplinary challenge.

Variation in biological systems raises the issue of an average, typical or representative behaviour. Determining such quantities, and knowing if they are scientifically useful,
requires characterizing and measuring variability and fluctuations at the molecular, single cell, cell population and physiological levels. The origin and functional significance of fluctuations in biological systems, even the scales of space and time on which they occur, remain largely unknown. Their functional significance might be approached through their multiscale transmission and possible amplification, reduction/damping or role in mediating bifurcations. Obviously, understanding will not arise from a one-to-one description and modeling of organisms (virtual cell, virtual organism) but rather from the correct identification of which components are relevant for a given problem and the reconstruction of models focused on the mechanisms involved. Such a reconstruction should use mathematical and physical tools, some borrowed from out-of-equilibrium thermodynamics and dynamical systems. New tools will also be required to answer specific questions of biology. Ultimately, injecting systemic vision and using complex systems principles and conceptual frameworks for a better understanding of human physio-pathology could lead to novel differential diagnosis and improve medical care.

Modern biology has in its development depended heavily on the notion of average behaviours and average individuals. But this conceptual framework has recently been challenged by empirical observation. Quantitative measurements of living single cells, or within such cells, have revealed extensive variability and fluctuation of cellular dynamics between different cells or between different times within the same cell. These observations open a new conceptual framework in biology, in which noise must be fully considered if we are to understand biological systems; this view departs from the classical framework which considered noise and fluctuations it mere measurement error or as “simple” thermodynamic fluctuations which should be suppressed by cells.

This new point of view raises many questions, as well as both practical and theoretical issues likely to deeply modify our understanding of biological systems. However, to tackle

a) Variability, fluctuations

in biological systems

and noise in observation and measurement

these questions, we need to develop a complete scientific program of investigation ranging widely from precise measurements through to analysis of the origin and functional role of stochasticity in biological systems. Among the main breakthroughs, we need to:

· Improve the technology for quantitative measurements of noise and fluctuations in single cells, cell populations, tissues, organs and individuals. In particular, it will be necessary to identify the characteristic times at each level of organization and the most appropriate experimental indicators.

· Identify the mechanisms by which noise and fluctuations arise in biological systems. In particular, what are the modalities of multiscale transmission of fluctuations? Are fluctuations amplified or reduced/damped from one scale to the others? Are they important with respect to bifurcations in the organism/cell fate?

· Understand the functional significance of fluctuations in different biological systems. For instance, it has been proposed that fluctuations can enhance the robustness of living beings. However, other processes can be envisaged (e.g. stochastic resonance, increased signaling rates, cell differentiation, evolution, etc.). Such a functional significance supposes that biological systems are able to control the level of noise.

· Delineate possible mechanisms by which biological systems may control their level of fluctuation (negative/positive feedback loops in biochemical networks, neuronal adaptation in cortical networks, adaptive mutations and mutation hotspots, regulations and networks in the immune system).

· Question the meaning of usual averaging processes in experimental biology. In the case of biochemical networks, can data gathered on cell populations be used to infer the actual network in a given single cell? Similar issues arise in the case of connectivity structures of cortical networks and cell lineage reconstruction.

These issues can be addressed in various biological systems including (but not limited to):

· Transcription and regulation networks: it is now clear that the transcriptional activity of the cell is highly stochastic. Some of the molecular causes of this stochasticity have been identified, yet its precise origin and regulatory mechanisms remain to be discovered. Doing so will first require the development of adequate measurement methodologies to enable us to quantify these fluctuations at different time scales in single cells.

· Neurons and neuronal networks: the so-called “on-going” activity within cortical circuits is a spontaneous activity generated by the recurrent nature of these networks. It has long been considered a mere noise added to the environmental signals. However, more recent studies have proposed a real functional role in which ongoing activity could facilitate signal spreading and be implicated in adaptive processes. Inhibitory effects have been shown to reduce variability at both the single-cell and population level.

· Diversity of the immune system: The immune system is characterized by diversity at different levels. Lymphocyte receptor diversity, populations of effectors and regulators, cell-population dynamics, cell selection and competition, and migration

through the whole organism are the result of stochastic or selection mechanisms whose impact on the overall efficiency of the system needs to be further characterized.

· Uncontrolled variability is often accused of being a source of major perturbations in the fate of organisms. Examples can be found in the process of aging, cancer, autoimmunity, infections or degenerative diseases. Yet the precise influence of noise is still open to debate. In particular, one point is to determine to what extent degenerative processes are a consequence of noise accumulation, a variation in noise properties or of rare stochastic events.

· Variability at the genetic level is the major engine of evolution. But genetic variability may be indirectly regulated according to the spatio-temporal characteristics of the environment (selection for robustness, for example, or for evolvability).

Moreover, clonal individuals may be very different from each other due to intrinsic and extrinsic phenotypic variability. The mechanisms by which heritable and non-heritable variability are regulated still need to be characterized and their influence on the
evolutionary process is largely unknown.

Concerning the modeling of fluctuations, several mathematical and physical tools
exist, but these need to be improved. Thus, stochastic models are largely used in molecular systems biology. The simulation algorithms (Gillespie algorithm) use the Delbrück-Bartholomay-Rényi representation of biochemical kinetics as jump Markov processes. In order to improve the performance of these methods (which are costly in time) several approximate schemes
have been proposed, for instance the approximation of Poisson variables by Gaussians
(tau-leap method). Hybrid approximations are more appropriate when the processes are
multiscale and these approximations could be developed by combining averaging and
the law of large numbers. In certain simple cases, the master equation can be exactly
solved.

It is also interesting to transfer ideas from statistical physics to biology. For instance, fluctuation theorems, which concern the occurrence of out-of-equilibrium fluctuations in heat exchanges with the surrounding environment and work theorems, concerning thermodynamic fluctuations in small systems close to equilibrium, could be applied to characterize fluctuations in gene networks, DNA transcription processes and the unfolding of biomolecules.

b) Stability in biology

We encounter various definitions of stability depending on the phenomenon, the model or the community proposing the concept. Frequently invoked concepts include homeostasis in relation to metabolic control, the Red Queen concept in evolution describing continuous development to sustain stable fitness in a changing environment, robustness in systems biology referring to insensitivity with respect to perturbations, or canalization and attractors in developmental biology and ecology.

The main challenges are:

In seeking to understand the stability of biological systems, which are always subject to both intrinsic and extrinsic perturbations, we need to develop the notion of steady state, or

more generally attractor. We need new mathematical concepts to capture the subtleties of biological stability.

Finite-time stability is a concept that can be used to define stability in the case when the system is known to operate or to preserve its structure unchanged over a finite
time. We are interested in the conditions under which the system’s variables remain
within finite bounds. Can we extend such formalism to other properties (oscillations, optimal biomass production, etc.)?

Finite time stability depends on the existence of subsystems with different relaxation times. It is thus important to develop methods allowing to estimate the largest
relaxation time of subsystems. For compound systems, how can we relate the
relaxation times of the elements to that of the system?

The notion of resilience is also a generalization of stability that is particularly appealing in this context. Indeed, it focuses on the ability to restore or maintain important functions when submitted to perturbations. The formalizations of this concept, founded on dynamical system properties (measure of attraction basin sizes), or even on viability theory (cost to return into a viability kernel) should become more operational to favour a wider diffusion.

The functioning of multicellular organisms occurs at the level of the cellular population, not of the individual cell. Furthermore, the stability of a cell population (tissue) is generally different from that of the individual cell. Cells extracted from tumours, for example, can reverse to normal activity when injected into healthy tissue. In this context, how can we define and study the stability of a population in relation to the stability of individuals? In addition, the same relation should be considered in the context of a developing organism taking into account differentiation and organogenesis. These processes are examples of symmetry-breaking, and we would like to determine whether symmetry arguments can be used in the study of stability properties.

Systems biology studies robustness as an important organizing principle of biological systems. As pointed out by H. Kitano, cancer is a robust system with some points of fragility. Thus, finding treatments and cures for diseases may consist in determining the fragility points of a robust system. In order to answer this question, we need good models, new mathematical theories and computer tools to analyse properties of models and new experimental techniques to quantify robustness.

Complexity and stability. In the modeling process, we should be able to zoom in and out between various levels of complexity. Stable properties of the system could be those that are common to several levels of complexity. More generally, is there a connexion between stability and complexity?

c) Multiscaling

Biological processes involve events and processes taking place over many different
scales of time and space. A hierarchical relationship among these scales enters our description only because it corresponds to our subjective views, usually based on our limited
experimental access to the system. Multiscale approaches drawn from theoretical physics
have been developed essentially in an unidirectional (bottom-up) way, to integrate parameters and

mechanisms at a given scale into effective, and hopefully reduced, descriptions at higher scales. However, lower-scale properties are directly coupled with properties of the higher scales (e.g. 3D chromosome distribution in the nucleus partly governs gene expression, which itself participates in nuclear architecture). The very complexity of living systems and biological functions lies partly in the presence of these bidirectional feedbacks between higher.

References

Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot N. (2010). Towards a global modelling of the Camembert-type cheese ripening process by coupling heterogeneous knowledge with dynamic Bayesian networks, Journal of Food Engineering, 98 (3), 283-293.

Baudrit, C., Hélias, A., & Perrot, N. (2009). A Joint treatment of imprecision and variability in food engineering: Application to cheese mass loss during ripening. Journal of Food Engineering, 93, 284-292.

Barrière, O., Lutton, E., Baudrit, C., Sicard, M., Pinaud B., Perrot, N. (2008). Modeling Human Expertise on a Cheese Ripening Industrial Process Using GP. Lecture Notes in Computer Science, Parallel Problem Solving from Nature – PPSN X , Springer Berlin/Heidelberg (Eds). Vol 5199, pp. 859-868.

Baudrit, C., Wuillemin, P.H., Sicard M., Perrot, N. (2008). A Dynamic Bayesian Networkto Represent a Ripening Process of a Soft Mould Cheese. Lecture Notes in
Computer Science, Knowledge-Based Intelligent Information and Engineering
Systems. Springer Berlin/Heidelberg (Eds). Vol 5178, pp. 265-272.

Baudrit, C., Dubois, D., Perrot, N. (2008). Representing parametric probabilistic models tainted with imprecision Fuzzy Sets and Systems, Vol 159, Issue 15, pp.
1913-1928.

Allais, I., Perrot, N., Curt, C., Trystram, G., (2007) “Modelling the operator know-how to control sensory quality in traditional processes in Journal of Food engineering. 83 (2): 156-166.

Perrot, N. (2006). Fuzzy concepts applied to food product quality control. Editorial. Fuzzy Sets and Systems, 157, 1143-1144.

Perrot, N., Ioannou, I., Allais, I., Curt, C., Hossenlopp, J., Trystram, G. (2006). Fuzzy concepts applied to food product quality control: a review. Fuzzy Sets and Systems, 157, 1145-1154.

Ioannou, I., Mauris, G., Trystram, G., Perrot, N. (2006). Back-propagation of imprecision in a cheese ripening fuzzy model based on human sensory evaluations. Fuzzy Sets and Systems, 157, 1179-1187.

Articles dans congrès internationaux avec actes:

Baudrit, C., Lamrini, B., Sicard, M., Wuillemin, P.H., *Perrot*, N (2009). Dynamic neural networks versus dynamic Bayesian networks to model microbial behaviours during the cheese ripening process. /European Federation of Food Science and Technology Conference (EFFoST)/, Budapest, Hungary.

Lamrini B., *Perrot* N., Della Valle G., Chiron H., Trelea I.C. and Trystram G. (2009). A dynamic neural model to describe a leavening of bread dough Submitted in /European Federation of Food Science and Technology Conference (EFFoST)/, Budapest, Hungary.

Sicard M., *Perrot* N., Baudrit C.,Reuillon R., Bourgine P., Alvarez I., Martin S. (2009). The viability theory to control complex food processes./ European Conference on Complex Systems (ECCS’09)/,* *University of Warwick (UK).

Baudrit, C., Sicard, M., Wuillemin, P.H., *Perrot*, N. (2009). „Dynamic Bayesian Networks for Modelling Food Processing: Application to the Cheese Ripening Process”. /8th World Congress of Chemical Engineering (WCCE8),/ Montréal (Canada), 2009.

Baudrit, C., Sicard, M., Wuillemin, P.H., *Perrot, *N. (2009).”Toward a knowledge integration for representing food processes”. /European Conference on Complex Systems (ECCS’09)/, University of Warwick (UK), 2009.

Pinaud, B., Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot, N. (2008). Validation et enrichissement interactifs d’un apprentissage automatique des paramètres d’un RBD. 4ème Journées Francophones sur les Réseaux Bayésiens. Lyon, 29-30 th May.

Sicard, M;, Leclerc-Perlat, M.N., Perrot, N. (2008) “Knowledge Integration for Cheese Ripening Following”, 5th IDF symposium on cheese ripening Bern Switzerland 9-13 March 2008.

Baudrit, C., Hélias, A., Perrot, N. (2007) Uncertainty analysis in food engineering involving imprecision and randomness. ISIPTA’07 – Fifth International Symposium on Imprecise Probability: Theories and Applications, Prague, Czech Republic, pp 21-30, 2007. http://www.sipta.org/isipta07/proceedings/027.html

Perrot, N., Allais, I., Edoura Gaena R.B., Ioannou, I., Trystram, G., Mauris, G. (2006) A methodological guideline for the expert-operator knowledge management in the food industry. In proceedings of the Foodsim congress, Naples, 15-17 June, Italie,195-200.

Plateforme – Intégration des modèles

Rapporteur : Nicolas Brodu

Contributeurs : François Arlabosse, Paul Bourgine, Nicolas Brodu, René Doursat, Jean-Pierre Müller, Édith Perrier, Nadine Peyriéras, Denise Pumain, Romain Reuillon, Jean-Baptiste Rouquier, Nathalie Perrot

Introduction

Le campus numérique des systèmes complexes ambitionne d’agréger autour d’une structure commune les différents départements en charge de l’enseignement et la recherche dans le domaine des systèmes complexes. Ces départements nécessitent pour accomplir leur mission une infrastructure de support à la mise en commun d’objets de recherche (modèles, méthodes) et d’enseignement (cours, expériences pédagogiques).

La section numérique « Modèles intégrés de systèmes complexes » a pour vocation de fédérer les efforts de production et de collection des données, de développement d’outils logiciels pour leur traitement et leur modélisation, et de structuration des connaissances. Le développement de concepts pour contribuer à l’analyse systémique des systèmes et l’articulation des connaissances développées dans les sections thématiques est également un fil directeur clé de cette section. Par « modèles intégrés » nous entendons aussi bien le couplage des modèles que leur réduction ou leur mise en relation multi-échelle, dans la perspective d’une modélisation parcimonieuse qui tende vers la définition de classes d’universalité.

Cette section doit inciter au partage, au co-développement et à la réutilisation des objets numériques produits et manipulés par les sections thématiques du Campus Numérique des Systèmes Complexes. Pour ce faire, elle propose la mise en œuvre d’une infrastructure numérique favorisant une circulation à double sens : d’une part la remontée et l’organisation de ces connaissances et d’autre part leur exploitation par les équipes participantes. À l’instar de Wikipedia, cette infrastructure doit rester entièrement ouverte aux contributions extérieures et évoluer en permanence. Pour cela, elle reposera de façon critique sur des moyens techniques et humains : d’une part une automatisation poussée des processus de contribution, d’organisation et d’utilisation de l’infrastructure ; et d’autre part des activités d’accompagnement, de communication, et d’animation de la communauté des participants.

2.1.1.1 Objectif

L’objectif principal est de fédérer les efforts autour de l’intégration des modèles et des connaissances sous-jacentes aux systèmes complexes (reconstruction multi-échelle, simulation multi-échelle…). Pour ce faire il est nécessaire d’engager des moyens techniques et humains centrés au travers :

De recherche sur les méthodes et concepts autour de l’intégration des modèles et connaissances et de l’intégration numérique de celles-ci.
D’une animation active de la communauté.
De composants testés, validés et spécifiés formellement.

De la mise à disposition de moyens de calcul et de stockage. D’une infrastructure d’expérimentation sur les modèles.

Les sections de recherche des grands axes thématiques du Campus Numérique des Systèmes Complexes doivent traiter de problèmes pluridisciplinaire, multi-échelles, pour lesquels une modélisation simple ne suffit plus. Les sujets d’étude des grands axes « De la molécule à l’organisme » et « De l’individu à la société, intelligence territoriale » en particulier nécessitent une approche multi-formalisme et un besoin commun de simulation.

Dans ce cadre, le but est de fournir un effort fédérateur pour l’intégration des modèles à travers la création d’une infrastructure collaborative attractive pour le partage et l’intégration des

modèles. L’université numérique propose de faire vivre une écologie de cours, la séction « Modèles intégrés de systèmes complexes » propose une écologie de logiciels.

2.1.1.2. Fonctionnement

Principe général

De nombreuses plateformes intégrées aspirant à une certaine universalité se sont succédées au cours des années. Il s’agit de ne pas répéter les erreurs du passé, et en particulier de ne pas proposer une plateforme fédératrice à laquelle les utilisateurs seraient censé adhérer. Nous envisageons plutôt un fonctionnement où le système que nous proposerons doit s’adapter aux besoins et au métier de chaque utilisateur, et lui proposer des composants qu’il peut librement utiliser et adapter à ses besoins dans son propre formalisme en conservant ses habitudes.

Le fonctionnement retenu est celui d’un « wiki de modèles » comprenant pour chaque modèle : une description, une normalisation des données pour interopérabilité, du code pour une ou plusieurs plateformes logicielles sur lesquelles il est implémenté, une aide à l’indexation (mots clefs et autres méta-informations), la taille des données manipulables ainsi que des exemples de temps de calcul. De plus les connaissances propre à chaque discipline et chaque métier seront intégrées sous une forme permettant à un nouvel arrivant de mettre en œuvre le modèle en bénéficiant des retours d’expériences passés.

Le système mettra ainsi tout en œuvre pour faciliter avec un point de vue métier de non- spécialiste informaticien le retour d’information afin que les utilisateurs puissent contribuer leurs propres amélioration au système. Il ne s’agit pas seulement de proposer une « vue » sur une base de données, mais bien d’une réflexion en terme d’interface et d’ergonomie pour l’ajout d’information essentielles : le système doit doit favoriser la participation, inviter à partager ses connaissances sur un modèle dans son propre langage. Le système doit ainsi capturer les méta-informations que sont les implicites métier, et inviter les utilisateurs à réfléchir pour expliciter ces non-dits. Par exemple une plage de paramètres interdite peut sembler tellement évidente dans une discipline qu’elle n’est jamais explicitée (comme des températures supérieures à 500°C en biologie). Pourtant la transposition d’un modèle de simulation multi-agents de cette discipline vers la physique des fluides peut faire intervenir ces valeurs dans un cadre totalement différent. Un modèle précédemment validé et couramment utilisé peut ainsi devenir invalide dans un autre cadre. De manière plus générale il est vital d’expliciter les pratiques et non-dits implicites à chaque discipline pour l’usage de modèles présents dans le système. Des problématiques purement informatique comme le synchronisme ou l’asynchronisme des échanges de données du modèle avec son environnement sont par exemple moins évidente à identifier pour un non-spécialiste que l’exemple précédent de plage de paramètres, mais tout aussi cruciales pour le bon fonctionnement du modèle après transposition dans un autre environnement. L’intégralité des informations relatives à chaque modèle (code, méta-données, etc…) sera de plus suivi par un système de gestion de versions. Ainsi nous étendons la fonctionnalité de l’historique d’une page wiki à tous les aspects constituant un modèle dans le système. Le résultat est alors un outils plus avancé et performant qu’un simple wiki et qui devra également favoriser les échanges directs entre utilisateurs (notes et commentaires, forums et mailing-listes, etc) afin que ceux-ci puissent participer au système et suivre l’évolution des modèles qu’ils utilisent.

En retour le système présentera à chaque utilisateur le souhaitant une interface « métier » propre à sa discipline à partir des connaissances intégrées aux informations méta sur chaque

composant de modèle.

Les retours attendus d’un tel outil « wiki des modèles intégrés » sont :

Par son mode collaboratif l’infrastructure intègre les pratiques des acteurs et propose des cadres génériques évolutifs aux travers des efforts fournis par les participants.
Chacun contribue en proposant sa représentation du système, ses modèles et bénéfice de la base commune d’outils et de calculs.

Le système favorise les efforts de généralisation des pratiques et l’interdisciplinarité.

Rôle de la section « Modèles intégrés de systèmes complexes » du campus numérique

Après une phase initiale de mise en place le but est de minimiser les coûts récurrents et de porter les efforts humains sur l’animation de la communauté, l’accompagnement et l’aide à l’utilisation du système, ainsi que la promotion de celui-ci.

La section « modèles intégrés de systèmes complexes » du campus numérique favorisera l’autonomie des utilisateurs, leur collaboration (échanges inter-utilisateur) et dans la mesure du possible leur participation à l’évolution du système. Ceci passe par :

des communautés ouvertes d’utilisateurs au travers de forums internet, de modes de collaborations distribués autour du développement et de l’amélioration des méthodes et des modèles, de l’organisation de conférences d’utilisateurs, de concours sur l’efficacité des méthodes…
un noyau de personnes (gouvernance) participant à la fois à l’infrastructure et à des projets des sections du campus numérique sur les grands objets de recherche.

des communautés ouvertes de développeurs fédérant le travail de développement logiciel et algorithmique autour des grandes questions.

En se basant sur le modèle du logiciel libre les utilisateurs-développeurs auront ainsi le contrôle du contenu du système et la maîtrise de leur propres outils de travail. Le rôle de la section « campus numérique » est de favoriser cette appropriation par les utilisateurs et non de tenter de leur imposer un mode de fonctionnement. Les licenses libres (pour les logiciels) et Creative Commons (pour les données, y compris méta) sont des outils légaux permettant la diffusion tout en garantissant à la fois la reconnaissance des contributeurs et une panoplie de modèles économiques (deux cas fréquents sont la vente de service et d’une expertise autour d’un composant logiciel, ainsi que la vente d’un prestation de développement adapté aux besoins d’un partenaire industriel se basant sur les briques disponibles).

2.1.1.3. Une infrastructure communautaire pour tester et expérimenter sur les modèles

Un principe fondamental est de fournir un service aux utilisateurs adapté à leurs propres besoins. Le wiki des modèles sera ainsi librement accessible et chacun sera ainsi encouragé à utiliser librement les modèles dans son propre environnement.

En addition à ce wiki une infrastructure collaborative sera proposée pour le test et l’expérimentation sur les modèles. Cette infrastructure ne devra en aucun cas revêtir un caractère obligatoire pour l’utilisation d’un modèle en particulier, et une des responsabilités de la section
« modèles intégrés de systèmes complexes » du campus numérique sera de vérifier scrupuleusement cette indépendance. Le risque serait sinon l’appropriation de l’outil par un acteur unique, avec comme conséquence sur le moyen terme une dérive probable de celle-ci à accroître la dépendance

des utilisateurs afin d’en tirer profit. Au contraire le but de la section « modèles intégrés » est de favoriser l’indépendance des utilisateurs.

L’infrastructure collaborative sera ainsi proposée comme service à la communauté afin d’aider les utilisateurs ne disposant pas des ressources propres nécessaires à mettre en œuvre l’application de la méthode scientifique expérimentale avec les modèles. Elle permettra aux expérimentateurs d’apprendre des modèles et d’étudier leurs données. L’infrastructure alliera :

• un travail d’ingénierie et de recherche sur l’intégration des modèles, les approches expérimentales sur les modèles et sur le calcul intensif.

l’animation d’une communauté ouverte de modélisateurs experts des grands objets, d’ingénieurs- chercheurs sur l’intégration des modèles et de chercheurs sur les méthodes experts des grandes questions.

• la mise à disposition de moyens de calculs et stockage pour expérimenter sur les modèles et analyser les données produites (grilles de calcul, grilles de données).

L’objectif est de rendre l’infrastructure exploitable pour la communauté « systèmes complexes » et de capitaliser sur un savoir faire méthodologique intégré, qui fait la jonction entre les pratiques spécifiques des grands objets et la généricité des grandes questions.

2.1.1.4. Utilisabilité des modèles et transposition d’un domaine à l’autre

Chaque modèle proposé au sein du système devra répondre, dans au moins une discipline, à la problématique posée par les thématiciens de cette discipline. Bien que l’effet « collection » soit inévitable le but du système est de favoriser la réutilisation des modèles existants et l’adaptation de ceux-ci à des problématiques diverses réellement pluridisciplinaire. Il est aisé en informatique fondamentale de proposer une bibliothèque de composants génériques répondant à des tâches bien précises (ex: projet « boost » en C++, http://www.boost.org). L’ambition est d’obtenir au sein de notre outil un niveau similaire de réutilisabilité avec comme atouts supplémentaires le multi- échelle, le multi-paradigme et la pluridisciplinarité des modèles proposés.

Les besoins identifiés sont les suivants :

  • Combiner des formalismes pour traiter différents points de vue (ex: équations différentielles, automates cellulaires, multi-agent), dans l’objectif d’une reconstruction et de la simulation multi-échelle.
  • Fusionner différents modèles du même phénomène.
  • Intégrer des modèles partiels de différentes disciplines. Quelles sont les façons « métier » de

    représenter les données ?

  • Conversion de modèles, transposition d’un domaine à un autre.

    Les moyens suivants ont été identifiés pour y parvenir :

  • Une standardisation des protocoles, des formats de données et vocabulaire propre à la gestion des modèles manipulés par le système.
  • Faire dialoguer entre eux les experts et utilisateurs de différents métiers. Des
    « correspondants locaux » volontaires sont envisageables afin d’entretenir ces liens.
  • Au sein du même métier il s’agit également de favoriser la communication vers les théoriciens : en particulier les ingénieurs ont besoin d’experts métier pour créer les modèles,

et réciproquement les experts métiers ont besoin des ingénieurs pour les implémenter.

  • Favoriser les recherches et exploiter les dernières avancées dans le domaine de la

    représentation des connaissances et des ontologies, de la méta-modélisation.

  • De façon similaire se reposer sur l’intelligence artificielle, l’apprentissage machine et

    l’ergonomie afin d’expliciter les présupposés du modèle et des données: domaine de validité des paramètres, quels sont les questions pertinentes à poser au modèle, comment interagir avec les non-spécialistes de façon plus efficace que par la technique limitée du jeu de formulaires et d’interfaces forcément non exhaustives.

    Le diagramme suivant sur le couplage de formalismes et la modélisation conceptuelle est une description générale, applicable tant aux « plateformes à vocation universelle » du passé qu’à leur anti-thèse que l’on propose ici sous la forme d’un « wiki ». Le but de ce diagramme est de proposer une vision plus technique des problèmes à surmonter pour réaliser des modèles intégrés, et de montrer que ceux-ci ne sont pas le point essentiel qu’aura à traiter la section « modèles intégrés de systèmes complexes » du campus numérique sur le long terme.

    Dans les différents points précédents le moteur le plus important et souvent le responsable de l’échec ou du succès des projets concerne en effet l’aspect humain : dialogue entre participants de différentes disciplines, accompagnement et aide à l’usage, promotion et séminaires découverte, etc.

    Les technologies nécessaires pour implémenter un tel système sont disponibles, moyennant suffisamment de moyens pour sa réalisation (coût initial). Une fois le système créé il reste un travail d’accompagnement et d’aide à l’utilisation. Dans la logique des sections précédentes il ne s’agit pas seulement de réduire le côut récurrent de fonctionnement pour l’équipe « modèles intégrés de systèmes complexes » du campus numérique, mais également de réduire les coûts (monétaire, temps, apprentissage) pour les utilisateurs afin de favoriser leur participation. Le système devra être créer dans cette logique, sachant que les efforts ultérieurs sur les aspects relationnels seront grandement facilités si ces coûts d’usage sont réduits au maximum.

    Références

    La section « modèle intégrés de systèmes complexes » devra prendre soin de ne pas entrer en conflit, et si possible établir des partenariats, avec les initiatives suivantes partageant au moins certains points en commun :

    • INRA, plateforme « record » : utilise VLE qui repose sur DEVS
    • Mimosa (J.P.Müller) est aussi une implémentation de DEVS.
    • INRA, plateforme logicielle interne CEPIA
    • S4, spatial modelling plateform (Besançon), plus une mise en contexte de modèles de

      simulations qui sont décrits et montrés en ligne.

    • SimExplorer et groupe mexico
    • OpenMOLE pour expérimenter sur les modèles (CREA, ISCPIF, LISC)
    • Cosmo : open source, en cours de développement depuis 3 ans, pas encore publié

      http://www.ens-lyon.fr/web/nav/article.php?id=1330

    • Netlogo : http://ccl.northwestern.edu/netlogo/docs/
    • RetroMob : http://hal.archives-ouvertes.fr/docs/00/16/04/52/PDF/RR_P2PercReas_07.pdf
  • OpenABM : http://www.openabm.org/
  • Demandes des industriels: Séminaire NAFEMS

Robustess, Resilience and Evolvability

Reporter : Daniel Schertzer – Meteo France

Contributors :

Pierre Baudot – UPMC Hughes Berry – INRIA Danièle Bourcier
Paul Bourgine
Valérie Dagrain
François Daviaud – CEA
Jacques Demongot – CNRS / Université Joseph Fourier Grenoble I Renaud Delannay
Bérengère Dubrulle – CEA
Patrick Flandrin – CNRS ENS Lyon
Cedric Gaucherel – INRA
Michael Ghil – ENS Paris
Gabriel Lang – AgroParisTech
Ivan Junier
Salma Mesmoudi
François Rodolphe
Thierry Savy
Eric Simonet – CNRS

Keywords :

Random dynamical systems, non stationarity, long range/ short range dependence, local/non local interactions, discrete/continuous scaling, cascades, wavelet/multifractal analysis, multiscale modeling and aggregation/disaggregation, pattern recognition, graph dynamics, extremes distribution, large deviations.

Introduction

Une problématique ubiquitaire des systèmes complexes concerne la possibilité de décrire, prévoir ou de contrôler leur dynamique, pour des échelles de temps courts et/ou de temps longs. L’acquisition d’une telle compétence conduit aux études de robustesse, de résilience, de viabilité et d’évolvabilité. Il va de soit que cette thématique recouvre un pan entier du développement des mathématiques et de la physique depuis ses origines jusqu’à ces avancées les plus récentes, appliqué et adapté ici aux systèmes vivants, sociaux et matières complexe. Nous proposons ici l’ébauche d’une section «Robustesse, résilience et évolvabilité» au sein « du département des questions transversales » dont la vocation est de sélectionner et de développer les outils d’analyse, de diagnostique, de prédiction et d’aide à la décision issues de la recherche théorique de pointe et de les mettre à disposition, jusqu’à l’implémentation in-sillico, de l’ensemble des chercheurs associés aux objets complexes. Nous présentons sommairement quelques unes des applications (chapitre 2) et approches (chapitre 3) qui ont pour certaines déjà pu montrer leur efficacité au cours de projets interdisciplinaires réalisés au sein de la communauté des systèmes complexes.

Ne sous-estimons pas cependant l’ampleur de la tache qu’il reste à parcourir, à la hauteur des enjeux pragmatiques et sociétaux associés à un tel projet. Les difficultés et le temps que la

présente assemblée d’experts, provenant de divers horizons, a mis à converger sur ce projet, in fine partiel et incomplet, attestent des difficultés. Sous l’impulsion de travaux ponctuels, les formalismes, méthodes, terminologies et algorithmes ont proliférés, les recherches en mathématique ou physique fondamentale ainsi que sur les modèles appliqués continuent de se développer essentiellement dans l’ignorance et l’incompréhension réciproque, et les ressources computationnelles à disposition pour de telles modélisations restent très largement insuffisantes. Ce sont notamment à ces 3 problèmes que ce projet de section se propose de répondre.

In fine, une ingénierie efficace des systèmes complexes multi-échelles doit être capable d’intervenir à une certaine échelle (ou à plusieurs) afin de rétablir une dynamique stable ou d’induire de nouveaux états souhaités, ou souhaitables, du système à toutes les échelles. Ceci pose le problème d’adapter les outils existants, mais aussi de développer de nouveaux outils, capables d’être exploités par les différents domaines de la science des systèmes complexes. Le défi consiste donc à mettre en place des outils aussi génériques que possible qui soient facilement utilisable par les différents acteurs des systèmes complexes. Ceci passe donc inévitablement par une activité de recherche fédérant les experts du domaine et tournée vers l’université numérique.

Un des objectifs de cette section concerne la capacité à formaliser les notions de robustesse, résilience, viabilité et évolvabilité en dépit de la variabilité des significations associées à ces notions. Par exemple, en physique, la résilience constitue une mesure de la résistance d’un matériau à un choc. En écologie, elle est la capacité d’un écosystème ou d’une espèce à récupérer un fonctionnement et/ou une évolution « normale » après avoir subi un traumatisme. En psychologie, elle consiste en la capacité de prendre acte de son traumatisme pour ne plus vivre dans la dépression. En économie, elle est la capacité à revenir sur la trajectoire de croissance après avoir encaissé une crise. En informatique, elle est la capacité d’un système ou d’une architecture réseau à continuer de fonctionner en cas de panne. Dans le domaine de la gouvernance, de la gestion du risque et du social, la résilience communautaire associe les approches précédentes en s’intéressant au groupe et au collectif plus qu’à l’individu isolé. Dans l’armement et l’aérospatial, la résilience dénote le niveau de capacité d’un système embarqué de pouvoir fonctionner en mode dégradé tout en évoluant dans un milieu hostile.

Les systèmes dynamiques constituent un des domaines de recherche et d’enseignement les plus adaptés pour aborder ces notions. Le contenu des cours numériques, ainsi que les lignes de recherche, s’articuleront essentiellement autour de cet axe. Étant donnée la possibilité de réduire un grand nombre de systèmes (statiques ou dynamiques) à des systèmes dynamiques (éventuellement stochastiques), les autres approches (e.g. modèles discrets, dynamique booléennes,…) seront systématiquement comparées à ces approches.

Dans le cadre des systèmes dynamiques, la robustesse d’un état se caractérise par la capacité du système à revenir à son état initial après une perturbation des variables. Pour la théorie ergodique, la stabilité à des perturbations infinitésimale d’une trajectoire dynamique est quantifiée par les exposants de Lyapunov (théorie de Floquet pour les systèmes périodiques). La production d’entropie le long d’une trajectoire chaotique est mesurée par la somme des exposants positifs (Eckmann & Ruelle, 1985, Barreira & Pesin, 2007 pour revues). Récemment, le concept d’exposants de Lyapunov a été étendu aux perturbations finies, et un domaine de recherche actif s’est développé autour du concept de vecteurs de Lyapunov qui mesurent les directions associées aux stabilités et instabilités. Partiellement motivés par des enjeux géophysiques, différentes sortes de vecteurs (singular, Bred, covariant, Ginelli & al, 2007) ont été proposés et analysés en détail, offrant ainsi des pistes d’application à d’autres domaines.

La notion de résilience a récemment été formalisée dans le cadre de la théorie de la viabilité

(Aubin, 1991, Martin, 2004, Aubin, Bayen & Saint-Pierre, 2010 pour revues). La théorie de la viabilité se focalise sur la capacité d’un système à préserver certaines propriétés, le principe de résilience consiste alors à définir les propriétés essentielles, appelées contraintes de viabilité, permettant de restaurer ces propriétés, et d’étudier les perturbations qui font sortir la dynamique du système du domaine de viabilité. Enfin, la notion d’évolvabilité, ou d’adaptabilité, pour laquelle la formalisation du point de vue des systèmes dynamiques reste à être établie, est un concept issu de la biologie de l’évolution qui est de plus en plus repris dans les domaines de l’intelligence artificielle, des méthodes d’apprentissage et des algorithmes évolutionnaires. Cette notion fait référence à la capacité d’un organisme (e.g. un ensemble de lois) à acquérir de nouvelles compétences par l’exploration de nouveaux états (par exemple, par mutation ou recombinaison en génétique) lui permettant d’évoluer dans un nouvel environnement.

1.2.1. La résilience, robustesse et évolvabilité au travers des grands objets

1.2.1.1. Droit et Politiques publiques

Le droit, comme toute institution, contribue à une meilleure coordination/adéquation des actions humaines. Il est d’abord un ensemble de règles, certaines prescriptives et d’autres proscriptives, qui visent à réguler les interactions sociales de toutes sortes. Le droit se complexifie avec l’évolution et l’interconnexion croissante des sociétés humaines. Un besoin de droit comparé entre les différents états se développe parallèlement.
La loi devient de plus en plus complexe, voir trop complexe. Par exemple, la décision du Conseil Constitutionnel français du 29 décembre 2005 (Conseil Constitutionnel, 2005) considère que la loi de finances en cause était d’une « excessive complexité ». Un contribuable doit avoir la capacité d’évaluer le montant de son impôt avec une « anticipation raisonnable ». Il a été reproché les critères suivants : la longueur de l’article (9 pages) mais surtout les nombreux liens et nœuds qui rendent les résultats opaques.
On peut élaborer un programme qui n’a pas pour objectif de simplifier la loi mais de mesurer sa complexité grâce à des outils capables de l’exploiter. Les caractéristiques de la complexité résident dans la combinatoire d’éléments, leurs interactions, l’opacité cognitive humaine, la diversité des échelles, l’évolution temporelle. Ces caractéristiques ont pour effet une flexibilité fonctionnelle, une adaptabilité et résilience, une capacité de co-évolution (lois européennes & jurisprudences), mais elle favorise l’incertitude et l’insécurité de la règle.

La jurisprudence suit la même tendance de complexité croissante à cause de la pluralité des sources du droit et de l’augmentation des liens entre textes. Les questions clés se catalysent autour de l’anticipation des évolutions voire des revirements de jurisprudence ou de la nécessité d’écrire de nouvelles lois.

1.2.1.2. Santé, médecine et biologie

Un système de santé efficace doit se baser sur le suivi, la prévention et l’intervention. Ceci nécessite de comprendre les mécanismes lié à l’émergence et la propagation des maladies dans un système multi-échelle de la plus grande complexité, allant de la molécule à la structure de notre société. Nos institutions se doivent d’élaborer un système de santé robuste où l’intervention sanitaire soit minimisée en faveur d’une structure favorisant la robustesse de nos défenses et l’évolvabilité de nos comportements.
Du point de vue médical, la stratégie consistant à multiplier les moyens, et par conséquent leur coût, doit faire place, lorsque ceci est possible, à une expertise où la formation pluridisciplinaire de haute qualité est nécessaire. Ceci peut passer par la formation des médecins/biologistes aux notions de robustesse, résilience et évolvabilité. Le principe générique consiste à réduire la complexité des problèmes en les réduisant à des systèmes de basse dimensionnalité, afin d’identifier les perturbations nécessaires, minimales, permettant de maintenir ou de restaurer la viabilité du système. Un exemple de ce type d’approche provient de l’étude de la mort subite du nourrisson, où l’analyse de la dynamique du cycle respiratoire monitoré en direct (Pham & al, 1983, Baconnier & al, 1983) et la détection de sa transition vers l’état pathologique, permet par simple perturbation ponctuelle de remettre l’oscillateur respiratoire dans son cycle normal.
Un système de santé efficace nécessite aussi de modéliser l’écosystème homme/environnement dans une perspective multi-échelle. Nous pouvons citer deux exemples qui montrent les enjeux et l’urgence de ce travail:

1) La résistance bactérienne aux antibiotiques: Les bactéries pathogènes résistent de plus en plus

aux antibiotiques, ce qui pose un problème majeur de santé publique avec l’apparition de maladies nosocomiales devant lesquelles le médecin se trouve largement démuni. L’apparition de ces souches bactériennes pathogènes résistantes résulte de leur évolution dans un milieu où elles se trouvent confrontées à ces molécules. Cette évolution résulte essentiellement de transferts de gènes. La compréhension de ces phénomènes et leur contrôle requiert la prise en compte des phénomènes qui sont en jeu dans la bactérie à l’échelle moléculaire, mais aussi du milieu dans lequel ces populations bactériennes évoluent, milieu totalement artificiel et anthropisé. En d’autres termes, ce problème doit être considéré à différentes échelles, depuis l’échelle moléculaire, dans la bactérie, jusqu’à l’hôpital, avec l’ensemble des pratiques des personnes y travaillant ou y résidant. La stratégie de production de nouvelles molécules a montré ses limites. De nouvelles approches intégratives doivent donc être envisagées qui doivent s’assigner le but de créer des conditions écologiques telles que l’invasion du milieu par ses souches multirésistantes soit impossible.

2) Épidémie virale ou bactérienne : une approche multiéchelle écologique similaire peut être envisagée pour d’autres problèmes de santé publique. Des solutions simples ont déjà fait leurs preuves pour la prévention d’épidémies et la disparition des souches les plus virulentes d’un pathogène. Par exemple, l’assainissement et la compartimentalisation des eaux souillées réduit l’incidence du choléra, et même si elle ne parvient pas toujours à l’éradiquer, elle rend les souches les plus virulentes inadaptées en jouant sur la probabilité de transmission de la bactérie entre malades et non-malades, qui est un paramètre essentiel de la dynamique de toute épidémie. De telles solutions doivent être adaptées à notre société où l’aspect multi-échelle (de la molécule à la société) doit être intégré.

1.2.1.3. Optimisation des procédés dans l’industrie de la transformation biologique et alimentaire

De nombreux procédés de transformation alimentaire et de maturation des condiments peuvent être considérés comme des systèmes dynamiques complexes. En effet, de nombreuses variables sont en interactions à différents niveaux d’échelle (microscopique, macroscopique…). Contrôler ces procédés pour maintenir la qualité nutritionnelle, sanitaire et organoleptique des produits est un enjeu primordial pour l’industrie alimentaire. Une méthode d’exploration d’un processus agroalimentaire consiste en l’élaboration d’un modèle mécanistique utilisant les méthodes développées dans le cadre de la théorie de la viabilité. Un tel modèle a récemment été implémenté pour reproduire in-sillico le processus d’affinage du camembert (Mesmoudi & al, 2009). Cette théorie peut être appliquée avec deux objectifs, connaître les domaines de viabilité du système en fonction des contraintes de contrôle (par exemple la durée d’affinage dans le cas de la maturation du fromage) et évaluer la sensibilité du procédé à des perturbations dans ces domaines. Le domaine de viabilité d’un processus de transformation alimentaire peut être très large et comprendre des centaines de milliers de trajectoires possibles (10e24 trajectoires dans le cas de l’affinage du Camembert). Ce pool de trajectoires possibles se réduit drastiquement par l’augmentation du nombre de contraintes prise en compte sur les paramètres, traduisant ainsi un accroissement des exigences quantitatives et-ou qualitatives sur le produit final. Les trajectoires solutions sont alors non triviales (forment des petits îlots d’espace solution non connexes) et correspondent à proprement parlé à un processus de maturation complexe (voire transition de phase ci-dessous, et les problèmes de satisfaction de contraintes, Mézard, 2003 pour revue).

Les enjeux de compétitivité auxquels sont confrontées les industries agro-alimentaires portent entre autres sur la qualité des produits et leur constance, et par conséquent la maîtrise des procédés de transformation. En se basant sur ces évaluations de robustesse des états du domaine de la viabilité, nous proposons d’élaborer un outil d’optimisation multi-objectif, qui tente d’optimiser à

la fois la durée du procédé, la qualité du produit final et le nombre d’interventions humaines. Ceci permettra de reconstruire les meilleures dynamiques des procédés de transformation et ainsi de contrôler le comportement global du produit.

1.2.1.4. Environnement et Développement durable

Résilience et robustesse des écosystèmes : L’écologie développe des théories fondées sur les propriétés de systèmes dynamiques pour décrire la stabilité des populations d’organismes face aux perturbations. Les perturbations sont définies par la modification de paramètres physico-chimiques ou biologiques du milieu, comme des invasions ou comme la dispersion d’éléments qui modifient le milieu naturel à différentes échelles : molécules organiques et pharmaceutiques (xénobiotiques), flux de gènes provenant de cultures ou d’élevages OGM, espèces invasives végétales et animales, pressions anthropiques sur certains territoires (littoral, espace périurbain).L’écologie développe un paradigme multi-échelle quant aux groupes fonctionnels d’organismes et aux échelles de territoires leur correspondant (populations, communautés, méta-communautés). La notion de biodiversité et sa perception dépend de l’échelle choisie: la médiatisation des enjeux de la conservation de la biodiversité exceptionnelle (espèces rares) à un échelon local cache les enjeux de la conservation de la biodiversité ordinaire (par exemple, la baisse des effectifs du moineau domestique).

Les problèmes de résilience concernent l’extinction totale de certaines espèces emblématiques ou inconnues du public, sous l’effet de la modification des milieux par des perturbations abiotiques ou par prédation, parasitisme, compétition avec une espèce nouvellement introduite ou migrante. Ils concernent aussi les agrosystèmes productifs, en particulier pour leur protection contre les ravageurs. Des méthodes d’intervention fondées sur une approche multiéchelle et écologique peuvent être envisagées et parfois développées avec succès. Par exemple, l’aménagement d’une hétérogénéité spatiale bien conçue peut permettre de maintenir des populations d’auxiliaires à un niveau suffisant pour empêcher les explosions démographiques des populations de ravageurs (réserves et maillages, bandes herbeuses de bord de champ, haies). Cet exemple illustre la nécessité de concilier une connaissance fine de l’écologie des espèces concernées avec l’ensemble des pratiques humaines dans un contexte économique.

1.2.1.5. Géophysique

L’instabilité gravitaire est un processus géomorphologique impliquant des mouvements de roches le long d’une pente topographique sous l’effet de la pesanteur. Elle implique différents processus comme la solifluction, les glissements de terrain, les écoulements de débris, les avalanches, les effondrements… Ses dimensions peuvent varier de plusieurs ordres de grandeur et elle peut se produire sur Terre mais également sur d’autres planètes comme Mars.
L’instabilité apparaît lorsque la composante tangentielle de la force de pesanteur dépasse la capacité de résistance des matériaux constituant le sol, ce qui provoque une rupture. La résilience est donc contrôlée par la cohésion du matériau, la friction interne et l’état de contrainte. Les facteurs pouvant produire la rupture sont par exemple le changement de l’angle de pente suite à l’érosion, la surrection, les séismes, les éruptions volcanique, le changement de teneur en eau (modification de la pression de pore).
L’avalanche peut être précédée de déstabilisations locales et une mesure des modifications de réseaux de forces peut donner des informations sur l’imminence du phénomène critique.
Les glissements gravitaires constituent un processus très fréquent dans les zones de relief, pouvant avoir des effets considérables sur la morphologie, et entraînant un risque géologique important pour les régions voisines. L’étude des processus d’initiation et de propagation des grands glissements déclenchés par crise climatique, séisme ou activité volcanique, nécessite une approche

pluridisciplinaire qui combine l’observation détaillée des zones de glissement sur le terrain (cartographie, interférométrie d’images radar (InSar), etc), l’analyse des propriétés physiques et mécaniques des roches superficielles altérées ainsi que la modélisation du processus de propagation de l’instabilité, en utilisant des milieux modèles composés de particules avec ou sans cohésion.

1.2.1.6. Economie-finance

La stabilité du système économique et financier est un enjeu capital pour le devenir de notre société. Cependant, les produits financiers ne sont actuellement pas pensés dans un souci de stabilité structurelle du marché. La faute vient en partie de la non-sensibilisation des acteurs du système à la problématique de l’impact multi-échelle (phénomène de cascades) dans un système multi-agents. Cette sensibilisation nécessite le développement d’outils d’analyse structurelle (robustesse, évolvabilié, résilience) alors que les méthodes actuelles les plus performantes sont essentiellement basées sur l’analyse statistique des pools de données passées extrêmement partielles (dans l’espace et le temps) et négligeant les coûts socio-économiques collatéraux laissées à la charge des infrastructures d’états. Ces analyses sont alors utilisées pour développer des outils de modélisation stochastique pensés pour optimiser une rentabilité à une échelle très locale.
Dans un souci de normalisation des marchés, il est nécessaire de développer des outils financiers originaux qui favorisent l’innovation à l’échelle de l’individu et qui renforce la stabilité structurelle du système ainsi que sa capacité à évoluer vers de nouvelles problématiques prenant en compte l’ensemble de la population mondiale. Le problème est très similaire à la problématique de stabilité géopolitique mondiale tout en favorisant la diversité des cultures.

Une des problématiques cruciales à étudier, et pour laquelle l’ensemble des acteurs du monde financier, mais aussi l’ensemble de la société, doit être sensibilisé, concerne la stabilité du système sur des échelles de temps longs. Il est temps de finir de penser que la fin d’une crise annonce une nouvelle crise.

Le problème essentiel est de réconcilier la dynamique à courts termes des échanges financiers, et plus généralement des échanges économiques, avec une croissance économique stable favorisant l’épanouissement de l’ensemble des individus. Ceci ne peut se faire qu’à travers une modélisation multi-échelle tant du point de vue temporel que du point de vue de l’ensemble des acteurs du monde économique.

Pour résumer, la normalisation de l’économie et de la finance doit être pensée à travers un systèmes intégré où les aspects multi-échelles et multi-factoriels doivent être étudiés avec des outils de la science des systèmes complexes, et plus particulièrement des systèmes dynamiques. Le contrôle des risques systémiques pourra être alors envisagé, ce qui n’est pas possible à l’heure d’aujourd’hui. Nous tendrons alors vers un système permettant l’épanouissement de tous les individus tout en participant à sa stabilité.

1.2.2. Stochastic and multiscale dynamics, instabilities, robustness and evolvability

Hierarchical structures extending over a wide range of space-time scales are ubiquitous in the geosciences, the environment, physics, biology, and socio-economic networks. They are the fundamental structures building up our four-dimensional world’s complexity. Scale invariance, or "scaling" for short, is a powerful mathematical tool for characterising these structures

and inferring properties across scales, instead of dealing with scale-dependent properties. Whereas scaling in time or in space has been investigated in many domains, four-dimensional scaling analysis and modeling are still relatively little used and under-developed, even though it is indispensable for describing, estimating, understanding, simulating and predicting the underlying dynamics. Rather complementary to this approach, random dynamical system theory is also a powerful approach for grasping multiscale dynamics. This theory is likely to provide interesting generalizations of what we have learned from deterministic dynamical systems, particularly in the case of bifurcations. Other important domains of investigation are phase transitions, emerging patterns and behaviours which result when we move up in scale in the complex four-dimensional fields. And finally we can evoke algorithms investigating the High dimensional viability. In the another hand, under a large deviation a system can move from one attraction bassin to another. This capacity of the system to visit several attraction bassin is a caracteristic of it’s evolvability.

1.2.2.1. The cascade paradigm

The idea of structures nested within larger structures, themselves nested within larger structures and so on over a given range of space-time scales has been in physics for some time, and could be traced back to Richardson’s book (Weather Prediction by Numerical Processes, 1922) with his humoristic presentation of the paradigm of cascades. This paradigm became widely used well beyond its original framework of atmospheric turbulence, in such fields as ecology, financial physics or high-energy physics. In a generic manner, a cascade process can be understood as a space-time hierarchy of structures, where interactions with a mother structure are similar in a given manner to those with its daughter structures. This rather corresponds to a cornerstone of multiscale stochastic physics, as well as of complex systems: a system made of its own replicas at different scales.

Cascade models have gradually become well-defined, especially in a scaling
framework, i.e. when daughter interactions are a rescaled version of mother ones. A series of exact or rigorous results have been obtained in this framework. This provides a powerful multifractal toolbox to understand, analyse and simulate extremely variable fields over a wide range of scales, instead of simply at a given scale. Multifractal refers to the fact that these fields can be understood as an embedded infinite hierarchy of fractals, e.g. those supporting field values exceeding a given threshold. These techniques have been applied in many disciplines with apparent success. However, a number of questions about cascade processes remain open. They include: universality classes, generalized notions of scale, extreme values, predictability and more generally their connection with dynamical systems either deterministic-like (e.g. Navier-Stokes equations) or random (those discussed in the next section). It is certainly important to look closely for their connections with phase transitions, emerging patterns and behaviours that are discussed in the corresponding section. Particular emphasis should be placed on space-time analysis and/or simulations, as discussed in the last section on the general question of space-time scaling.

1.2.2.2 Random dynamical systems and stochastic bifurcations

Along with mathematicians’ interest in the effects of noise on dynamical systems, physicists have also paid increasing attention to noise effects in the laboratory and in models. The influence of noise on long-term dynamics often has puzzling non-local effects, and no general theory exists at the present time. In this context, L. Arnold and his "Bremen group" have introduced a highly novel and promising approach. Starting in the late 1980s, this group developed new concepts and tools that deal with very general dynamical systems coupled with stochastic processes. The rapidly growing field of random dynamical systems (RDS) provides key geometrical concepts that are clearly appropriate and useful in the context of stochastic modeling.

This geometrically-oriented approach uses ergodic and measure theory in an ingenious manner. Instead of dealing with a phase space S, it extends this notion to a probability bundle, S x probability space, where each fiber represents a realization of the noise. This external noise is parametrized by time through the so-called measure-preserving driving system. This driving system simply glues the fibers together so that a genuine notion of flow (cocycle) can be defined. One of the difficulties, even in the case of (deterministic) non-autonomous forcing, is that it is no longer possible to define unambiguously a time-independent forward attractor. This difficulty is overcome using the notion of pullback attractors. Pullback attraction corresponds to the idea that measurements are performed at present time t in an experiment that was started at some time in the remote past, and so we can look at the "attracting invariant state" at time t. These well- defined geometrical objects can be generalized with randomness added to a system and are then called random attractors. Such a random invariant object represents the frozen statistics at time t when "enough" of the previous history is taken into account, and it evolves with time. In particular, it encodes dynamical phenomena related to synchronization and intermittency of random trajectories.

This recent theory presents several great mathematical challenges, and a more complete theory of stochastic bifurcations and normal forms is still under development. As a matter of fact, one can define two different notions of bifurcation. Firstly, there is the notion of P-bifurcation (P for phenomenological) where, roughly speaking, it corresponds to topological changes in the probability density function (PDF). Secondly, there is the notion of D-bifurcation (D for dynamical) where one considers a bifurcation in the Lyapunov spectrum associated with an invariant Markov measure. In other words, we look at a bifurcation of an invariant measure in a very similar way as we look at the stability of a fixed point in a deterministic autonomous dynamical system. D- bifurcations are indeed used to define the concept of stochastic robustness through the notion of stochastic equivalence. The two types of bifurcation may sometimes, but not always be related, and the link between the two is unclear at the present time. The theory of stochastic normal form is also considerably enriched compared to the deterministic one but is still incomplete and more difficult to establish. Needless to say, bifurcation theory might be applied to partial differential equations (PDEs) but even proving the existence of a random attractor may appear very difficult.

1.2.2.3 Phase transitions, emerging patterns and behaviour

Phase transitions are usually associated with the emergence of patterns and non-trivial collective behaviour, for instance due to the divergence of a correlation length and the presence of singularity in the partition function (free energy) or potential. Such transitions uncovers the traditional transitions of mater from solid-liquid-gas phases, transition to turbulent flow in hydrodynamic, and is now an almost ubiquitously present phenomena in complex systems models, such that it has become paradigmatic to describe living systems as lying “between crystal and smoke” (Atlan, 1979).
Ferromagnetic materials has been an extensively studied for their phase transition, when the temperature decreases under a given critical value, it goes from a non-magnetised disordered phase to a magnetisation-ordered phase. It has motivated many simplified modelling in statistical mechanic such as the Ising model in various dimensions, the Potts model, and spin glasses model where the long range frustrating interaction give rise to many metastables states that imposes a slow “aging” of the glass (Sherrington and Kirkpatrick, 1975). Recent efforts of formalisation of those frustrated state have leaded to the study of K-Sat problems (problems of random Boolean constraint satisfaction) that combine computational, belief propagation and statistical mechanic approaches (Mézard, 2003).

The consideration of finite size systems has the important consequence of transforming the discontinuous heavyside transition function into a smooth continuous as a function of the order parameter.
Beyond the classical example of glassy systems, these features have been recently observed in shear flows, where the transition from laminar to turbulence occurs discontinuously through gradual increasing of the Reynolds Number. In such a case, the order parameter is the volume fraction occupied by the turbulence as it slowly organizes into a band pattern, with a wavelength that is large with respect to any characteristic size of the system.

The present challenge is to build a simple stochastic model which can account for the emerging structures generated by the dynamic and their dependence on the forcing. A more fundamental long-term aim is to catch both glassy and turbulent flow dynamics under such formalism. A novel approach consists in considering a population of agents which have their own dynamics and characterizing their collective behaviour at different observation scales through gradual aggregation.

The simplest way to aggregate agents is to sum an increasing number of them. When they are identically distributed and independent random variables, the law of large numbers and the central limit theorem apply and the resulting collective evolution is analogous to the individual one. The result does not change when the dependence is short range; this would be the equivalent of the laminar phase. As the spatial dependence becomes long range, the nature of the collective behaviour changes (lower rate of convergence, different limit process). By playing with the interaction range, one is therefore able to induce a phase transition.

Another kind of transition is observable if one allows for non-linear effects in the aggregation process. In such a case, the resulting process may be short-range or long-range dependent, even if the dynamics of the individual are simple (autoregressive short-range dependence in space and time).

A first task is to develop such aggregation methods for simple individual models and to investigate the joint effect of dependence and aggregation process. Examples of applications include geophysical problems, hydrology and hydrography, integrative biology and cognition.

Catastrophe theory is another popular approach dealing with singularities in the dynamic and relating them even more directly to shapes transformation. In 4 parameters continuous dynamical system (with a slow-fast coupling that merely remains statistical bath), Thom could show the existence of seven prototypal critical points of the potential function having sophisticated bifurcation geometry and simple polynomial expansions which he called the elementary catastrophes (Thom, 1977). Arnold further revealed the connection of those elementary catastrophes with the simple Lie groups (Arnold, 1992). The generalised catastrophe theory, in arbitrary dimension, is a still open field of research, Thom gave preliminary sketch of the description of the embryogenesis stages using catastrophes that still have to be developed, and catastrophe theory has found many application in a broad range of fields (example: the shape modification of red blood cells as a function of the blood’s viscosity, Rioual & al, 2004).

Renormalisation techniques have also proved to be a powerful tool in the study of phase transitions and singular points analysis. They take their origin in electrodynamic, where the singularity in this context is due to by the self interaction with 1/r2 field, that latter manifested in quantum electrodynamic as loops in Feynman’s diagrams. The Renormalisation group was then

introduced by Wilson and could explained both critical phenomena in classical statistical mechanics and quantum field theory on the same topological ground (Wilson & Kogut, 1974). Following Wilson, the renormalisation flow was shown to be the inverse of heat flow (Pochlanski). Such ideas both of scaling-clustering and of time-reversed renormalisation flow, has been extensively exploited by the team of Makse & Song who applied a renormalisation like procedure to various biological and social networks. Their “renormalisation” procedure could unify both scale-free and small-world networks on a same scaling coefficient measure (Song & Makse, 2006). Today the renormalisation is still an ongoing active subject of mathematical research since it is obviously linked to at least two central problems, the zeros of the Riemann Zeta function (which can be considered as a partition function), And the solution of the 3-D Euler and Navier-stokes equations (Frisch & al, 2008). For example, the recent breakthrough of Perelman on the Poincaré’s conjecture (Perelman, 2002) and notably the singularity removing “surgeries” on the Ricci heat flow may provide some trails to investigate intermittency in 3-D hydrodynamic.

1.2.2.4. Space-time scaling in physics and biology

Empirical background

Systems displaying a hierarchy of structures on a wide range of time and space scales occur almost everywhere in physics and biology. In the geosciences, ‘Stommel diagrams’ displaying life time vs. size of structures (usually in log-log plots) span several orders of magnitude, but a satisfactory explanation of this state of affairs is missing. In biology, metagenomics have recently been developed to explore microbial biodiversity and evolution by mining urban waste to improve our knowledge of the “tree of life,” but the time structure is far from being reliably estimated. In the area of computer and social networks, the web is the best-known example, but scale-invariant and small-world networks are encountered everywhere; in this case researchers have begun to explore the temporal aspects of such networks, but the connection between time evolution and spatial structure requires further attention.

State of the art

a) Taylor’s hypothesis of frozen turbulence (1935), also used in hydrology, is presumably the simplest transformation of time scaling into space scaling. This is obtained by supposing that the system is advected with a characteristic velocity.

b) In other cases, the connection between space and time scaling is less evident. As already pointed out, this is the case for computer networks: (space) network topology and (time) computer traffic have been separately studied up to now. Morphogenesis is a research domain that requires the development of space-time scaling analysis.

c) More recently, the comparison of scaling in time vs. scaling in space has been used to determine a scaling time-space anisotropy exponent, also often called a dynamical exponent.

What is at stake

a) Why do we need to achieve space-time analysis/modeling?
Basically there is no way to understand dynamics without space and time. For instance, whereas earlier studies of chromosomes were performed only along 1D DNA positions, 4D scaling analysis is required to understand the connection between the chromosome structure and the transcription process.

b) Data analysis

We need to further develop methodologies:
• to perform joint time-space multiscale analysis either for exploratory analysis or for parameter and uncertainty estimations,
• to extract information from heterogeneous and scarce data,
• to carry out 4-D data assimilation taking better account of the multiscale variability of the observed fields,
• for dynamical models in data mining.

c) Modeling and simulations
We also need to further develop methodologies:
• to select the appropriate representation space (e.g. wavelets), • to define parsimonious and efficient generators,
• to implement stochastic subgrid-scale parametrizations.

1.2.2.5 Algorithmes permettant l’investigation d’un espace de dimension élevé

Des analyse géométrique de la viabilité ou d’un bassin de capture basé sur le calcul d’une part de la distance à la frontière et d’autre part de la projection sur cette frontière, permettent de calculer dans un espace de dimension élevée la robustesse et la capacité de résilience du système étudié. Basés sur des algorithmes optimaux pour la Distance Euclidienne transform (EDT) dans une dimension arbitraire développés pour des mathématiques morphologiques et l’analyse d’image, un de ces algorithmes (Coeurjolly, 2007) a été adapté pour proposer des méthodes et des algorithmes qui effectuent une analyse géométrique de la viabilité ou d’un bassin de capture. Particulièrement cet algorithme peut évaluer la résilience d’un système dynamique contrôlé : sa capacité pour maintenir des propriétés données (Martin 2004). Dans ce contexte, la définition de la résilience est basée sur la distance à la frontière du noyau de la viabilité le long des trajectoires possibles. La complexité de cet algorithme est de O(d.Nd), ce qui a permis d’approcher des problèmes à 8 dimensions et un nombre de points supérieur à 10^8 point. Pour le moment cet algorithme est limité uniquement par les ressources matérielles d’où la nécessité d’utilisation de machine très puissantes en calcul.

1.2.2.6. Déviation massive et plusieurs bassins attracteur

Considérons un système dynamique qui évolue de manière déterministe dans le temps. Son évolution est représentée par une trajectoire dans l’espace d’états. Au bout d’un temps très longs, le système atteint une sorte d’état d’équilibre, i.e., il est attiré vers une zone particulière de l’espace où il restera indéfiniment et qu’il parcourt de façon « régulière ». Cet « attracteur » peut être un point, une courbe ou un ensemble topologique très complexe. En général l’attracteur qui piège le système dépend du point de départ: l’espace est ainsi partitionné en différents bassins d’attractions, un bassin d’attraction correspondant aux conditions initiales qui amènent le système vers un attracteur précis. La théorie de Freindlin-Wentzell étudie ce qui se passe lorsque le système précèdent est soumis à de petites perturbations aléatoires browniennes. Sur des intervalles de temps finis, le système perturbé se comporte avec une très grande probabilité comme le système déterministe. Cependant, la situation change radicalement sur de grands intervalles de temps: les perturbations stochastiques vont permettre au système de s’échapper de n’importe quel bassin d’attraction. Un tel événement de passage d’un attracteur à l’autre est très est très rare car il ne peut se produire que grâce aux petites perturbations aléatoires: cela s’appelle une grande déviation. La théorie de Freindlin-Wentzell étudie la situation limite lorsque l’intensité des perturbations tend vers zéro. Les probabilités des sauts entre attracteurs s’évanouissent exponentiellement vite et il est possible de décrire le plus

probable de ces événements très rares, par exemple en caractérisant les trajectoires optimales permettant au système de transiter d’un attracteur à un autre et en quantifiant l’énergie de perturbation nécessaire pour réaliser une telle transition (Cerf, 2000).

1.2.3. Ressources et planning

La recherche sur ce thème transversal, est organisée autour d’appel d’offres qui répartiront les budgets alloués. Le budget global sera à répartir sur des appels d’offres bi-annuels et les ressources matériels (locaux, ressources computationelles). Le rôle de cette section est notamment d’injecter les experts traditionnellement étiquetés comme issu de la recherche fondamentale mathématique et physique au plus près des travaux de modélisations et d’expérimentations des systèmes sociaux et vivants. Aussi, il sera porté une attention toute particulière à ce que ces appels d’offres soient adressés et relayés, non seulement aux organismes de recherches travaillant déja sur ces thématiques transversales ou organismes de recherche appliquée type INRIA, mais aussi aux instituts de recherche plus "éloignés" des mathématiques et physique fondamentales. Il s’agit ni plus ni moins de réunir une partie des initiatives déjà existantes sur ce thème et de mettre en oeuvre, de confronter, et récolter le fruit de l’excellence du patrimoine français dans les domaines des systèmes dynamiques et physique statistique directement au niveau des grands objets détaillés ci-dessus.

1.2.3.1. Appels d’offres à la communauté

Ces appels d’offres proposeront de financer des postes chercheurs invité résidant (cf. 4.2), des post-doctorants, doctorants et des postes ingénieurs. Ces postes pourront être de deux types: postes résidant dans la section du département de l’université, et postes délocalisés, résidant dans les équipes d’origine. Chaque chercheur financé sera chargé d’écrire ou de poursuivre l’écriture d’un cours s’inscrivant dans le cursus de l’Université Numérique. Nous proposons ci-dessous une première liste d’équipes qui sont concernées possédant une expertise reconnue sur ce sujet et dont la majorité fait déjà parti du réseau des systèmes complexes (les autres, seront contactés lors des appels d’offre). Les équipes participantes proposées, regroupées selon les 5 catégories précédentes (plus une classe générique) sont:

Modèles génériques:

  • Système dynamique : Hugues Chaté (IRAMIS, CEA) , Francesco Ginelli (ISC-PIF), Halina Frankowska (paris 6, mutabilité), Chaouqi Misbah (Université Joseph Fourier, Grenoble), A. Chenciner (géométrie et dynamique, Paris 7, à consulter), Jean-Christophe Yoccoz (laboratoire de mathématiques d’Orsay, Paris 11, à consulter), David Ruelle (IHES, à consulter), Daniel Schertzer (ENCP,CEREVE).
  • Topologie : Daniel Bennequin (géométrie et dynamique, Paris 7, à consulter), Mikaïl Gromov (IHES, à consulter),
  • Data Assimilation (Physique) : Bernard Legras (LMD, ENS), Olivier Tallagrand (LMD, ENS), Michael Ghil (CERES-ERTI, ENS), Guillaume Deffuant (CEMAGREF, Clermont).
  • Physique statistique: Olivier martin (LPTMS, ENS).
  • Statistique & probabilité : Michèle Thieulen (Laboratoire de Probabilités et Modèles

    Aléatoires, paris 6, à consulter).

  • Viabilité et résilience : Sophie Martin (CEMAGREF), Isabelle Alvarez (CEMAGREF,

    LIP6).

  • Informatique : Oded Maler (VERIMAG, CNRS), Joseph Sifakis (IMAG, CNRS)
  • Robotique :Pierre Bessiere (E-MOTION, CNRS), Claudine Schwartz (Université Joseph

Fourier, Grenoble), Michael Blum (IMAG, CNRS)

Droit et Politiques publiques: Danièle Bourcier (CERSA, CNRS)

Santé médecine biologie:

  • Morphogenèse des plantes : Vitaly Volpert (MAPLY, Lyon1), Daniel Barthelemy (AMAP, INRA).
  • Génétique végétale : Alain Charcosset (Génétique Quantitative et Méthodologie de la Sélection, INRA)
  • Morphogenèse animale et Veillissement: Camille Beslon (TimC Grenoble). Christophe Godin (AMAP,INRA-INRIA).
  • Société d’insectes : Guy Theraulaz (Centre de Recherches sur la Cognition Animale, CNRS). Physiome : Jean-Pierre Françoise (Laboratoire J.-L. Lions, Paris 6), Jean-Louis Coatrieux (INSERM, Rennes)
  • Psychologie et psychopathologie : Yves Burnod (INSERM), Zoe Kapula (CNRS).

    Environnement et Développement durable

  • Géophysique : Philippe Davy (Géosciences Rennes, CNRS), Renaud Delannay (Groupe Matière Condensée et Matériaux, Université de Rennes).
  • Climatologie : Michael Ghil (CERES-ERTI, ENS), Eric Simonet (INLN, CNRS).
  • Ecologie: Pierre Auger (IRD-Bondy), Michel De Lara (CERMICS, Ponts), Gabriel Lang

    (AgroParisTech).

  • Géographie : Noel Bonneuil (CAMS EHESS).
  • Sociologie: Camille Roth (CAMS, EHESS), Nils Ferrand (LISC, CEMAGREF), David

    Chavalarias (CREA,Polytechnique) Jean-Phillipe Cointet (CREA,Polytechnique).

  • Intelligence territoriale : Denise Pumain (Laboratoire Géographie-cités, CNRS).

    Optimisation des procédés dans l’industrie:
    Transformations biologiques et alimentaires : Nathalie Perrot (INRA-AgroParisTech), Salma Mesmoudi (UMR Grignon GMPA axe Malices, Gilles Trystram (UMR GENIAL, INRA- CEMAGREF).

    · Economie-finance: Jean-Pierre Aubin (CREA,Polytechnique), Nicolas Seube (ENSIETA), Nizar Touzi (Centre de Mathématiques Appliquées, Polytechnique, à consulter).

    1.2.3.2. Ressources Immobilières

    Le décloisonnement des recherches et l’interaction bijective des domaines théoriques et appliqués nécessite, au-delà des collaborations classiques à distance, un rapprochement physique et continu dans le temps des communautés. Cette section devra donc être dotée de locaux au sein du département. Les chercheurs résidents ou invités seront bien entendu associés et directement fléchés à une plusieurs grandes-thématiques objets de l’université numériques, et seront investi d’une charge d’enseignement et de production insérée dans la médiathèque de cours évolutive. La surface estimée est de 12m2 par chercheur résident.

    1.2.3.3. Ressources computationnelles

    Une partie de la section sera dédiée à la mise en service d’outils logiciels d’estimation, de prédiction et de visualisation de la dynamique, utilisable et mis à disposition des communautés. Ceux-ci seront développés en concertation avec la section intégration dans les efforts de modèles

intégrés, et favorisera la création de briques génériques, toujours dans le cadre des logiciels libres. Pour initier le travail, nous disposons des résultats préétablis de plusieurs développements dans ce domaine:

  • Morphex (Lyon) : stimulation de tout type de système complexe. Palteforme COSMO (Libre).
  • VPH : (INRIA) : toolbox physiome.
  • Software Optimisation évolutionnaire multi-objectif parallèle (Salma Mesmoudi)
  • MUSCA Software.
  • UMVF (université médicale virtuelle francophone)
  • Workflow sur grille ou cluster UNC (Romain Reuillon, ISCPIF).
  • Drug Dicovery : (Bernard Pau)
  • Proget WISDOM (Vincent Breton)

    En concertation avec les développeurs originels, ces logiciels incorporeront à la fois les requêtes spécifiques issues des utilisateurs ainsi que les avancements algorithmiques proposés. Ce travail sera assuré par les postes ingénieur de recherche requis en 3.1.
    Les ressources matérielles de calcul seront mutualisées et assurées par des grilles de stockage et grilles de calcul, en concertation avec la section intégration des modèles.

    1.2.4. Proposition de cours

    Les enseignements numériques seront déclinés en deux grandes classes : cours générique (outils de base) & cours exemples (outils spécifiques)

    1.2.4.1. Curriculum Juridique

    Nécessité dans les cours de Licence de droit d’introduire des cours de base sur la théorie des graphes ou les réseaux de neurones avec les applications au droit.
    Compilation des travaux qui ont été faits sur Droit et Intelligence artificielle (Conférences ICAIL) et l’ingénierie du droit (Conférences JURIX).

    Contenu des cours :
    Qu’est ce qu’un système ?
    Histoire de la science des systèmes
    _ De la théorie des systèmes à l’intelligence artificielle et au connexionnisme
    _ L’intérêt de l’étude du droit comme système
    _ La rédaction des lois et les effets des lois
    Etudes de cas
    Modèles de la décision administrative et judiciaire : spécificités, contraintes techniques et procédurales

    1.2.4.2. Curriculum modèle robustesse résilience et évolvabilité

    Base mathématique système dynamique

  • Logique et informatiques : Logique classique ZFC, théorie ensembles, et Booléen, introduction aux catégories, logique constructiviste, Topos, Théorie de la démonstration.
  • Topologie : Homologie, Cohomologie et Homotopie, dualité de Poincaré, Théorèmes des Points fixes. K-théorie index d’Atyah-Singer, invariants de Gromov-Witten, supersymétrie.

Dimension d’Hausdorff.

  • Géométrie : Géométrie euclidienne, hyperbolique et elliptique, Revêtements, métrique et

    courbures. Géométrie projective, géométrie différentielle, Géométrie symétrique,

    transformation conformes et inversions du cercle, Géométrie symplectique.

  • Algèbre : théorie de groupe, extensions et correspondance de Galois, Anneaux et corps,

    algèbres de Lie, Algèbres normés. Fonctions Zetas, fonctions L. Groupe de Renormalisation.

  • Analyse complexe : pôles, résidus, ensemble de Julia ensemble de Fatou.
  • Mesure et probabilité : Théorie de Lebesgue et Borel, axiomatique de Kolmogorov.

    Distributions. Processus gaussien, de Levy. Théorèmes Centraux Limites. Martingales.

    Processus Markoviens. Agrégation. Large déviations.

  • Dynamique hyperbolique – Théorie Ergodique : Exposant de Lyapunov, théorème de

    Récurrence, théorème ergodique de Birkhoff, Von Neumann et d’Oseledets. Théorie de

    Morse, Axiom A, Théorie de Pesin. Mesure SRB. Hyperbolicité partielle.

  • Dynamique elliptique – Théorie KAM.

    Base physique théorique

  • Physique classique : Gallilé, Kepler, Newton, Hamilton, Lagrange, Théorème de Noether.
  • Physique relativiste : équations de Maxwell, invariance de Lorentz, Groupe de Poincaré.

    Covariance et principe d’équivalence. Tenseurs, spineurs, twisteurs et algèbre de Clifford.

  • Physique quantique : Equation de Schrödinger, Operateurs algébre de Von Neumann,

    Espaces d’Hilbert, Dualité onde-corpuscule et non-commutativité. Superposition. Mesure

    quantique. Principe d’exclusion. Statistique de Fermi-dirac et de Bose-Einstein.

  • Quantique des Champs : Equation de Dirac, Intégrale de chemin, fonction de Green.

    Renormalisation de Wilson. Dualité boson-fermion. Invariance de Jauge. Supersymétrie.

  • Physique statistique: Théorème H, Mouvement brownien, fonction de corrélation, équations

    de Langevin, Chaos de Wiener, Intégrales d’Ito et Stratonovitch. Théorèmes de fluctuation hors équilibre. Réciprocité d’Onsager. Modèle d’Ising. Processus d’exclusion. Probléme SAT. Renormalisation.

  • Hydrodynamique : Equation d’Euler, Navier-stokes, turbulence, théorie K41, Spectre Multifractal, Champs de Gaussiennes. Intermittence.
  • Système Granulaires
  • Systèmes collectifs

     

     

     

     

     

     

    References

    Arnold, V. I., Catastrophe Theory, 3rd ed. Berlin: Springer-Verlag, 1992.

    Atlan, H., Entre le cristal et la fumée. Seuil, Paris, 1979.

    Aubin J.-P., Viability theory, Birkhäuser, (1991).

    Aubin J.-P., Bayen A. Saint-Pierre P. Applied Viability Theory. Regulation of Viable and Optimal Evolutions, Springer-Verlag (2010).

    Baconnier P., Benchetrit G., Demongeot J., Pham Dinh T., Simulation of the entrainment of the respiratory rhythm by two conceptually different models. Lecture Notes in Biomaths, 49, 2-16 (1983).

Barreira L. and Pesin Y., Non uniform Hyperbolicity: Dynamics of Systems with Nonzero Lyapunov Exponents. Cambridge University Press, (2007).

Cerf R., Pisztora A., On the Wulff crystal in the Ising model, Ann. Probab., 28 n° 3, 947- 1017, (2000).

Cerf, R., Large deviations for three dimensional supercritical percolation. Astérisque 267, (2000).

Challet D., Sorin S., Yaari, G., The universal shape of economic recession and recovery after a shock, Economics – The Open-Access, Open-Assessment E-Journal, Kiel Institute for the World Economy, vol. 3(36), pages 1-24, 2009.

Coeurjolly D., and Montanvert A., Optimal Separable Algorithms to Compute the Reverse Euclidean Distance Transformation and Discrete Medial Axis in Arbitrary Dimension. IEEE Transactions on Pattern Analysis and Machine Intelligence, 29(3):437-448, 2007.

Conseil Constitutionnel, Décision n° 2005-530 DC du 29 décembre 2005 (2005), online URL: http://www.conseil-constitutionnel.fr/conseil-constitutionnel/francais/les- decisions/acces-par-date/decisions-depuis-1959/2005/2005-530-dc/decision-n-2005-530-dc- du-29-decembre-2005.975.html

Eckmann J. -P., Ruelle D., Ergodic theory of chaos and strange attractors, Rev. Mod. Phys. 57, 617–656 (1985).

Frisch, U., Matsumoto, T.and Bec, J., Singularities of Euler flow? Not out of the blue!, J. Stat. Phys. (2003).

Ginelli F., Poggi P., Turchi A., Chaté H., Livi R., Politi A., Characterizing dynamics with covariant Lyapunov vectors, Phys Rev Lett 99, 130601 (2007).

Martin.S., 2004. The cost of restoration as a way of defining resilience: a viability approach applied to a model of lake eutrophication. Ecology and Society 9(2): 8. online URL: http://www.ecologyandsociety.org/vol9/iss2/art8/

Mesmoudi S., Alvarez I., Martin S., Sicard M., Wuillemin P.-H., Geometric Analysis of a Capture Basin, Application to cheese ripening process, ECCS 2009.

Mézard M., Passing messages between disciplines, Science 301(2003)1686.

Perelman, G., The entropy formula for the Ricci flow and its geometric applications, arXiv:math/0211159v1 2002.

Pham Dinh T., Demongeot J., Baconnier P., Benchetrit G., Simulation of a biological oscillator: the respiratory rhythm. J. Theor. Biol., 103, 113-132 (1983).

Rioual, F., Biben T., and Misbah C., Analytical analysis of a vesicle tumbling under a shear flow, Phys. Rev. E. 69, 061914 (2004).

Song C., Havlin, S. &. Makse, H., Self-similarity of complex networks. Nature 433, 392-

395 (2005).
Sherrington D., Kirkpatrick S., Phys. Rev. Lett. 35, 1792 (1975)
Thom, R., Stabilité structurelle et morphogénèse, Interédition, Paris, 1977

Wilson, K. G. & Kogut, J., The renormalisation group and the e-expansion. Physics reports 12 N°2 75-200 , 1974.

Theory and Measure of Networks

Reporter

Jean-Baptiste Rouquier Contributors
Cyril Bertelle Jean-Philippe Cointet Jean-Pierre Gaudin Damien Olivier Matthieu Latapy Lionel Tabourier

Keywords

Complex networks, Metrology, Hierarchical clustering, Communities, Graphs, Dynamics, Robustness, Partial data, Contextual data, Diffusion processes.

Introduction

Technology, society and nature produce data at an ever increasing rate, and part of this data can be modeled as graphs. In many fields, the graph point of view sheds light complementary to the specialized analysis proper to each field. The complex network approach is a way to work on the relational structure characterizing most complex systems.

In order to define the boundaries of the complex network domain, we suggest the three following criteria: this domain deals with graphs that are:
built from observation data
sufficiently large to allow statistical analysis
evolving mainly by local mechanisms

Much progress has been done during recent years on this specific area, revealing in particular some features common to many networks from various fields (existence of a giant connected component, short distance between nodes, heterogeneous degree distribution, tendency to share common neighbours etc).

Beyond these characteristics, what are the current challenges of complex networks? Our aim is to identify transverse problems from various fields, or challenges asking for general methods. Networks are considered here not only as a tool to study complex systems, but also as an object of study in itself.

1.1.1. Metrology and modeling1.1.1.1. Incomplete, noisy, biased data

In most cases the available data obtained are the result of an intricate measurement protocol which is by nature incomplete and biased.

Data incompleteness can be due to various reasons: privacy concerns, retention strategies… But beyond that, in many cases a massive collection is too costly to be implemented and sometimes even irrelevant.

Bias and noise are intrinsic features of most available data collection procedures. The example of the Internet is typical: routing links are discovered with very heterogeneous probability and noise is produced by phenomena such as load-balancing which creates fake links.

An important challenge for the field consists in overcoming these issues through innovative methods and tools for data collection. In particular, the barrier of cost or feasibility may be reduced by methods that rely on embedded systems such as mobile phones, devices equipped with RFID chips (like Navigo or Oyster), software offered to the user, etc.

Three main directions seem relevant to deal with such situations:
* Use of artificial models to replace missing data, smooth noise, or detect inconsistencies; * Rely on other sources to fill gaps or cross-check the measurements
* Focus on specific meaningful properties which bias can be estimated and even corrected using the knowledge we have of the collection process.

1.1.1.2. Formalism enrichment

The network formalism is based on a strictly relational approach (and homogeneous in terms of nodes) which needs to be driven closer to actual systems.

Need for new contexts
This includes geographical, demography, economics and politics approaches. For example, how to deal with data concerning the involvement of partners in an interacting group? Taking that into account calls for an enriched analysis of relational structures, and vice versa: the network approach sheds light on these contexts.

These issues request important modeling efforts, to control what information is lost in the modeling process which is necessarily simplifying – e.g. by approximating the economy of a city population by some flows such as water and money.

Tools adaptation
We therefore must develop procedures capable of taking into account more detailed information, beyond the already wide-spread case of directed and / or weighted networks:

* The overlay of several network (multi-network)
* The semantic of links (e.g. text content attached to an exchange of emails)
* Heterogeneous nodes (bipartite networks if there are two types of node, but possibly more)

1.1.2. Analyzing networks: from statics to dynamics

1.1.2.1 Brief overview of past and present work

During the last decade, important efforts have been dedicated to seize the properties of static networks:

* generation models fitting real networks (e.g. Goldenberg, Zheng, Fienberg, Airoldi, 2009) * promising frameworks of visualization software (Gephi, Tulip…)
* many parameters to quantify their topology and efficient algorithms to compute them: at a

local scale (patterns, node importance) as well as at a global one (diameter, centrality…), see da Costa Rodrigues Travieso Villas Boas 2007

* algorithms to discern structure:
– community detection methods to describe their organization (see Fortunato 2010) – small world structure and navigability
– hierarchical clustering (like a dendrogram).

Those concepts help to address the need to classify networks. A classic distinction is between natural and man-made networks. There is a tendency towards assortativity in the former, where links derive from affinity, while in the latter, disassortativity is often observed and external constraints have an influence (like public policy on business networks). But this distinction about the origin of data has limits in its operative strength, other classifications should be looked for. Indeed, we now need discriminating properties to classify networks, and ways to relate networks across fields, to ease the porting of methods, to gain insights and intuition from other fields

1.2.1.2. Measuring and analysing the dynamics

Yet there is now a great interest in taking into account the dynamical aspects of these large networks (sometimes also called “diachronic” or “longitudinal” data), as interaction patterns evolve through time. This induces changes both on and of the network itself, revealing events which occur through its life and explaining its structure. In the long term such study would provide control on trajectories of the structure by local or global actions on the network (like a public policy). If those events are incidents with negative consequences, it is important to provide ways to make the network robust against accidents and resilient to quickly recover from them.
Collecting dynamical data induces new metrological problems that have to be tackled: see the example of the Internet infrastructure (network routers and servers) whose dynamics is faster than the measurement process.

A well-spread point of view consists in analyzing the dynamical network as a sequence of static snapshots. This involves adapting the existing tools to a larger amount of data, but beyond that, this method is not sufficient to grasp comprehensively the dynamics of the network: we need to propose intrinsically dynamical notions that would take into account its evolving nature.

1.2.1.3. Evolution of the structure

Understanding the multiscale organization (i.e. the hierarchy) is crucial to understand both how large scale emerges from local interactions (bottom-up) and conversely how global institutions and existing structure influence individual entities (top-down).

Community structure evolution is a central issue in characterizing the organization of networks: how to adapt the efficient tools that have been proposed to describe how a community appears, dies, splits or merges? Or is it possible to locate community cores which would be particularly stable through time? To discern steps during the evolution?

One may also cite event detection, link prediction, and others (many of which still being to invent).

1.2.1.4. Diffusion processes on networks

Another aspect of the dynamics consists in studying phenomena occurring on the network and in particular spreading processes. From a virus epidemic to a packet of information transferred through peer-to-peer exchanges, these problems can be described as diffusion processes on a complex network.

Still important efforts must be realized in order to propose efficient estimates of real spreading phenomena characteristics:

* the records of diffusion processes are scarce, often noisy and relies on unverifiable hypotheses, but recent data collection campaigns promise imminent progresses in this field

* spreading models are mostly based on intuition and rarely cross-checked with real-world data

Then we will be able to study obvious links with the previous section: an evolving structure affects the diffusion phenomena, while agents on a network can (in some models) affect the network topology (stigmergy).

References

S. Boccaletti, V. Latora, Y. Moreno, M. Chavez, D.U. Hwang. “Complex Networks: Structure and Dynamics”, Physics Reports 424(2006), pp 175-308

Alain Barrat, Mac Barthélemy, Alessandro Vespignani. “Dynamical Proecesses on Complex Networks”, Cambridge University Press, 2008

Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, “A Survey of Statistical Network Models”, 2009

Santo Fortunato, “Community detection in graphs”, 2010

L. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas, “Characterization of Complex Networks: A Survey of measurements”, Advances in Physics 57, 2007