Thématique : Complex Matter

2.2.3. Complex matter

Contributors: Francesco Ginelli (ISC-PIF), Ivan Junier (ISC-PIF)

The roadmap item about complex matter (considered as “Object” of research) can be found here. This document provides the overall structure of the corresponding digital research group and the digital university. It is articulated around the scientific "grands objets" (research fields) and around the teaching implementation (basic and advanced courses).


The field of complex matter is currently driven by a large body of new experiments and theoretical ideas in various branches of physics and biology. The former concerns systems that are composed of many interacting entities, such as those found condensed matter, statistical physics or ultra- cold atomic physics. The latter aims at understanding the functioning of living systems from the single molecule level up to collective behaviors of cells and animals. Beyond their apparent diversity, these systems share a common characteristic: the emergence of complex collective behaviors from the interaction of elementary components. As a consequence, experts in these fields have been developing tools that are particularly well adapted for the multi-scale modelling and the multi-scale analysis of complex systems. Applications to social sciences issues (econophysics, social physics, etc.) are constantly on the rise.

The emergence of self-organized or self-assembled structures, criticality, percolating systems, out- of-equilibrium systems, disordered systems, nonlinear systems, active matter, fluid dynamics and turbulence, are some of the subjects of complex matter that are useful to tackle complex systems encountered in biology and more generally in multi-agent systems. Tools coming from signal analysis and statistical inference are powerful tools to extract the fundamental interactions that are responsible for an emerging behavior at a particular scale.

The goal of a digital research group, combined with a digital university, is to develop a platform that will be useful both to experts in complex matter and scientists/engineers involved in other fields of complexity sciences (from biology to multi-agent systems such as in social systems). The aim is therefore twofold. First, techniques issued from the field of complex matter must be visible to the rest of the complex system community. Due to its high level of formalization, this body of expertise is going to play a crucial role in the development of a quantitative approach to complexity. On the other way around, complex matter experts need to be informed of the challenges coming from the different fields of complex systems so they can be aware of the potentiality of their methods for investigating other fields of knowledge. Research fields (Grands objets)

The following is a list of relevant research fields which contribute to the complex matter paradigma. They have been selected according to their transdisciplinary span and the potential interest of their ideas and tools for the complex system community at large.

Soft condensed matter

The field of soft condensed matter deals with the physics of easily deformable matter such as liquids, colloids, polymers, gels, foams (some part of granular matter may be included) — see

(Chaikin and Lubensky, 1995) for a general presentation of the field. The predominant feature of these systems is that the energy scale of their microscopic dynamics is the thermal energy, which is a pretty low energy scale with respect to the chemical bond energy encountered in solid states. This softness of the interaction and the diversity of the molecules that are at play results on a rich zoology of emerging collective behavior. Development of analytical tools, such as filed theory and the renormalization group (Lesnes, 1998) has allowed a powerful treatment of these systems. Interestingly, collective behaviors encountered in various biological systems (e.g. tissue formation) can be described using such tools.

Equilibrium approaches give hint on the natural trend of a system and may explain many of the self- organizing processes that can be encountered in biological systems, e.g. the formation of bilipidic membrane, the folding of amino acids and nucleic acids, the osmotic stability of a cell. Neverthess, a distinctive feature of biological systems comes from the presence of active processes. Non- equilibrium approaches based on (discrete and continuous) dynamical equation of conservation and out-of-equilibrium fluctuation theories have been developed in order to deal with phenomena such as morphogenesis, active molecular transport (e.g. kinesins, dinesins along microtubules), mitotic separation of chromosomes, cellular division, cellular structure and cellular motility (active polymerization).

Non-equilibrium approaches are also used to investigate the properties of biomolecules at the single molecule level, giving new insights into how proteins and nucleic acids do interact and dynamically process (e.g. the study of the replisome using single molecule techniques) (Ritort, 2006).

Non-equilibrium phase transitions and critical phenomena

The long lasting interest for non-equilibrium statistical physics has recently experienced a noticeable revival through the development of new methods and new areas of applications, especially including complex biological systems which, generically, persist in an out of equilibrium state.

Most recent efforts in this area have been devoted to interacting particle systems (Marro and Dickman, 1999). This broad class of stochastic systems is commonly used to model a wide range of non-equilibrium phenomena (chemical reactions, epidemiology, transport in biological systems, traffic and granular flows, social and economic systems, growth phenomena, etc…). Interacting particle systems can be investigated by a combination of numerical and analytical methods; some of them have even been solved exactly (see e.g. (Derrida, 1998)).

Biophysics has been very useful to understand living matter from the single molecule level up to the collective behavior of interacting cells (e.g. a tissue). At the single molecule level, powerful single-molecule techniques (e.g.fuorescence techniques or micro-twizzers allowing to apply pN forces) together with novel non-equilbirum theories have provided a better understanding of both the dynamics and the thermodynamics properties of complex biomolecules (nucleic acids and amino acids) in vivo. At the multi-cellular level, the advance of powerful visualizing tools (e.g. confocal microscopes) and the use of powerful theoretical tools for describing active matter and collective behavior have provided an unprecedented view of the genesis of living systems, and how they evolve and interact in space and time.
On the other way around, biology has been proved to be extremely useful to physics. Indeed, living systems have evolved for millions of years under very different non-equilibrium conditions. In this regard, the research of the thermal behavior of biological matter have shown an unprecedented richness of details, which are likely to have important consequences in the complex organization of living matter.

From the theoretical side, although the usual formalism of equilibrium statistical physics does not apply to out-of-equilibrium systems, it is now well-known that many of the tools developed in equilibrium settings can also be used out-of-equilibrium. This is in particular the case for the framework of critical behaviour, where concepts such as scale invariance and finite-size scaling have provided (largely numerical) evidence for universality in non-equilibrium systems (Hinrichsen, 2000). It is possible to investigate systems in which the non-equilibrium character stems not from the presence of gradients imposed, for instance, by boundary conditions, but because of the breaking of micro-reversibility – that is to say, time-reversal invariance – at the level of the microscopic dynamics in the bulk.

A large part of the research activity on non-equilibrium statistical physics is also centred on the various phase transitions observed in many contexts. Indeed, many non-equilibrium situations can be mapped onto each other, revealing a degree of universality going well beyond the boundaries of any particular field: for example, self-organized criticality in stochastic (toy) sand piles has been shown to be equivalent to linear interface depinning on random media, as well as to a particular class of absorbing phase transitions in reaction-diffusion models. Another prominent example is the jamming transition which bridges the fields of granular media and glassy materials (Mari et al., 2009). Synchronization and dynamical scaling are, likewise, very general phenomena which can be related to each other and to the general problem of understanding universality out of equilibrium. Non-equilibrium phase transitions and critical phenomena play a key role in many different fields of science, ranging from public health issues (infection spreading) to engineering problems (material failures, crack growth in hetereogeneous materials).
In recent years, the study of infection spreading in human societies has largely relied on concepts developed in mathematics and tout of equilibrium statistical physics (absorbing phase transitions, directed percolation, Levy flights, etc..).

Concerning applications to material sciences, statistical physics offer an approach to material failures and crack propagations in hetereogeneous media which goes beyond the standard continuum elastic theory. In brittle materials, for example, cracks initiate on the weakest elements of the micro- structures. As a result, toughness and life-time display extreme statistics (Weibull law, Gumbel law), the understanding of which requires approaches based on probabilistic theories. Moreover, in hetereogeneous materials crack growth often displays a jerky dynamics, with sudden jumps spanning over a broad range of length-scales. This is also suggested from the acoustic emission accompanying the failure of various materials and – at much larger scale – the seismic activity associated with earthquakes. This intermittent “crackling” dynamics cannot be captured by standard continuum theory. Furthermore, growing cracks create a structure of their own. Such roughness generation has been shown to exhibit universal morphological features, independent of both the material and the loading conditions, reminiscent of interface growth problems. This suggests that some approaches issued from statistical physics may succeed in describing the failure of heterogeneous materials.

Disordered systems

The statistical description of disordered systems is a very active field at the interface between mathematical physics and probability theory. It concerns systems that are either composed of heterogeneous particles, which can be a molecule or an economic agent, or composed of identical interacting particles that see different environments. Spin glasses models are the classical paradigma for these systems (Mézard et al., 1987), and the last 30 years have witnessed a spectacular development of their theoretical understanding. Various powerful methods have been developed to understand the correlations arising in these disordered systems, the associated phase transitions (replica theory, cavity method) and, from a dynamical point of view, how they explore their rugged energy landscape in search of local minima (mode coupling theory, dynamical

heterogeneities approach, fluctuation dissipation out of equilibrium).
These models describe the fundamental properties of a surprising large number of different systems ranging from diluted magnetic materials and glassy systems to neural networks. In recent years it has also been realized that many NP complex combinatorial optimization problems are intimately related to the spin glasses formalism. Spin glasses formalism has been applied to the study of folding processes in biomolecules (proteins, RNA, DNA) and to the formalization of social and economic systems (Challet et al., 2005).

Tools from the field of disordered systems are particularly promising for working out microscopic laws underlying the phenomena we are investigating or experiencing. More precisley, most experiments consist in measuring averaged quantities, correlation functions or consist in observing specific emerging patterns. The question is to find out which entities interact together and to determine the nature of the interaction. A paradigmatic example concerns the functioning of neural networks. In this case, the experiences consist in measuring the (complex) correlation between the spiking activity of neurones. The problem then is to determine the interacting neurons and the nature of their interaction (e.g. repression or activation) (Mézard, 2008).

Collective behavior in active matter systems

Active particles are able to self propel themselves by absorbing energy from their environment and transforming it into movement along a preferred direction. The general understanding of the collective properties of these self-propelled particles is the focus of a fast- increasing body of research in statistical physics and beyond (Ramaswamy, 2010). Under the vocable of active matter, one has observed the emergence of a research community involving physicists, biologists, engineers from IT (ad-hoc networks, Hua, 2009), and from swarm robotics (Sahin, 2005).
The collective coherent motion of a large number of these self propelled particles (generally known as flocking) is indeed an ubiquitous phenomena in nature. Examples of large scale structures emerging in such systems range from bird flocks and fish schools to cells growth, bacteria aggregates and segregation phenomena in a driven monolayer of elongated granular matter.
A cornerstone in the theoretical approach to active matter is the concept of universality, that is the idea that, despite the many individual differences existing between these systems, it could be possible to classify them according to their symmetries and conservation laws, thus delimiting broad universality classes. Minimal models – such as the celebrated Vicsek model (Vicsek et al., 1995) – are representative of these classes, and current research involving physicists and mathematicians is focused on the formulation of the proper continuum description (via Langevin equations) of active matter (Toner, 2005).

In recent years this approach has indeed revealed that active matter yields novel fascinating collective properties. Among these, let us mention the existence of true long-range order in 2D systems with XY symmetry, the ubiquity of giant number fluctuations, long-range correlations, and density segregation in the orientationally-ordered phases of collections of self-propelled particles (Chate 2006, 2008).
A closely related fundamental problem in social animal behavior is understanding how the behavior at the group scale (such as the complex aerial displays of starling flocks) results from the behavior and interactions among individuals (Parrish 1997). Modeling efforts aimed at specific animal groups thus represent the tool to link ibehavioral patterns at individual level to the behavior at group level, and should be performed in close conjunction with experimental or field data (to which models could be confronted). Obviously, this activity is closely related to and benefits from the theoretical knowledge accumulated in studying minimal models.
Furthermore, it is only recently that modern imaging and tracking techniques have started to allow for the study of large groups. In this context, a remarkable set of data is obtained in the context of

the EU FP7 StarFlag project which succeeded in fully reconstructing the 3D positions and velocities of individual birds in large groups of starlings (Ballerini 2008). Further experimental efforts on animal groups include the study of fish schools, sheep herds, insect swarms, etc. Collective phenomena in human crowds and more generally displacements patterns in human are an object of many theoretical and experimental studies too (Helbing, 2000).

Due to the ubiquity of mobile phones, smartphones and other Wi-Fi devices, as much as the ever increasing importance of cloud and diffused computing, the study of networks of mobile and intercommunicating agents is also a fundamental topic in current IT research. The collective motion paradigma is also at the heart of control problems for swarm robotics. In this context, proper behavioural rules at the individual level are studied and devised so that large group of simple robots self organize to perform the needed task at the collective level.

Multi agent models are also at the heart of many studies performed on social insects (ants, termites, bees, etc…). The objective here is the understanding the individual level processes which allow these groups to take decisions at the collective level and coordinate their activities in order to construct complex architectures(Theraulaz 2002). The concept of swarming intelligence is often evoked for these systems.

Of particular importance, finally, are the studies of the collective dynamics in bacterial populations and multicellular organisms, as much as the characterization of the dynamics of cytoskeletal filaments and molecular motors ("active gels") inside a single cell (Voituriez, 2006).

Granular Matter

Systems that are driven by molecular agitation can be modeled using tools that have been developed and tested for more than 100 years. In contrast, granular systems are composed of macroscopic particles that loose energy during interactions via inelastic collisions. Although the apparent simplicity of these systems, the characterization and understanding of their properties is only recent, raising new challenges for characterizing the collective behavior of systems which needs continuous injection of energy in order to evolve (de Gennes, 1999, Mehta, 1994).

The field of static granular matter has generated much activity for what concerns the geometrical characterization of force networks. From the dynamical point of view, driven granular matter tackles different fields such as the problem of avalanches, the characterization of traffic jams, the dynamic of sand piles, the genesis of pattern formation in natural phenomena (e.g. the formation of sand dunes), the mixing and segregation mechanisms in vibrated granular matter (e.g. mixing of aliments in the agro-industry). Theoretical development has revealed links with statistical physics of disordered systems (e.g. the concept of jamming), but also with fluid mechanics and thermodynamics. New challenges regards the extension of fluctuation dissipation relations, one of the tenets of equilibrium statistical mechanics, to granular systems. These relations allow one to relate the response of a system to external perturbations with its unperturbed fluctuations, and bears connections with a wide range of questions, from transport properties to resilience and robustness issues.

Turbulence and fluidodynamics

Turbulence describes the complex and unpredictable motions of a fluid (Monin, 1971, 1975). Examples are ubiquitous, from the volutes of a rising smoke to the dynamical patterns formed by cream mixing in a coffee cup and of far reaching importance; understanding the nature of turbulent flows is a central issue in a wide range of disciplines, from engineering (aeronautics, combustion, etc.) to earth sciences (climate theory, weather forecast, etc.).

While the dynamics of an incompressible Newtonian fluid is described by the Navier-Stokes equations, very little is known analytically about their solutions. Indeed, when the inertial

contribution to the Navier-Stokes equation outbalance the the viscous one, the fluid exhibit a transition between laminar (regular) and turbulent (chaotic) flow.

Approaches to turbulence have so far relied on scaling approaches, as in the celebrated K41 theory, which describe the energy cascade from larger to smaller structures by an inertial mechanism, or on reduced models (shell models, Burger equation, etc.). Direct numerical simulations of the Navier-Stokes equations, on the other hand, are prohibitively difficult, since the number of degrees of freedom which is needed to describe the flow grows with a power of the ratio between inertia and vicosity (the so called reynolds number). Still nowadays, the most refined pseudo-spectral numerical techniques are not able to describe turbulence at the Reynolds numbers achievable by best experimental facilities. A complementary approach developed in the last decades, finally, regards turbulence as a manifestation of deterministic chaos, and uses the typical quantifiers of nonlinear dynamics (Lyapunov exponents, fractal dimensions, etc., Eckmann 1985) to describe its properties (Bohr, 1998).

Nowadays, turbulence is still a substantially open problem (Procaccia, 2008), and there are many fascinating problems in many disciplines closely related to turbulence and fluidodynamics. At the more theoretical level, many efforts are being devoted to the problem of intermittency in turbulence and bifurcations in turbulent flows, once again a problem closely related with chaos theory. Magnetohydrodynamic turbulence (the emergence of a magnetic field through the turbulent motion of an electrically conducting fluid, (Biskamp 2003) plays an important role in many astrophysical and geophysical problems, such as the generation of the earth magnetic fields. Finally, fluidodynamics problems plays a central role in atmospheric sciences, oceanography and climate sciences. In particular, recent developments in chaos theory show interesting links with the goal of enhancing the predictability time in weather and climate forecasts (Kalnay 1997). Tools and methods (Implémentation)

Systems in the field of complex matter share common characteristics and hence raises transversal questions. Generic tools must be available for the community. Mathematics, statistichal mechanics and nonlinear dynamics offer a formal language by which a quantitative investigation of complex systems may be carried on. We roughly distinguish between basic tools (roughly teached at the high end of undergraduate sudies) and more advanced ones, suitable for master level, PhD and permanent formation of active researcher.

Towards a complex systems curriculum studiorum

In the following we propose a list of basic formal methods commonly employed by theoretical physicist in the study of complex systems. They can be teached at an undergraduated level and represent a common mathematical language for a quantitative analysis of complex systems. We believe their teaching should lie at the heart of a complex system curriculum studiorum.

Elements of linear algebra

  • Linear vector spaces, matrices, eigensystems, linear algebric equations__ Calculus
  • Real and complex numbers, differentiation, integration, function series summation, Fourier series, ordinary differential equations, partial differential equations, distribution theory.
  • Information theory, Bayesan theory, Markovian processes, Langevin equations and Fokker Planck approach, stochastic calculus (Ito and Stratonovich approaches)
  • Numerical methods
  • Introduction to general purpose programming language(s) (C++ ?) and basic numerical tools: linear algebraic equations, least squares method, numerical integration, fast fourier transforms, eigenvalues problems, maximization and minimization, roots finding, random numbers.

    Elements of mechanics

  • Dynamics, Hamiltonian formulation, basics of fluidodynamics, basics of electromagnetism
  • Elements of statistical mechanics
  • Emerging behaviors from local interactions (Ising systems): application to non-physical systems. Statistical ensembles — partition functions. Intro to out-of-equilibrium methods (Response theory).
  • Dynamical systems theory
  • Periodic and chaotic motion, elements of ergodic theory, time series analysis

    Advanced topics

    Working out microscopic laws from macroscopic observables

    This is a central issues in the study of emergent systems. Let us mention here an important problem that most scientists/engineers have faced or will be facing. In order to investigate a system composed of heterogeneous agents that interact with each other, we first start by measuring average quantities such as correlation functions. We then want to work out the microscopic laws that give rise to these macroscopic correlations. From the point of view of statistical physics techniques, this can be seen as an Inverse (Ising) problem and very promising tools have been developed in order to work out the microscopic details. This has been used for instance for working out neural couplings between retinal ganglion cells (Cocco, 2009), identification of direct residue contacts in protein- protein interaction (Weigt et al., 2009).

    Numerical methods

    Discretizing the continuous description: for either solving partial derivative équations or simulating large systems (Finite Element Methods, Lattice Boltzmann methods, (Biased) Monte Carlo methods, Genetic algorithm, Stochastic integration, Molecular Dynamics, Agent-based approaches, …).

    Numerical simulations of complex systems: heterogeneous agents, heterogeneous interactions, integration of multiple spatial and temporal scales (coarse-graingin methods, parallelisation methods).

    Response theories

    By measuring the way of a thermal system responds to an external small perturbation, one can have access to the way it relaxes when it is not perturbed (Einsitein-Smoluchowski relation). More generally, Onsager relations describe the interplay between flows and forces through the phenomenological concept of transport coefficients. These relations have been formalized using fluctuation theory, showing that linear transport coefficients are related to the time dependence of equilibrium fluctuations in the conjugate flux (linear response theory). Onsager reciprocity relations further provide symmetry relations between transport coefficients mixing different types of perturbation allowing to understand the mutual influence of different parameters and perturbations.

Linear (equivalently equilibrium) response theory is nowadays well established. New challenges come from the description of active matter, and more generally from out-of equilibrium systems and non-linear effects, i.e. how a system responds to strong fluctuations. Recent progress, which must taught as n advanced topics, has been made in both fields. For instance, general linear fluctuation dissipation relations have been derived for stationary states (Marini Bettolo Marconi, 2008, Baiesi et al., 2009). Fluctuations theorems have revealed general symmetry properties for the fluctuations of systems that are driven arbitrarily far away from equilibrium, highlighting deep connections between statistical non-equilibrium behaviors and equilibrium properties (Ritort, 2008). These approaches must be used as an approach to tackle the case of athermal systems (energy needs to be continuously injected) and more generally to systems where there is no separation scale between microscopic elements and macroscopic description (granular matter, embryogenesis, general collective behaviors auch as in social phenomena). This must be a way to understand how such systems tend to evolve with respect to their interaction with the environment.

An overview of the complex matter French community

There is a huge community, most of it belonging to statistical physics, working in the field of complex matter. In the following, rather then centrating on individual researcher names, we choose to list some of the labs that have been very active in these fields

Granular Matter: ESPCI, LPS (ENS Paris), ENS Lyon, SPEC (CEA/Saclay)
Soft condensed matter: SPEC (CEA/Saclay), IPHT (CEA/Scalay), LPTMC Jussieu, ESPCI, Laboratoire Matière et Systèmes complexes (MSC), ISC
Disordered systems: LPTMS (Orsay), LPS ENS (Paris), IPHT and SPEC (CEA/Saclay), Laboratoire de physique ENS (Lyon)
Out of equilibrium critical phenomena: LPT (ENS Paris), ESPCI, IPHT and SPEC (CEA/Saclay) Active Matter: SPEC (CEA/Saclay), Institut Curie, ESPCI, ISC
Animal behavior: CRCA Toulouse


Baiesi et al., Fluctuations and Response of Nonequilibrium States, Phys. Rev. Lett. 103, 010602 (2009)

Ballerini, M. et al.Interaction ruling animal collective behavior depends on topological rather than metric distance: Evidence from a field study, Proc. Nat. Ac. Sci. (2008) vol 105, p 1232

Biskamp, D. Magnetohydrodynamic Turbulence, Cambridge: Cambridge University Press (2003).

Bohr T. et al.Dynamical systems approach to turbulence, Cambridge: Cambridge University Press (1998)

Chaikin, P.M. and Lubensky, T.C., Principles of condensed matter physics, Camridge Univ. Press (1995)

Challet, D., Marsili, M. and Zhang, Y-C., Minority Games: Interacting Agents in Financial Markets, Oxford University Press (2005).

Chaté, H., Ginelli, F. & Montagne, R. Simple model for active nematics: Quasi-long- range order and giant fluctuations. (2006) Phys. Rev. Lett., vol 96 p 180602

Chaté, H. et al. Collective motion of self-propelled particles interacting without cohesion. Phys. Rev. E (2008) vol 77, 046113.

Cocco, S. et al., Neuronal couplings between retinal ganglion cells inferred by efficient inverse statistical physics methods. Proc Natl Acad Sci USA (2009) vol. 106 (33) pp. 14058-62

Derrida, B., An exactly soluble non-equilibrium system: the asymmetric simple exclusion process, Physics Reports (1998) vol. 301 (1) pp. 65-84

de Gennes, P.G., Granular matter: a tentative view, Rev. Mod. Phys. (1999) vol. 71 pp. 374

Eckmann J.-P.and Ruelle D., Ergodic theory of chaos and strange attractors Rev Mod. Phys. (1985), vol 57 p 617.

Helbing, D., Farkas, I. & Vicsek, T. Simulating dynamical features of escape panic. Nature (London) (2000) vol 407, pp 487-490.

Hinrichsen, H., Non-equilibrium critical phenomena and phase transitions into absorbing states, Advances in Physics (2000) vol. 49 pp. 815

Hua H., Myers S., Colizza V., and Vespignani A. WiFi networks and malware epidemiology. Proc. Natl. Acad. Sci USA (2009) vol 106 pp. 1318-1323

Kalnay E. Atmospheric modeling, data assimilation and predictability, Cambridge: Cambridge Univ. Press (2007).

Lesnes, A., Renormalization methods: critical phenomena, chaos, fractal structures, Wiley, New- York (1998)

Mari et al., Jamming versus Glass Transitions, Physical Review Letters (2009) vol. 103 pp. 25701

Marini Bettolo Marconi, U., Puglisi, A., Rondoni, L. & Vulpiani, A. Fluctuation- dissipation: response theory in statistical physics. Phys. Rep. (2008) vol 461, p 111

Marro J. and Dickman R., Nonequilibrium phase transitions in lattice models, Cambridge University Press (1999)

Mehta, A., Grabular Matter: an interdisciplinary approach, Springer (1994)

Mézard, M., Parisi, G. and Virasoro, M.A., Spin glass and beyond, Singapore: World Scientific (1987)

Mézard, M. and Mora, T., Constraint satisfaction problems and neural networks: a statistical physics perspective, eprint arXiv (2008) vol. 0803 pp. 3061

Monin A. S. & Yaglom A. M., Statistical fluid mechanics Vol 1, Cambridge: MIT Press


Monin A. S. & Yaglom A. M., Statistical fluid mechanics Vol 2, Cambridge: MIT Press (1975).

Parrish, J.K. & Hamner, W.M. (eds.). Animal Groups in Three Dimensions. Cambridge: Cambridge University Press (1997).

Procaccia, I and Sreenivasan, KR.The State of the art in Hydrodynamic Turbulence: Past Successes and Future Challanges Physica D (2008) vol 237 pp. 1825-2250.

Ramaswamy S, The Mechanics and Statistics of Active Matter, Annu. Rev. Condens. Matt. Phys., (2010) vol.1.

Ritort, F., Single-molecule experiments in biological physics: methods and applications. Journal of Physics: Condensed Matter (2006) vol. 18 pp. 531

Ritort, F., Nonequilibrium fluctuations in small systems: From physics to biology, Advances in Chemical Physics (2008) vol. 137 pp. 31-123

Sahin, E. & Spear, W.M. Swarm Robotics. Berlin: Springer (2005).

Theraulaz, G. et al. Spatial Patterns in Ant Colonies. Proceedings of The National Academy of Sciences USA (2002) vol 99, pp. 9645–9649.

Toner J, Y. Tu Y and Ramaswamy S, Hydrodynamics and phases of flocks, Ann. Phys. (2005) vol 318 p 170

Vicsek T, et. al., Novel type of phase-transition in a system of self-driven particles. Phys. Rev. Lett. (1995) vol 75, pp. 1226-1229

Voituriez, R., Joanny, J.F. & Prost; J. Generic phase diagram of active polar films. Phys. Rev. Lett. (2006) vol 96, 028102.

Weigt et al., Identification of direct residue contacts in protein-protein interaction by message passing, Proc Natl Acad Sci USA (2009) vol. 106 (1) pp. 67-72

Thématique : Épistémologie des systèmes complexes

Ou « comment » réaliser et appliquer la méthode scientifique dans le cadre des systèmes complexes, en publiant à 500 contributeurs dans 20 disciplines.

Contributeurs : Nicolas Brodu

Afin de réaliser les grands projets de demain et de répondre aux questions scientifiques posées par les systèmes complexes, il nous faut passer la barrière de la publication par quelques individus isolés et travailler de façon collaborative et pluridisciplinaire. Ce changement de pratique peut être grandement facilité, voire même tout simplement permis, par des outils et infrastructures permettant d’adapter et d’appliquer la méthodologie scientifique dans ce cadre nouveau.

Voici une proposition qu’il est possible d’intégrer dans l’infrastructure du campus numérique. Cette page sert de lieu de discussion sur comment mettre en œuvre une épistémologie des systèmes complexes. N’hésitez pas à commenter et ajouter vos idées. Le résultat sera intégré dans le document final sous une forme encore à définir, par exemple dans l’axe transverse «Infrastructures» du campus numérique qui comprendrait cette section ainsi que celle concernant les «Modèles intégrés».

L’infrastructure de recherche à mettre en œuvre comprendrait :

Un outil sur le modèle des wikis, amélioré. En plus de l’édition à plusieurs, il faut également un mécanisme pour assurer l’authentification (ex: clef de cryptographie privée, à valeur légale dans de nombreux pays) ainsi qu’un système de versions généralisé (historique de l’article + commentaires + données utilisées + code des expériences). Mais également des outils pour gérer et améliorer la bibliographie, rentrer des formules de math, etc. Bref, un système d’édition collaborative dédié à la rédaction scientifique, assurant tant la paternité des idées que leur expression facile en ligne et leur diffusion. Et un moteur de recherche très efficace pour voir dans les références si une idée existe déjà, ainsi que dans les articles en cours de construction (cf point suivant). Le tout avec une interface réellement utilisable par des non-informaticiens…

Un « marché des articles en cours ». Que chacun puisse proposer une idée nouvelle et commencer un article, avec le système détectant automatiquement les articles similaires en cours de construction pour proposer de les fusionner (analyse sémantique). Ceci permettrait de travailler

potentiellement à beaucoup, d’éviter la frustration de voir une initiative similaire « publiée » avant soi, tout en gardant les paternités. Et tout en réduisant les risques de fraudes : toute tentative de copier/coller ou d’idées trop similaires serait détectée par le système et annoncée aux participants de chaque initiative similaire. Rien n’empêche également le système de fouiller d’autre bases de données comme arXiv à la recherche de similitudes.

Une possibilité également comme dans les « forges » logicielles de poster des annonces à la communauté, style « on cherche un spécialiste de XYZ », ou alors « on propose des données nouvelles sur XYZ, appel à participation pour le dépouillement ».

Quand un article/projet est suffisament abouti, les auteurs peuvent décider de le figer et le soumettre. Une fois accepté il entre dans les base de données bibliographique classiques (HAL, ArXiv, …), avec comme bonus dans la nouvelle infrastructure les traces et historiques des commentaires, fausses pistes tentées, etc, qui ont menées à sa construction. Plutôt que juste un PDF sur le site d’un éditeur qui ne garde rien de l’histoire de l’article. Problème de confidentialité ? de navigabilité dans l’historique ?

À terme un système de publication gérant le peer-reviewing au sein du système, et utilisant les dernières avancées en graphes de communautés pour s’assurer que le peer-reviewing ne devienne pas du copinage. Note: la notion même de peer-reviewing est à redéfinir si 5000 contributeurs soumettent un article. Il devient alors difficile de trouver 3 ou 4 reviewers dans le domaine, n’ayant à la fois pas contribué au projet et disposant des compétences pour juger le travail de 5000 autres personnes…

Les articles produits seraient en Creative Commons, soit aucun coût d’accès à la connaissance. Les coûts récurrents (travail d’édition, communication et animation, hébergement, équipe d’ingénieurs pour maintenir le système, etc.) seraient supportés en amont, chaque labo/organisation participant pour entrer dans le système, plutôt que pour accéder aux articles des éditeurs comme dans le système actuel. Les contributeurs à titre individuel ne paieraient rien pour obtenir un compte dans le système. Paierait seulement qui veut apparaître dans la liste des « affiliations » à un individu, ce qui résoud implicitement les cas des étudiants (affiliés) et des chômeurs/chercheurs précaires/isolés à l’étranger (pouvant soumettre à titre individuel), tout en jouant sur le fait que les labos/universités vont vouloir apparaître tôt ou tard (surtout si on publie un classement actualisé mensuellement des contributions par affiliation…).

C’est assez utopique, ça impliquerait un changement de pratiques conséquent, mais ça permettrait certainement des articles à 500 ou 5000. En fait, le souci n’est pas technique (c’est faisable avec les technologies actuelles, moyennant du temps et de l’argent pour mettre le système en place) mais surtout de convaincre/motiver une communauté suffisante pour l’utiliser et démarrer le processus : comme tout réseau de ce type, l’intérêt pour un nouvel entrant de participer au système dépend grandement du nombre d’utilisateurs existants. Le challenge serait ensuite de changer la façon de juger les gens par indice bibliométrique… ce qui est encore moins évident. Mais on peut rêver : qui ne tente rien n’a rien, et c’est souvent en lançant une dynamique qu’on fait évoluer les choses, même si on y arrive pas du premier coup 🙂


Ne pas oublier le « Specific Program: Cooperation » du « FP7 »:

Peut-être se rattacher aux initiatives existantes : What are e-Infrastructures?
Proposer un Flagship sur le sujet dans le cadre du programme Européen Future and Emergent Technologies – Proactive.

Plateforme – Reconstruction de dynamiques multi-échelles Plateforme – cognition sociale – application à l’analyse de corpus électroniques


David Chavalarias (CNRS)


David Chavalarias (CNRS), Jean-Philippe Cointet (INRA SenS), Camille Roth (CNRS), Carla Taramasco


Du fait du déploiement d’une partie de l’activité sociale sur des médias numériques (publications scientifiques, archives de brevets, voire page web ou blogs, etc…) nous disposons aujourd’hui de très larges corpus électroniques qui constituent le support d’un savoir distribué. Ce savoir est élaboré localement par des individus et des communautés qui créent par leurs

contributions des liens entre des éléments de connaissance.

L’objectif de cette plateforme est de développer des méthodes de reconstruction et de visualisation de ce savoir distribué :
1) par l’identification de modules reflétant la structure des domaines d’activité des communautés, 2) par des visualisations de l’articulation de ces modules
3) par la reconstruction de leurs dynamiques.

L’ambition est de fournir pour les corpus numériques un outil équivalent à ce que ‘Google Earth’ est à la cartographie.

Ces différents axes de recherche seront développés au sein d’équipes interdisciplinaires comportant des spécialistes des domaines d’application. Ceux-ci pourront s’appuyer sur ces reconstructions multi-niveau de leurs projets de recherche pour développer de nouvelles approches tout en apportant des éléments de validation de la reconstruction en question. Outre l’aspect théorique du problème de la reconstruction des dynamiques multi-échelles, cette plateforme nécessitera un investissement important dans la constitution de large bases de données et dans le déploiement de moyens de calcul distribués.
En particulier, cette plateforme pourra comporter les axes suivants : Cartographie de la science et reconstruction des dynamiques des paradigmes scientifiques.

La question de la visualisation de l’organisation de la science et de ses différents paradigmes n’est pas seulement épistémologique mais devient une nécessité pratique face à l’accroissement exponentiel de la production scientifique. Nous manquons aujourd’hui d’une vision claire de la manière dont s’articulent les différents champs de recherche scientifique, que ce soit au niveau du chercheur désireux d’identifier le contexte scientifique d’une question, d’une institution qui souhaite avoir une vision globale sur une question donnée (par exemple la thématique du réchauffement climatique) ou du décideur qui doit se faire une idée de la science en marche afin de mieux choisir les outils d’aide au développement de telle ou telle branche de la science. Cet axe de recherche développera des méthodes de cartographie de la science à grande échelle et de visualisation de ses dynamiques muti-niveaux afin par exemple de pouvoir détecter les champs scientifiques émergents.

Cette étude pourra être couplée à une analyse longitudinale des carrières individuelles, des réseaux sociaux de la recherche et des institutions ouvrant ainsi des opportunités d’analyse pour les sciences de gestion, la sociologie (science studies ou sociologie politique), mais également pour les décideurs de politiques scientifiques. Nouveaux outils de navigation.

La reconstruction mutli-échelle de connaissances extraites d’un ensemble de documents issus d’un corpus vivant est également une opportunité pour développer des outils de navigation inédits. Les structures émergentes exhibées par de nouvelles méthodes d’analyse statistiques permettent de naviguer à travers ces gigantesques corpus d’une façon intuitive puisque les motifs de haut-niveau et leurs articulations apparaissent comme des propriétés naturelles du système tant au niveau des connaissances les plus fines qu’aux niveaux de généralité supérieurs. Ces outils pourront par exemple être implémentés sur des archives électroniques telles que HAL ou arxiv et accroître la vitesse et la pertinence de la recherche d’informations. Innovation et veille scientifique.

Les méthodes de cartographie et de reconstruction de dynamiques peuvent être appliquées au corpus des brevets qui exhibe une structure similaire aux corpus des publications scientifiques : titres, mots-clés, résumé les textes complets. Il devient alors possible de tracer une carte multi-

niveaux des thématiques couvertes par les brevets, repérer les domaines porteurs et les niches éventuelles. Le fait que certains brevets s’appuient sur d’autres de manière explicite et que ceux-ci sont catégorisés de manière thématique permettra également de visualiser la diffusion de l’innovation dans les différentes sphères technologiques et d’en faire une analyse longitudinale. Enfin, ce type de méthodes appliquées aux corpus des brevets pourrait aboutir à de nouvelles manières d’évaluer la valeur d’un nouveau brevet. Découverte scientifique et extraction de connaissances.

Les méthodes de détection de modules peuvent également être appliquées à des problématiques d’extraction de connaissance. Cette plateforme se propose développer par exemple l’extraction d’informations concernant les réseaux des gènes et de protéines à partir d’une analyse automatique des publications en biologie d’une part, et de l’analyse des données concernant les co- expressions des gênes (données issues de mesures par micro-array par exemple) d’autre part. Cela permettrait de produire des cartes à grande échelle de modules fonctionnels en biologie. Détection de tendances à partir des bases de requête dans les navigateurs.

Les requêtes effectuées dans les navigateurs sont une source d’informations très importante sur ce que les gens recherchent. Les bases de données concernant les requêtes dans les navigateurs peuvent aussi donner lieu à une analyse utilisant les mêmes méthodes de cartographie dynamique que pour les corpus électroniques. Des outils bien plus performants de détection de tendances que ceux proposés par Google par exemple (google trends, qui est déjà utilisé à des fins de marketing) pourront être proposés. En couplant cela à des analyses géographiques cela ouvrira également des perspectives concernant la détection précoce de préoccupations sociales comme par exemple le déclenchement d’une épidémie.

Plateforme – De la Molécule à l’organisme, de la biologie à la santé

Rapporteur : Nicolas Brodu
Contributeurs :

Habib Benali – IMED, Jussieu

Yves Burnod –

Katia Dauchot – CREA ISC-PIF

Jacques Demongeot – TIMC-IMAG

René Doursat – ISCPIF, CREA

Emmanuel Faure – ISC-PIF

Zoi Kapoula – CNRS

Salma Mesmoudi – LIP6, INRA

Nathalie Perrot – INRA

Nadine Peyrieras – CNRS

Marie-Catherine Postel-Vinay –

François Rodolphe – INRA

Alessandro Sarti – CREA

Thierry Savy – ISC-PIF

Randy Thomas – CNRS

Roberto Toro – Pasteur


Le Campus Numérique des Systèmes Complexes est animé par des Netlabs organisés en départements (Ex de département: De la molécule à l’organisme et de la biologie à la santé).
Les Netlabs sont des ensembles d’acteurs (chercheurs, ingénieurs, étudiants, médecins, industriels, etc) qui partagent les mêmes questions (ou des questions proches), exprimées de façon commune sous forme de Systèmes complexes basés sur l’étude des dynamiques spatio-temporelles multi- échelles.

Par exemple, pour le Département “De la Molécule à l’organisme et de la Biologie à la Santé, ces dynamiques sont :

– les dynamiques des êtres vivants (Evo , Devo et viellissement, adaptation et apprentissage, pathologies et thérapeutiques…) ; Les dynamiques de la Biologie génèrent et suivent l’organisation du vivant avec ses axes propres : réseaux moléculaires, cellulaires, organiques (ex. cérébraux), sociaux
– les dynamiques de l’organisation socio-économique de la Santé (hôpital, recherche, industrie, politique, budget et règlement, organisation territoriale….) . Les dynamiques de la Santé rejoignent les dynamiques culturelles , économiques, territoriales etc.

Pour résoudre ces questions, les acteurs des NetLabs développent et partagent: – des outils mathématiques et moyens informatiques
– des expertises des différents domaines applicatifs
– des plate-formes expérimentales ,
– des bases de données regroupant des grands ensembles de résultats et/ou de données expérimentales
– des méthodes de Web-mining et représentations communes des résultats
– des moyens d’intelligence sociale pour les projets collectifs

Les NetLabs jouent à la fois :
– sur des lieux partagés qui facilitent les échanges directs et permanents entre acteurs et qui sont les cœurs du Campus,
– et sur des réseaux autour des cœurs, à géométrie variable, en fonction des communautés d’intérêts. Chaque cœur est animé par une équipe où les responsabilités sont organisées par deux priorités:
– faire avancer la recherche sur la compréhension et la modélisation des dynamiques multi-échelle des grands systèmes,
– créer des interfaces entre compétences multiples pour faciliter la vie de tous celles et ceux qui y travaillent à prendre en charges des problèmes de grande envergures.

L’Université Numérique fournit à chacun une représentation à la fois intégrée et dynamique des connaissances et recherches. Cette offre intégratrice vise à réponde à un besoin très fort des étudiants, chercheurs, médecins, acteurs de la R&D industrielle, qui sont souvent perdus par l’offre explosive du Web.

Cette représentation intégrée des connaissances et recherches peut se baser : – sur la grille commune des grands objets et des grandes questions,
– sur les échelles des grands objets et sur leurs dynamiques multi-échelle,
– sur les modèles et les bases mathématiques utilisées
– sur les cartographies des connaissances et acteurs (outils de web-mining).

Ce qui fait la force et l’originalité du Campus, c’est de jouer à la fois :
– sur un apport parallèle et permanent de contenu par tous les acteurs (le réacteur d’enrichissement) – sur le fait de placer chaque apport de contenu nouveau dans une organisation d’ensemble qui est structurés par les axes propres des grands objets et des grandes questions (la grille unificatrice)

De même, le Campus explicitera le maillage entre les NetLabs et les départements autour de la connaissance des grands systèmes. La marque de fabrique de l’Université numérique, celle qui fera d’elle une université demandée sur le plan international, c’est cette offre à la fois très unifiée et très riche, expérimentale et théorique, ouverte à tous les acteurs autour des cœurs dynamiques ds Netlabs. Les objets qui s’incarnent dans les sections

Section “L’homme physiologique virtuel, Physiome”

Le Physiome International (IUPS,, connu sous le nom Virtual

Physiological Human (VPH, en Europe, est un grand défi de collaboration

internationale dont le but générale est d’établir un context collaboratif internationale qui permettra

de décloisonner les disciplines des sciences de la santé. Puisque l’organisme, en tant que “système

complexe” par excellence, est un tout, il faut établir et renforcer l’intégration inter-disciplinaire.

Pour citer un document phare (Fenner et al. 2008) qui a servi à la Commission Européen

d’inspiration pour les financements important autour du VPH :

“The physiome concept … has been fervently embraced by the European scientific community,

which recognizes that the current partitioning of health science endeavour along traditional lines

(i.e. scientific discipline, anatomy, physiology, etc.) is artificial and inefficient with respect to such

an all-embracing description of human biology. It is argued that a more effective approach must be

sought, encompassing cross-boundary disciplines and integrating them according to the focus of the

problem in hand, unconstrained by scientific discipline, anatomical subsystem and temporal or

dimensional scale…

This is a radical approach that deserves to be complemented by a radical framework in which

observations in laboratories and hospitals across nations can be collected, catalogued, organized and

shared in an accessible way so that clinical and non-clinical experts can collaboratively interpret,

model, validate and understand the data. It is a framework of technology and methods, and together

they form the virtual physiological human (VPH). This vision is complemented by a community of

active protagonists, collectively pursuing physiome projects across the world (Plasier et al. 1998;

Bassingthwaighte et al. 1999


Kohl et al. 2000


Schafer 2000; Hunter et al






Bro &

Nielsen 2004


Crampin et al. 2004), and through harmonized action, it may be possible to create a

coherent and credible VPH infrastructure in Europe within a decade.”

La vision globale est bien décrite dans une publication (Hunter et al. 2009) basée sur la

feuille de route du Réseaux d’Excellence VPH NoE, document qui est utilisé par la Commission

Européenne pour la rédaction des prochains appels à projets dans ce domaine.

Au delà de ces intiatives européennes, et en complément, le RNSC peut jouer un rôle de

renforcement, au niveau français, mais aussi d’innovation. Au sein du RNSC/CNSC, on peut

combler une lacune, à savoir, on peut tisser des liens entre les mondes, encore trop séparés, du

physiome (la physiologie, biomécanique, génie biomédicale, etc.), des neurosciences, et la biologie

systémique (le métabolisme, génome, protéome…). Le terme de “Connectome” a été suggéré pour

ce contexte, qui affirme de la façon la plus claire possible la nature intégrée du système complexe

qu’est l’organisme vivant.

Plusieurs laboratoires en France participent activement déjà à différents aspects de cette

initiative (voir liste non-exhaustive ci-dessous), mais il faut souligner que le principe même est de

miser sur une participation la plus large et la plus ouverte possible à la fois de laboratoires de

recherches mais aussi d’éducateurs et de cliniciens engagés en e-Santé et plus largement dans des

projets de Technologies pour la Santé.

Ces recherches ont le noble objectif de concourir à la fois à chercher à améliorer nos

connaissances fondamentales, à créer de nouveaux concepts et de nouvelles théories, à créer des

méthodologies, des technologies et de l’instrumentation innovantes, et d’une façon générale à

améliorer l’autonomie et la santé, au niveau individuel et à l’échelle de la population, dans les

domaines de la prévention, du diagnostic, de l’intervention, de la thérapie, de la surveillance et de


Pour accomplir ces objectifs, il sera crucial de s’appuyer sur (et d’étendre) des technologies

d’intéropérabilité telles que :

des standards permettant l’échange et le stockage de données biomédicales (images, signaux

biomédicales, données de biologie moléculaire…) ;

des ontologies de références qui permettront l’étiquettage des données mais aussi de modèles

mathématiques qui décrivent le corp humain, sa biomécanique, son métabolisme, sa physiologie, sa

physiopathologie à toutes les échelles depuis le moléculaire jusqu’au corp entier, et ceci de façon

individualisée dans un avenir proche ;

des langages de markup XML (e.g., SBML, CellML, et autres) qui favorisent l’échange, et même la

réutilisation, de modèles mathématiques existants et futurs et l’incorporation de données

expérimentales et cliniques stockées dans des “repositories” compatibles.

des réseaux de calculs hautes performances, tels que DEISA, déjà engagé à fournir des ressources

aux laboratoires participants aux projets VPH (FP7) ;

des “workflows” permettant de relier toute une chaine de données et technologies depuis les images

et données cliniques d’un patient, en passant par des modèles patient-spécifiques, pour servir au

médecin d’aide au diagnostic et au traitement.

Laboratoires déjà impliqués dans des projets VPH (liste non-exhaustive) :

S.R. Thomas (CNRS, UMR8081, Orsay et Villejuif)

I. Magnin et D. Friboulet (Créatis, INSERM et CNRS, Lyon)

P. Baconnier et J. Demongeot (CNRS, TIMC, Grenoble)

N. Ayache et M. Sermesant (INRIA)

A. Hernandez, G. Carrault, JL Coatrieux (INSERM U-642. Université de Rennes 1, Rennes)

P. Hannaert (INSERM U927, Poitiers)

F. Gueyffier (CIC201 UMR 5558, Lyon)

E. Grenier et B. Ribba (INRIA, Lyon)

References (Section Physiome) :

Bassingthwaighte, J. B. 2000 Strategies for the Physiome project. Ann. Biomed. Eng. 28, 1043–

1058. (doi:10.1114/1.1313771)

Bro, C. & Nielsen, J. 2004 Impact of ‘ome’ analyses on inverse metabolic engineering. Metab. Eng.

6, 204–211. (doi:10.1016/j.ymben.2003.11.005)

Crampin, E., Halstead, M., Hunter, P., Nielsen, P., Noble, D., Smith, N. & Tawhai, M. 2004

Computational physiology and the Physiome project. Exp. Physiol. 89, 1–26. (doi:10.1113/


Fenner, J. W. et al. 2008 “The EuroPhysiome, STEP and a roadmap for the virtual physiological

human.” Phil. Trans. R. Soc. A 366, 2979–2999. (doi:10.1098/rsta.2008.0089)

Hunter, P., P. V. Coveney, et al. (2010). “A vision and strategy for the virtual physiological human

in 2010 and beyond.” Philos Transact A Math Phys Eng Sci 368(1920): 2595-2614.

Hunter, P., Robbins, P. & Noble, D. 2002 The IUPS human Physiome project. Eur. J. Physiol. 445,

1–9. (doi:10.1007/s00424-002-0890-1)

Hunter, P., Smith, N., Fernandez, J. & Tawhai, M. 2005 Integration from proteins to organs: the

IUPS Physiome project. Mech. Ageing Dev. 126, 187–192. (doi:10.1016/j.mad.2004.09.025)

Kohl, P., Noble, D., Winslow, R. L. & Hunter, P. J. 2000 Computational modelling of biological

system: tools and visions. Phil. Trans. R. Soc. A 358, 579–610. (doi:10.1098/rsta.2000.0547)

Plaisier, A. P., Subramanian, S., Das, P. K., Souza, W., Lapa, T., Furtado, A. F., Van der Ploeg, C.

P., Habbema, J. D. & van Oortmarssen, G. J. 1998 The LYMFASIM simulation program for

modeling lymphatic filariasis and its control. Methods Inf. Med. 37, 97–108.

Schafer, J. A. 2000 Interaction of modeling and experimental approaches to understanding renal salt

and water balance. Ann. Biomed. Eng. 28, 1002–1009. (doi:10.1114/1.1308497)

Section Neurophysiopathologie chez l’homme

a) Characterizing pathology

Human physiopathology creates uncertainties with constantly

moving frontiers between discipline fields, for example, neurology, neurosciences, psychiatry,

immunology, cancer,

immunodeficiency, infections, autoimmunity, and metabolism. Human

physiopathology is characterized by progressive dysfunction and deterioration at multiple space and

time scales with non-linear interactions between physiologic/biologic functions, cognitions,

emotions, and social consequences. Problems can result initially from local conflict between

internal and external signals (e.g. dizziness) but this conflict can expand diffuse and create

additional loops with multiple pathogenic reciprocal interactions. Functional problems could be

primary or secondary effects of spontaneous adaptive mechanisms aiming to counter primary insult

and dysfunction, and is important to dissociate.


Two main challenges :


To apply complex system principles and theoretical frameworks on designing experimental

studies, and analysis of data at different scales (neurological, physiological, behavioral, neuro-

psychological) from individual or large patient populations.


To search for cross-correlations and interactions in order to get new insight about pathogenic

primary or secondary mechanisms. This could lead to novel more sensitive differential diagnostic

tools, but also for better medical care or functional re-adaptation. There is a need to go beyond a

limited multi-disciplinarity of parallel different approaches and use complex systems tools to cross

data fr om different fields and gain further insight.

b) A vast issue

The issue concerns the whole internal and general medicine, immunology,

neuroscience, psychiatry, geriatrics, paediatrics, functional re-education and public health.

Examples of

functional problems, some of them with no measurable organic basis: vertigo

(dizziness and equilibrium problems, fear to fall in elderly, isolated hearing loss, tinnitus), learning

problems (dyslexia), but also neuro-degenerative diseases (types of dementia, Lewy-Body,

Alzheimer). Major questions are the significance of instantaneous fluctuations of measures

(physiologic, behavioral, e.g. in the case of dementia) in relation to physiopathology and

progressive degeneration of cortical-subcortical circuits. Other examples could be given in

immunology: time and space (lymphoid tissues), dynamics and selection of lymphocytes insuring a

diversified somatic repertoire and high turnover, analysis of the functionalities of the immune

system in physiological (ontogeny to aging, gestation) and pathological conditions (cancer,

autoimmunity, infections), and interactions with other biological systems like nervous, endocrine,

metabolic systems. This could be based on dynamics analysis of fluid lymphoid cell populations,

quantification and identification of phenotype and functions, repertoires, genomics and proteomics.

In this line, deciphering the significance of immune repertoire diversity clearly requires to take into

account their multiscale level from the molecule to cell populations as well as from the individual to

species evolution (Boudinot et al, 2008).


c) Examples of specific objectives – and

research groups potentially contributing

Ageing –

Alzheimer and other dementias

Zoï Kapoula, IRIS group, CNRS

Marc Verny, Salpétrière, CHU, Univ Paris VI

Bruno Dubois, Salpétrière


Anne-Marie Ergis, CNRS Paris 5

Eye Brain (startup

connected with B. Dubois team)

Pr. Xiao, Psychiatric Mental Research Institute, Shangaï

Auditory dysfunction, equilibrium problems

Zoï Kapoula, IRIS group, CNRS

Pierre Bonfils/Alain Londero, Université Paris 5 CNRS

Josiane Bertoncini, CNRS Paris 5

Pierre Denise, INSERM, Université Caen

Christine Assainte, CNRS, Marseille

Thierry Van den Abbeele, Université Paris 7, Robert Debré


Zoï Kapoula, IRIS group, CNRS

Jean-François Demonet, Toulouse?

Sylviane Valdois, Grenoble?

Franck Ramus, ENS Paris?

C. Billard, CHU Kremlin Bicêtre

O Boespflug-Tanguy, CHU Robert Debré

Pr John Stein (Oxford)

Pr Arnold Wilkins (Eseex University)

Dr. Wolfgang Jaschinski (Leibniz Research Centre for Working Environment and Human Factors)

d) Example of



– Alzheimer and other dementias

Multiscale research on same patients

Brain imaging


Biomarkers (cerebrospinal fluid, biology)

SPECT, DaT scan, neuroradiology)

Clinical data

Neuropsychological tests


Eye movement tests – in patients

Eye movement tests in young healthy adults with and without cortical interference by Transcranial

Magnetic stimulation (TMS)

– emphasis on the study of variation of eye movement behaviour

induced by TMS – comparison with

data from patients

Patient Populations to compare

Healthy elderly


Dementia Lewy body

Moderate Cognitive impairment

Parkinson Dementia

Fronto temporal dementia

e) Common tools – methods – platforms

  • Brain imaging, biological research
  • Novel neuropsychologic tests
  • Binocular eye tracking & Brain function & stimulation (IRIS group CNRS, platforminstalled at 3 hospitals in Paris, Robert Debré, Salpetrière, European Hospital Georges


candidate for IBISA label)

  • Fonctionnement 30 ke/year
  • ARC (assistant recherche clinique)
  • Temps médical (PH, vacations)
  • Equipement 40 ke
  • 2 post-docs
  • 1 doctorant
  • 1 ingénieur assistant• • •
  • Site for teaching, training, for workshops bringing together clinicians, researchers,

Investigation of different types of eye movements (reflexive vs voluntary) activating


cortical sub-cortical networks

f) Specific challenges & needs

– Institut Numérique et Université Numérique

Create a bank of data (multiscale, mlti-time) for further analysis and modelling by

theoreticians with powerful tools and integrative models (Fourier, wavelet, time series,

theory of information, ICA etc.). Promote links with theoreticians.

Cross correlate data : biological-brain imaging-clinical- neuropsychological- eye movements

for each


Comparisons of different patient populations & healthy

Develop stochastic models –

(link neurophysiopathology with mathematics and physics)

Particularly extract patterns of variation or fluctuation – patterns of regularity specific to

different populations

For a given population compare patterns of variation

of different measures and over time-


(for neuropsychologic tests) – seconds (for eye movement tests)

Determine patterns of variation

for different physiologic parameters of eye movements

(latency, speed, accuracy) subtended by cortical versus sub-cortical structures

Determine patterns of variation artificially induced in healthy by brain stimulation


vs patterns in patients

g) Funding

Clinical research teams

h) Research teams


80 Ke/an

i) Infrastrucure

Besoin d’un local pivot pour la section (150 à 200 m2)

A Paris centre to connect easily with

all concerned hospitals

Meeting site for


experimental and clinical investigators

theoreticians, associations of patients.

j) Teaching

  • Ongoing experimental projects
  • Integrative research and modelling
  • Instruments and techniques used
  • k) Valorisation – Translational research
  • Create clinical tools for differential diagnosis, following up of evolution of disease, Les questions


    Biological investigations provide knowledge and are expected, at some point, to translate into clinical research and medical advances for the treatment of human physiopathology. We hope to find cures for diseases and other key medical conditions, if possible, or at least to understand those conditions better. Yet it is increasingly clear that better understanding can only arise from a more holistic or integrative view of biological systems. We thus need to develop a better grasp of biological systems as complex systems, and to transfer this understanding into clinical research. Doing so requires a strongly interdisciplinary approach, and should provide novel insights into physiology and pathology.

    After a brief presentation of the general aims and concepts discussed in this topic, we list and offer details on four main challenges. How investigations should be driven in biology is a matter of debate. Should they be data-driven, object-driven or hypothesis-driven? Do we at least agree about the aim of deciphering the causal chains underlying biological processes? Do we expect models to bring insights and knowledge about the behaviour of biological systems, and to make accurate predictions?

    Recent advances in functional genomics and in the study of complex diseases (such as cancer, autoimmunity or infectious diseases, mitochondrial diseases or metabolic syndrome) have shown the necessity for an alternative way of thinking in biology, a view in which pathology and physiology result from interactions between many processes at different scales. The new scientific field of systems biology has emerged from this perspective; it focuses on the study of gene, protein, and biochemical reaction networks and cell population dynamics, considered as dynamical systems. It explores the biological properties resulting from the interaction of many components, investigating processes at different scales and their overall systemic integration. Complex systems science provides a conceptual framework and effective tools for unravelling emergent and immergent features from molecules to organisms and vice versa. The term “immergence” is meant to imply that some macro-level constraints cascade back in a causal way onto micro-levels. Both emergent and immergent properties should be understood from the multiscale reconstruction of data recorded at the appropriate

On each pathology

Treatment efficacy

Public conferences

spatial and temporal scales. We expect to find generic processes (design patterns for computer science) which apply from upper to lower levels of organization, and vice versa, and which allow their coupling e.g. synchronisation, reinforcement, amplification, inhibition, achieved through basic processes such as signalling through molecular interactions, diffusion, vesicular transport, ionic transport, electric coupling, biomechanical coupling and regulation of molecules and macromolecules characteristic features (including their concentrations).

Complex systems almost always involve a wide range of scales both in time (typically femtoseconds in chemical reactions, seconds in metabolism processes, days to months in cells, and years in an living organism) and space (typically nanometers for molecular structures, micrometers for supramolecular assemblies, organelles and cells, centimeters for tissues and organs, and meters for organisms). Finding the pertinent space and time scales for experimentation and modeling is a major issue. Classical approaches (biochemistry, cellular and molecular biology, behavioural and cognitive studies, etc.) usually have a “preferred” scale set by default, mainly due to the principle protocols and experiments being designed to work only at a specific scale. This makes back and forth interactions between different scales in observations, experimentations, models and simulations a very exciting transdisciplinary challenge.

Variation in biological systems raises the issue of an average, typical or representative behaviour. Determining such quantities, and knowing if they are scientifically useful,
requires characterizing and measuring variability and fluctuations at the molecular, single cell, cell population and physiological levels. The origin and functional significance of fluctuations in biological systems, even the scales of space and time on which they occur, remain largely unknown. Their functional significance might be approached through their multiscale transmission and possible amplification, reduction/damping or role in mediating bifurcations. Obviously, understanding will not arise from a one-to-one description and modeling of organisms (virtual cell, virtual organism) but rather from the correct identification of which components are relevant for a given problem and the reconstruction of models focused on the mechanisms involved. Such a reconstruction should use mathematical and physical tools, some borrowed from out-of-equilibrium thermodynamics and dynamical systems. New tools will also be required to answer specific questions of biology. Ultimately, injecting systemic vision and using complex systems principles and conceptual frameworks for a better understanding of human physio-pathology could lead to novel differential diagnosis and improve medical care.

Modern biology has in its development depended heavily on the notion of average behaviours and average individuals. But this conceptual framework has recently been challenged by empirical observation. Quantitative measurements of living single cells, or within such cells, have revealed extensive variability and fluctuation of cellular dynamics between different cells or between different times within the same cell. These observations open a new conceptual framework in biology, in which noise must be fully considered if we are to understand biological systems; this view departs from the classical framework which considered noise and fluctuations it mere measurement error or as “simple” thermodynamic fluctuations which should be suppressed by cells.

This new point of view raises many questions, as well as both practical and theoretical issues likely to deeply modify our understanding of biological systems. However, to tackle

a) Variability, fluctuations

in biological systems

and noise in observation and measurement

these questions, we need to develop a complete scientific program of investigation ranging widely from precise measurements through to analysis of the origin and functional role of stochasticity in biological systems. Among the main breakthroughs, we need to:

· Improve the technology for quantitative measurements of noise and fluctuations in single cells, cell populations, tissues, organs and individuals. In particular, it will be necessary to identify the characteristic times at each level of organization and the most appropriate experimental indicators.

· Identify the mechanisms by which noise and fluctuations arise in biological systems. In particular, what are the modalities of multiscale transmission of fluctuations? Are fluctuations amplified or reduced/damped from one scale to the others? Are they important with respect to bifurcations in the organism/cell fate?

· Understand the functional significance of fluctuations in different biological systems. For instance, it has been proposed that fluctuations can enhance the robustness of living beings. However, other processes can be envisaged (e.g. stochastic resonance, increased signaling rates, cell differentiation, evolution, etc.). Such a functional significance supposes that biological systems are able to control the level of noise.

· Delineate possible mechanisms by which biological systems may control their level of fluctuation (negative/positive feedback loops in biochemical networks, neuronal adaptation in cortical networks, adaptive mutations and mutation hotspots, regulations and networks in the immune system).

· Question the meaning of usual averaging processes in experimental biology. In the case of biochemical networks, can data gathered on cell populations be used to infer the actual network in a given single cell? Similar issues arise in the case of connectivity structures of cortical networks and cell lineage reconstruction.

These issues can be addressed in various biological systems including (but not limited to):

· Transcription and regulation networks: it is now clear that the transcriptional activity of the cell is highly stochastic. Some of the molecular causes of this stochasticity have been identified, yet its precise origin and regulatory mechanisms remain to be discovered. Doing so will first require the development of adequate measurement methodologies to enable us to quantify these fluctuations at different time scales in single cells.

· Neurons and neuronal networks: the so-called “on-going” activity within cortical circuits is a spontaneous activity generated by the recurrent nature of these networks. It has long been considered a mere noise added to the environmental signals. However, more recent studies have proposed a real functional role in which ongoing activity could facilitate signal spreading and be implicated in adaptive processes. Inhibitory effects have been shown to reduce variability at both the single-cell and population level.

· Diversity of the immune system: The immune system is characterized by diversity at different levels. Lymphocyte receptor diversity, populations of effectors and regulators, cell-population dynamics, cell selection and competition, and migration

through the whole organism are the result of stochastic or selection mechanisms whose impact on the overall efficiency of the system needs to be further characterized.

· Uncontrolled variability is often accused of being a source of major perturbations in the fate of organisms. Examples can be found in the process of aging, cancer, autoimmunity, infections or degenerative diseases. Yet the precise influence of noise is still open to debate. In particular, one point is to determine to what extent degenerative processes are a consequence of noise accumulation, a variation in noise properties or of rare stochastic events.

· Variability at the genetic level is the major engine of evolution. But genetic variability may be indirectly regulated according to the spatio-temporal characteristics of the environment (selection for robustness, for example, or for evolvability).

Moreover, clonal individuals may be very different from each other due to intrinsic and extrinsic phenotypic variability. The mechanisms by which heritable and non-heritable variability are regulated still need to be characterized and their influence on the
evolutionary process is largely unknown.

Concerning the modeling of fluctuations, several mathematical and physical tools
exist, but these need to be improved. Thus, stochastic models are largely used in molecular systems biology. The simulation algorithms (Gillespie algorithm) use the Delbrück-Bartholomay-Rényi representation of biochemical kinetics as jump Markov processes. In order to improve the performance of these methods (which are costly in time) several approximate schemes
have been proposed, for instance the approximation of Poisson variables by Gaussians
(tau-leap method). Hybrid approximations are more appropriate when the processes are
multiscale and these approximations could be developed by combining averaging and
the law of large numbers. In certain simple cases, the master equation can be exactly

It is also interesting to transfer ideas from statistical physics to biology. For instance, fluctuation theorems, which concern the occurrence of out-of-equilibrium fluctuations in heat exchanges with the surrounding environment and work theorems, concerning thermodynamic fluctuations in small systems close to equilibrium, could be applied to characterize fluctuations in gene networks, DNA transcription processes and the unfolding of biomolecules.

b) Stability in biology

We encounter various definitions of stability depending on the phenomenon, the model or the community proposing the concept. Frequently invoked concepts include homeostasis in relation to metabolic control, the Red Queen concept in evolution describing continuous development to sustain stable fitness in a changing environment, robustness in systems biology referring to insensitivity with respect to perturbations, or canalization and attractors in developmental biology and ecology.

The main challenges are:

In seeking to understand the stability of biological systems, which are always subject to both intrinsic and extrinsic perturbations, we need to develop the notion of steady state, or

more generally attractor. We need new mathematical concepts to capture the subtleties of biological stability.

Finite-time stability is a concept that can be used to define stability in the case when the system is known to operate or to preserve its structure unchanged over a finite
time. We are interested in the conditions under which the system’s variables remain
within finite bounds. Can we extend such formalism to other properties (oscillations, optimal biomass production, etc.)?

Finite time stability depends on the existence of subsystems with different relaxation times. It is thus important to develop methods allowing to estimate the largest
relaxation time of subsystems. For compound systems, how can we relate the
relaxation times of the elements to that of the system?

The notion of resilience is also a generalization of stability that is particularly appealing in this context. Indeed, it focuses on the ability to restore or maintain important functions when submitted to perturbations. The formalizations of this concept, founded on dynamical system properties (measure of attraction basin sizes), or even on viability theory (cost to return into a viability kernel) should become more operational to favour a wider diffusion.

The functioning of multicellular organisms occurs at the level of the cellular population, not of the individual cell. Furthermore, the stability of a cell population (tissue) is generally different from that of the individual cell. Cells extracted from tumours, for example, can reverse to normal activity when injected into healthy tissue. In this context, how can we define and study the stability of a population in relation to the stability of individuals? In addition, the same relation should be considered in the context of a developing organism taking into account differentiation and organogenesis. These processes are examples of symmetry-breaking, and we would like to determine whether symmetry arguments can be used in the study of stability properties.

Systems biology studies robustness as an important organizing principle of biological systems. As pointed out by H. Kitano, cancer is a robust system with some points of fragility. Thus, finding treatments and cures for diseases may consist in determining the fragility points of a robust system. In order to answer this question, we need good models, new mathematical theories and computer tools to analyse properties of models and new experimental techniques to quantify robustness.

Complexity and stability. In the modeling process, we should be able to zoom in and out between various levels of complexity. Stable properties of the system could be those that are common to several levels of complexity. More generally, is there a connexion between stability and complexity?

c) Multiscaling

Biological processes involve events and processes taking place over many different
scales of time and space. A hierarchical relationship among these scales enters our description only because it corresponds to our subjective views, usually based on our limited
experimental access to the system. Multiscale approaches drawn from theoretical physics
have been developed essentially in an unidirectional (bottom-up) way, to integrate parameters and

mechanisms at a given scale into effective, and hopefully reduced, descriptions at higher scales. However, lower-scale properties are directly coupled with properties of the higher scales (e.g. 3D chromosome distribution in the nucleus partly governs gene expression, which itself participates in nuclear architecture). The very complexity of living systems and biological functions lies partly in the presence of these bidirectional feedbacks between higher.


Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot N. (2010). Towards a global modelling of the Camembert-type cheese ripening process by coupling heterogeneous knowledge with dynamic Bayesian networks, Journal of Food Engineering, 98 (3), 283-293.

Baudrit, C., Hélias, A., & Perrot, N. (2009). A Joint treatment of imprecision and variability in food engineering: Application to cheese mass loss during ripening. Journal of Food Engineering, 93, 284-292.

Barrière, O., Lutton, E., Baudrit, C., Sicard, M., Pinaud B., Perrot, N. (2008). Modeling Human Expertise on a Cheese Ripening Industrial Process Using GP. Lecture Notes in Computer Science, Parallel Problem Solving from Nature – PPSN X , Springer Berlin/Heidelberg (Eds). Vol 5199, pp. 859-868.

Baudrit, C., Wuillemin, P.H., Sicard M., Perrot, N. (2008). A Dynamic Bayesian Networkto Represent a Ripening Process of a Soft Mould Cheese. Lecture Notes in
Computer Science, Knowledge-Based Intelligent Information and Engineering
Systems. Springer Berlin/Heidelberg (Eds). Vol 5178, pp. 265-272.

Baudrit, C., Dubois, D., Perrot, N. (2008). Representing parametric probabilistic models tainted with imprecision Fuzzy Sets and Systems, Vol 159, Issue 15, pp.

Allais, I., Perrot, N., Curt, C., Trystram, G., (2007) “Modelling the operator know-how to control sensory quality in traditional processes in Journal of Food engineering. 83 (2): 156-166.

Perrot, N. (2006). Fuzzy concepts applied to food product quality control. Editorial. Fuzzy Sets and Systems, 157, 1143-1144.

Perrot, N., Ioannou, I., Allais, I., Curt, C., Hossenlopp, J., Trystram, G. (2006). Fuzzy concepts applied to food product quality control: a review. Fuzzy Sets and Systems, 157, 1145-1154.

Ioannou, I., Mauris, G., Trystram, G., Perrot, N. (2006). Back-propagation of imprecision in a cheese ripening fuzzy model based on human sensory evaluations. Fuzzy Sets and Systems, 157, 1179-1187.

Articles dans congrès internationaux avec actes:

Baudrit, C., Lamrini, B., Sicard, M., Wuillemin, P.H., *Perrot*, N (2009). Dynamic neural networks versus dynamic Bayesian networks to model microbial behaviours during the cheese ripening process. /European Federation of Food Science and Technology Conference (EFFoST)/, Budapest, Hungary.

Lamrini B., *Perrot* N., Della Valle G., Chiron H., Trelea I.C. and Trystram G. (2009). A dynamic neural model to describe a leavening of bread dough Submitted in /European Federation of Food Science and Technology Conference (EFFoST)/, Budapest, Hungary.

Sicard M., *Perrot* N., Baudrit C.,Reuillon R., Bourgine P., Alvarez I., Martin S. (2009). The viability theory to control complex food processes./ European Conference on Complex Systems (ECCS’09)/,* *University of Warwick (UK).

Baudrit, C., Sicard, M., Wuillemin, P.H., *Perrot*, N. (2009). „Dynamic Bayesian Networks for Modelling Food Processing: Application to the Cheese Ripening Process”. /8th World Congress of Chemical Engineering (WCCE8),/ Montréal (Canada), 2009.

Baudrit, C., Sicard, M., Wuillemin, P.H., *Perrot, *N. (2009).”Toward a knowledge integration for representing food processes”. /European Conference on Complex Systems (ECCS’09)/, University of Warwick (UK), 2009.

Pinaud, B., Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot, N. (2008). Validation et enrichissement interactifs d’un apprentissage automatique des paramètres d’un RBD. 4ème Journées Francophones sur les Réseaux Bayésiens. Lyon, 29-30 th May.

Sicard, M;, Leclerc-Perlat, M.N., Perrot, N. (2008) “Knowledge Integration for Cheese Ripening Following”, 5th IDF symposium on cheese ripening Bern Switzerland 9-13 March 2008.

Baudrit, C., Hélias, A., Perrot, N. (2007) Uncertainty analysis in food engineering involving imprecision and randomness. ISIPTA’07 – Fifth International Symposium on Imprecise Probability: Theories and Applications, Prague, Czech Republic, pp 21-30, 2007.

Perrot, N., Allais, I., Edoura Gaena R.B., Ioannou, I., Trystram, G., Mauris, G. (2006) A methodological guideline for the expert-operator knowledge management in the food industry. In proceedings of the Foodsim congress, Naples, 15-17 June, Italie,195-200.

Plateforme – Intégration des modèles

Rapporteur : Nicolas Brodu

Contributeurs : François Arlabosse, Paul Bourgine, Nicolas Brodu, René Doursat, Jean-Pierre Müller, Édith Perrier, Nadine Peyriéras, Denise Pumain, Romain Reuillon, Jean-Baptiste Rouquier, Nathalie Perrot


Le campus numérique des systèmes complexes ambitionne d’agréger autour d’une structure commune les différents départements en charge de l’enseignement et la recherche dans le domaine des systèmes complexes. Ces départements nécessitent pour accomplir leur mission une infrastructure de support à la mise en commun d’objets de recherche (modèles, méthodes) et d’enseignement (cours, expériences pédagogiques).

La section numérique « Modèles intégrés de systèmes complexes » a pour vocation de fédérer les efforts de production et de collection des données, de développement d’outils logiciels pour leur traitement et leur modélisation, et de structuration des connaissances. Le développement de concepts pour contribuer à l’analyse systémique des systèmes et l’articulation des connaissances développées dans les sections thématiques est également un fil directeur clé de cette section. Par « modèles intégrés » nous entendons aussi bien le couplage des modèles que leur réduction ou leur mise en relation multi-échelle, dans la perspective d’une modélisation parcimonieuse qui tende vers la définition de classes d’universalité.

Cette section doit inciter au partage, au co-développement et à la réutilisation des objets numériques produits et manipulés par les sections thématiques du Campus Numérique des Systèmes Complexes. Pour ce faire, elle propose la mise en œuvre d’une infrastructure numérique favorisant une circulation à double sens : d’une part la remontée et l’organisation de ces connaissances et d’autre part leur exploitation par les équipes participantes. À l’instar de Wikipedia, cette infrastructure doit rester entièrement ouverte aux contributions extérieures et évoluer en permanence. Pour cela, elle reposera de façon critique sur des moyens techniques et humains : d’une part une automatisation poussée des processus de contribution, d’organisation et d’utilisation de l’infrastructure ; et d’autre part des activités d’accompagnement, de communication, et d’animation de la communauté des participants. Objectif

L’objectif principal est de fédérer les efforts autour de l’intégration des modèles et des connaissances sous-jacentes aux systèmes complexes (reconstruction multi-échelle, simulation multi-échelle…). Pour ce faire il est nécessaire d’engager des moyens techniques et humains centrés au travers :

De recherche sur les méthodes et concepts autour de l’intégration des modèles et connaissances et de l’intégration numérique de celles-ci.
D’une animation active de la communauté.
De composants testés, validés et spécifiés formellement.

De la mise à disposition de moyens de calcul et de stockage. D’une infrastructure d’expérimentation sur les modèles.

Les sections de recherche des grands axes thématiques du Campus Numérique des Systèmes Complexes doivent traiter de problèmes pluridisciplinaire, multi-échelles, pour lesquels une modélisation simple ne suffit plus. Les sujets d’étude des grands axes « De la molécule à l’organisme » et « De l’individu à la société, intelligence territoriale » en particulier nécessitent une approche multi-formalisme et un besoin commun de simulation.

Dans ce cadre, le but est de fournir un effort fédérateur pour l’intégration des modèles à travers la création d’une infrastructure collaborative attractive pour le partage et l’intégration des

modèles. L’université numérique propose de faire vivre une écologie de cours, la séction « Modèles intégrés de systèmes complexes » propose une écologie de logiciels. Fonctionnement

Principe général

De nombreuses plateformes intégrées aspirant à une certaine universalité se sont succédées au cours des années. Il s’agit de ne pas répéter les erreurs du passé, et en particulier de ne pas proposer une plateforme fédératrice à laquelle les utilisateurs seraient censé adhérer. Nous envisageons plutôt un fonctionnement où le système que nous proposerons doit s’adapter aux besoins et au métier de chaque utilisateur, et lui proposer des composants qu’il peut librement utiliser et adapter à ses besoins dans son propre formalisme en conservant ses habitudes.

Le fonctionnement retenu est celui d’un « wiki de modèles » comprenant pour chaque modèle : une description, une normalisation des données pour interopérabilité, du code pour une ou plusieurs plateformes logicielles sur lesquelles il est implémenté, une aide à l’indexation (mots clefs et autres méta-informations), la taille des données manipulables ainsi que des exemples de temps de calcul. De plus les connaissances propre à chaque discipline et chaque métier seront intégrées sous une forme permettant à un nouvel arrivant de mettre en œuvre le modèle en bénéficiant des retours d’expériences passés.

Le système mettra ainsi tout en œuvre pour faciliter avec un point de vue métier de non- spécialiste informaticien le retour d’information afin que les utilisateurs puissent contribuer leurs propres amélioration au système. Il ne s’agit pas seulement de proposer une « vue » sur une base de données, mais bien d’une réflexion en terme d’interface et d’ergonomie pour l’ajout d’information essentielles : le système doit doit favoriser la participation, inviter à partager ses connaissances sur un modèle dans son propre langage. Le système doit ainsi capturer les méta-informations que sont les implicites métier, et inviter les utilisateurs à réfléchir pour expliciter ces non-dits. Par exemple une plage de paramètres interdite peut sembler tellement évidente dans une discipline qu’elle n’est jamais explicitée (comme des températures supérieures à 500°C en biologie). Pourtant la transposition d’un modèle de simulation multi-agents de cette discipline vers la physique des fluides peut faire intervenir ces valeurs dans un cadre totalement différent. Un modèle précédemment validé et couramment utilisé peut ainsi devenir invalide dans un autre cadre. De manière plus générale il est vital d’expliciter les pratiques et non-dits implicites à chaque discipline pour l’usage de modèles présents dans le système. Des problématiques purement informatique comme le synchronisme ou l’asynchronisme des échanges de données du modèle avec son environnement sont par exemple moins évidente à identifier pour un non-spécialiste que l’exemple précédent de plage de paramètres, mais tout aussi cruciales pour le bon fonctionnement du modèle après transposition dans un autre environnement. L’intégralité des informations relatives à chaque modèle (code, méta-données, etc…) sera de plus suivi par un système de gestion de versions. Ainsi nous étendons la fonctionnalité de l’historique d’une page wiki à tous les aspects constituant un modèle dans le système. Le résultat est alors un outils plus avancé et performant qu’un simple wiki et qui devra également favoriser les échanges directs entre utilisateurs (notes et commentaires, forums et mailing-listes, etc) afin que ceux-ci puissent participer au système et suivre l’évolution des modèles qu’ils utilisent.

En retour le système présentera à chaque utilisateur le souhaitant une interface « métier » propre à sa discipline à partir des connaissances intégrées aux informations méta sur chaque

composant de modèle.

Les retours attendus d’un tel outil « wiki des modèles intégrés » sont :

Par son mode collaboratif l’infrastructure intègre les pratiques des acteurs et propose des cadres génériques évolutifs aux travers des efforts fournis par les participants.
Chacun contribue en proposant sa représentation du système, ses modèles et bénéfice de la base commune d’outils et de calculs.

Le système favorise les efforts de généralisation des pratiques et l’interdisciplinarité.

Rôle de la section « Modèles intégrés de systèmes complexes » du campus numérique

Après une phase initiale de mise en place le but est de minimiser les coûts récurrents et de porter les efforts humains sur l’animation de la communauté, l’accompagnement et l’aide à l’utilisation du système, ainsi que la promotion de celui-ci.

La section « modèles intégrés de systèmes complexes » du campus numérique favorisera l’autonomie des utilisateurs, leur collaboration (échanges inter-utilisateur) et dans la mesure du possible leur participation à l’évolution du système. Ceci passe par :

des communautés ouvertes d’utilisateurs au travers de forums internet, de modes de collaborations distribués autour du développement et de l’amélioration des méthodes et des modèles, de l’organisation de conférences d’utilisateurs, de concours sur l’efficacité des méthodes…
un noyau de personnes (gouvernance) participant à la fois à l’infrastructure et à des projets des sections du campus numérique sur les grands objets de recherche.

des communautés ouvertes de développeurs fédérant le travail de développement logiciel et algorithmique autour des grandes questions.

En se basant sur le modèle du logiciel libre les utilisateurs-développeurs auront ainsi le contrôle du contenu du système et la maîtrise de leur propres outils de travail. Le rôle de la section « campus numérique » est de favoriser cette appropriation par les utilisateurs et non de tenter de leur imposer un mode de fonctionnement. Les licenses libres (pour les logiciels) et Creative Commons (pour les données, y compris méta) sont des outils légaux permettant la diffusion tout en garantissant à la fois la reconnaissance des contributeurs et une panoplie de modèles économiques (deux cas fréquents sont la vente de service et d’une expertise autour d’un composant logiciel, ainsi que la vente d’un prestation de développement adapté aux besoins d’un partenaire industriel se basant sur les briques disponibles). Une infrastructure communautaire pour tester et expérimenter sur les modèles

Un principe fondamental est de fournir un service aux utilisateurs adapté à leurs propres besoins. Le wiki des modèles sera ainsi librement accessible et chacun sera ainsi encouragé à utiliser librement les modèles dans son propre environnement.

En addition à ce wiki une infrastructure collaborative sera proposée pour le test et l’expérimentation sur les modèles. Cette infrastructure ne devra en aucun cas revêtir un caractère obligatoire pour l’utilisation d’un modèle en particulier, et une des responsabilités de la section
« modèles intégrés de systèmes complexes » du campus numérique sera de vérifier scrupuleusement cette indépendance. Le risque serait sinon l’appropriation de l’outil par un acteur unique, avec comme conséquence sur le moyen terme une dérive probable de celle-ci à accroître la dépendance

des utilisateurs afin d’en tirer profit. Au contraire le but de la section « modèles intégrés » est de favoriser l’indépendance des utilisateurs.

L’infrastructure collaborative sera ainsi proposée comme service à la communauté afin d’aider les utilisateurs ne disposant pas des ressources propres nécessaires à mettre en œuvre l’application de la méthode scientifique expérimentale avec les modèles. Elle permettra aux expérimentateurs d’apprendre des modèles et d’étudier leurs données. L’infrastructure alliera :

• un travail d’ingénierie et de recherche sur l’intégration des modèles, les approches expérimentales sur les modèles et sur le calcul intensif.

l’animation d’une communauté ouverte de modélisateurs experts des grands objets, d’ingénieurs- chercheurs sur l’intégration des modèles et de chercheurs sur les méthodes experts des grandes questions.

• la mise à disposition de moyens de calculs et stockage pour expérimenter sur les modèles et analyser les données produites (grilles de calcul, grilles de données).

L’objectif est de rendre l’infrastructure exploitable pour la communauté « systèmes complexes » et de capitaliser sur un savoir faire méthodologique intégré, qui fait la jonction entre les pratiques spécifiques des grands objets et la généricité des grandes questions. Utilisabilité des modèles et transposition d’un domaine à l’autre

Chaque modèle proposé au sein du système devra répondre, dans au moins une discipline, à la problématique posée par les thématiciens de cette discipline. Bien que l’effet « collection » soit inévitable le but du système est de favoriser la réutilisation des modèles existants et l’adaptation de ceux-ci à des problématiques diverses réellement pluridisciplinaire. Il est aisé en informatique fondamentale de proposer une bibliothèque de composants génériques répondant à des tâches bien précises (ex: projet « boost » en C++, L’ambition est d’obtenir au sein de notre outil un niveau similaire de réutilisabilité avec comme atouts supplémentaires le multi- échelle, le multi-paradigme et la pluridisciplinarité des modèles proposés.

Les besoins identifiés sont les suivants :

  • Combiner des formalismes pour traiter différents points de vue (ex: équations différentielles, automates cellulaires, multi-agent), dans l’objectif d’une reconstruction et de la simulation multi-échelle.
  • Fusionner différents modèles du même phénomène.
  • Intégrer des modèles partiels de différentes disciplines. Quelles sont les façons « métier » de

    représenter les données ?

  • Conversion de modèles, transposition d’un domaine à un autre.

    Les moyens suivants ont été identifiés pour y parvenir :

  • Une standardisation des protocoles, des formats de données et vocabulaire propre à la gestion des modèles manipulés par le système.
  • Faire dialoguer entre eux les experts et utilisateurs de différents métiers. Des
    « correspondants locaux » volontaires sont envisageables afin d’entretenir ces liens.
  • Au sein du même métier il s’agit également de favoriser la communication vers les théoriciens : en particulier les ingénieurs ont besoin d’experts métier pour créer les modèles,

et réciproquement les experts métiers ont besoin des ingénieurs pour les implémenter.

  • Favoriser les recherches et exploiter les dernières avancées dans le domaine de la

    représentation des connaissances et des ontologies, de la méta-modélisation.

  • De façon similaire se reposer sur l’intelligence artificielle, l’apprentissage machine et

    l’ergonomie afin d’expliciter les présupposés du modèle et des données: domaine de validité des paramètres, quels sont les questions pertinentes à poser au modèle, comment interagir avec les non-spécialistes de façon plus efficace que par la technique limitée du jeu de formulaires et d’interfaces forcément non exhaustives.

    Le diagramme suivant sur le couplage de formalismes et la modélisation conceptuelle est une description générale, applicable tant aux « plateformes à vocation universelle » du passé qu’à leur anti-thèse que l’on propose ici sous la forme d’un « wiki ». Le but de ce diagramme est de proposer une vision plus technique des problèmes à surmonter pour réaliser des modèles intégrés, et de montrer que ceux-ci ne sont pas le point essentiel qu’aura à traiter la section « modèles intégrés de systèmes complexes » du campus numérique sur le long terme.

    Dans les différents points précédents le moteur le plus important et souvent le responsable de l’échec ou du succès des projets concerne en effet l’aspect humain : dialogue entre participants de différentes disciplines, accompagnement et aide à l’usage, promotion et séminaires découverte, etc.

    Les technologies nécessaires pour implémenter un tel système sont disponibles, moyennant suffisamment de moyens pour sa réalisation (coût initial). Une fois le système créé il reste un travail d’accompagnement et d’aide à l’utilisation. Dans la logique des sections précédentes il ne s’agit pas seulement de réduire le côut récurrent de fonctionnement pour l’équipe « modèles intégrés de systèmes complexes » du campus numérique, mais également de réduire les coûts (monétaire, temps, apprentissage) pour les utilisateurs afin de favoriser leur participation. Le système devra être créer dans cette logique, sachant que les efforts ultérieurs sur les aspects relationnels seront grandement facilités si ces coûts d’usage sont réduits au maximum.


    La section « modèle intégrés de systèmes complexes » devra prendre soin de ne pas entrer en conflit, et si possible établir des partenariats, avec les initiatives suivantes partageant au moins certains points en commun :

    • INRA, plateforme « record » : utilise VLE qui repose sur DEVS
    • Mimosa (J.P.Müller) est aussi une implémentation de DEVS.
    • INRA, plateforme logicielle interne CEPIA
    • S4, spatial modelling plateform (Besançon), plus une mise en contexte de modèles de

      simulations qui sont décrits et montrés en ligne.

    • SimExplorer et groupe mexico
    • OpenMOLE pour expérimenter sur les modèles (CREA, ISCPIF, LISC)
    • Cosmo : open source, en cours de développement depuis 3 ans, pas encore publié

    • Netlogo :
    • RetroMob :
  • OpenABM :
  • Demandes des industriels: Séminaire NAFEMS