Smart cities et Intelligence ubiquitaire

Intelligence ubiquitaire

Contributeurs : Marc Schoenauer (INRIA)

Mots clés : réseaux pair à pair (P2P), réseaux ad hoc, observations des phénomènes spatio-temporels multi-échelles (réseaux trophiques, agriculture, météorologie, etc.), algorithmes épidémiques, modèles computationnels et théorie de l’information, calcul spatial, systèmes d’auto-conscience, sens commun, confidentialité.

Introduction
La technologie actuelle permet et demande une rupture dans les modes d’acquisition et de traitement des informations, passant de l’approche monolithique à la mise en réseau d’un grand nombre d’unités de calcul éventuellement hétérogènes. Cette nouvelle approche, reposant sur la distribution du traitement et du stockage, doit permettre d’ajouter de l’intelligence aux artefacts qui constituent désormais notre environnement et de repousser les limites de l’informatique classique (essoufflement de la loi de Moore).

Cet objectif à long terme demande :

  • de résoudre les problèmes d’organisation physique et de communications (routage et contrôle distribué),
  • de mettre au point des mécanismes d’auto-régulation et de contrôle,
  • de concevoir de nouveaux modèles de calcul,
  • de spécifier des environnements de programmation adaptative (apprentissage, rétroaction et sens commun).

Les limites technologiques du modèle de calcul séquentiel de von Neumann semblent aujourd’hui atteintes et exigent de nouveaux paradigmes pour répondre à la demande de puissance computationnelle émanant de nos sociétés modernes. Au cœur de ces nouveaux paradigmes figure la distribution des tâches entre les architectures décentralisées (par exemple, les processeurs multi-cœurs, les grilles de calcul). Traiter la complexité de tels systèmes est incontournable pour répondre aux objectifs de passage à l’échelle et de robustesse dans un cadre décentralisé. Par ailleurs, il est maintenant technologiquement possible de disséminer des capteurs et des moyens de calcul partout où ils sont nécessaires. Cependant, leur exploitation nécessite leur mise en réseau ; pour des raisons physiques, chaque élément ne peut se connecter qu’à ses proches voisins (réseau ad hoc). Dans d’autres contextes, les réseaux pair a pair reposent également sur une visibilité restreinte de l’ensemble des éléments. Dans les deux cas (réseaux ad hoc et P2P), l’enjeu est de pouvoir exploiter au mieux les informations disponibles sur l’ensemble du réseau. Les défis proposés ici concernent l’ensemble de ces nouveaux systèmes computationnels ; on retrouvera certains enjeux des réseaux sociaux ou écosystémiques également traités dans cette feuille de route.

Grands défis

 


2.9.1. Conception locale pour les propriétés générales (routage, contrôle et confidentialité)

Routage, contrôle et confidentialité
Pour mieux concevoir et gérer les grands réseaux, nous devons comprendre comment émergent les comportements généraux alors même que chaque élément prend des décisions au niveau local avec une vision très restreinte du système dans sa totalité. Un modèle de base est celui des algorithmes épidémiques, dans lesquels chaque élément échange des informations avec des éléments voisins. Un enjeu de conception repose sur la nature des informations échangées (prenant notamment en compte les contraintes de confidentialité) et sur la sélection des voisins correspondants qui conditionnent le comportement général du système.

Méthodes : théorie de l’information, systèmes dynamiques, physique statistique, algorithmes épidémiques, algorithmes inspirés par le vivant.


2.9.2. Calcul autonome

Robustesse, redondance, résistance aux défaillances
L’autonomie des systèmes computationnels est une condition nécessaire pour leur déploiement à grande échelle. Les propriétés d’autonomie requises se rapprochent des propriétés du vivant : robustesse, fiabilité, résilience, homéostasie. Une difficulté est due à la taille et l’hétérogénéité de tels systèmes, qui rendent sa modélisation analytique particulièrement complexe ; de surcroît, les réactions du système dépendent du comportement dynamique et adaptatif de la communauté des utilisateurs.

Méthodes : systèmes inspirés par le vivant, systèmes d’auto-conscience.


2.9.3. Nouveaux modèles computationnels

Résolution et stockage distribué, fusion d’informations spatiales, temporelles ou multimodales, émergence d’abstractions
La mise en réseau d’un grand nombre d’unités informatiques, très souvent hétérogènes (grilles, P2P, processeurs n-cœurs) requiert une capacité de traitement gigantesque. Or, pour utiliser efficacement de telles capacités, nous avons besoin de nouveaux modèles de calcul qui prennent en compte non seulement la distribution des traitements sur des unités de faible puissance, mais aussi le manque de fiabilité de ces unités et des voies de communication. De même, la distribution des données (réseaux de capteurs, RFID, P2P) lance des défis spécifiques en termes d’intégration, de fusion, de reconstitution spatio-temporelle et de validation.

Méthodes : Algorithmes neuro-mimétiques, propagation des croyances.


2.9.4. Nouveaux paradigmes de programmation : création et ancrage des symboles

Apprentissage automatique, rétroaction et sens commun
La programmation de systèmes dédiés à l’intelligence ambiante (domotique, bien vieillir, remise en forme) doit permettre l’intervention de l’utilisateur. La spécification du comportement attendu demande un lien transparent entre les données de bas niveau disponibles et les concepts naturels de l’utilisateur (par exemple, ancrage des symboles). Par ailleurs, le programme de recherche doit être nourri par l’étude des usages ; la coévolution entre l’utilisateur et le système informatique conduit à l’apparition de systèmes hybrides complexes.

Méthodes : interface cerveau-machine, programmation par démonstration, apprentissage statistique.

 

 

Matière complexe

La matière complexe

Rapporteur : François Daviaud (CEA).

Contributeurs : Giulio Biroli (CEA), Daniel Bonamy (CEA), Elisabeth Bouchaud (CEA), Olivier Dauchot (CEA, Commissariat à l’energie atomique), François Daviaud (CEA), Marc Dubois (CEA SPEC), Berengère Dubrulle (CEA), François Ladieu (CEA), Denis L’Hôte (CEA).

Mots clés : dynamiques vitreuses, relaxations lentes, frustration et désordre, comportements collectifs, systèmes hors équilibre et non linéaires, auto-organisation, turbulence, effet dynamo, fracture.
Introduction
Le domaine des systèmes complexes et hors équilibre est actuellement enrichi par un grand nombre de nouvelles expériences et concepts théoriques dans diverses branches de la physique, de la physique de la matière condensée à la physique des gaz atomiques ultra-froids, et de la biologie. Au-delà de leur diversité apparente, ces systèmes partagent une même caractéristique : l’émergence de comportements collectifs complexes à partir de l’interaction de composants élémentaires. Les dynamiques vitreuses, les systèmes hors équilibre, l’émergence de structures auto-organisées ou auto-assemblées, la criticité, les systèmes de percolation, la propagation des parois de domaines et l’épinglage des parois élastiques, les systèmes non linéaires, la propagation des turbulences et des ruptures sont quelques-uns des sujets relatifs à l’étude de la matière complexe qui ne peuvent être abordés qu’au moyen des outils développés pour l’étude des systèmes complexes. La compréhension de ces phénomènes requiert également le développement de nouvelles méthodes théoriques en physique statistique et la conception de nouveaux types d’expériences.

Grands défis

 


2.1.1. Physique statistique hors équilibre

L’intérêt ancien durable pour les phénomènes hors équilibre a récemment connu un regain notable, ce qui s’explique par le développement de nouveaux concepts théoriques (en particulier sur les symétries des fluctuations de non-équilibre) et de nouveaux domaines d’application, de la physique de la matière condensée à d’autres branches de la physique (collisions d’ions lourds, Univers primordial), et de la biologie (manipulation de molécules uniques). Les phénomènes de non-équilibre jouent également un rôle important dans de nombreuses applications interdisciplinaires de la physique statistique (modélisation du comportement collectif des animaux ou des agents économiques et sociaux).

Un système physique peut être hors équilibre pour l’une des deux raisons suivantes :

  • Dynamiques lentes. Les dynamiques microscopiques du système sont réversibles, de sorte que le système possède une véritable situation d’équilibre. Les dynamiques de certains degrés de liberté sont néanmoins trop lentes pour que ces variables s’équilibrent au cours de l’expérience. Le système est donc dans un état de non-équilibre évoluant lentement pendant une très longue période (à l’infini dans certains systèmes modèles). Les traits caractéristiques de ce régime de relaxation de non-équilibre, y compris la violation du théorème fluctuation-dissipation, ont fait l’objet d’une intense recherche au cours de la dernière décennie. Ces phénomènes sont appelés phénomènes de « vieillissement » (voir section sur les dynamiques vitreuses).
  • Dynamiques forcées. Les dynamiques du système ne sont pas réversibles, généralement en raison de forces macroscopiques dues à des forces extérieures. Par exemple, un champ électrique induit un courant non nul dans tout le système, anéantissant la réversibilité des dynamiques stochastiques sous-jacentes. Le système atteint un état stationnaire de non-équilibre permanent. Il existe aussi des systèmes (du moins des systèmes modèles) où l’absence de réversibilité se situe exclusivement au niveau microscopique et ne dépend pas de forces macroscopiques extérieures. Le paradigme de ce type de situation est le célèbre modèle de l’électeur.

L’un des progrès les plus marquants de la dernière décennie a été la découverte de toute une série de résultats généraux concernant les symétries des fluctuations spontanées des états de non-équilibre. Ces théorèmes associés à des noms tels que Gallavotti, Cohen, Evans et Jarzynski, ont été appliqués ou testés dans de nombreuses circonstances, dans la théorie comme dans l’expérimentation.

La plupart des efforts récents dans ce domaine ont été consacrés à l’interaction des systèmes de particules. Cette vaste catégorie de systèmes stochastiques est couramment utilisée pour modéliser un large éventail de phénomènes de non-équilibre (réactions chimiques, conduction ionique, transport dans les systèmes biologiques, circulations et écoulements granulaires). Les méthodes analytiques sont un moyen efficace pour étudier un grand nombre de systèmes de particules en interaction ; elles ont déjà permis de résoudre certaines questions concernant ces systèmes.

Si le formalisme habituel de la physique statistique à l’équilibre ne s’applique pas aux systèmes hors équilibre, nous savons à présent que la plupart des outils développés pour les systèmes à l’équilibre peuvent également être utilisés pour les systèmes hors équilibre. C’est notamment le cas dans le cadre de comportements critiques, où des concepts tels que l’invariance d’échelle et l’échelonnage de taille finie ont fourni des preuves (essentiellement numériques) de l’universalité des systèmes de non-équilibre. Il est possible d’étudier des systèmes dans lesquels le caractère de non-équilibre ne provient pas de la présence de gradients imposés, par exemple, par des réservoirs de limites mais de la rupture de la microréversibilité – c’est-à-dire l’invariance de réversibilité temporelle – au niveau des dynamiques microscopiques dans la masse.

Une grande partie de la recherche sur la physique statistique hors équilibre est également axée sur les différentes transitions de phase observées dans de nombreux contextes. En effet, beaucoup de situations de non-équilibre peuvent être en interrelation, révélant un degré d’universalité qui dépasse largement les limites d’un domaine particulier : il a été démontré, par exemple, que la criticité auto-organisée du tas de sable (jeu) est équivalente au dépiégeage de l’interface linéaire en milieu aléatoire, comme à une façon particulière d’absorber les transitions de phase dans les modèles de réaction-diffusion. Un autre exemple frappant est la transition de jamming qui relie les domaines des milieux granulaires et des matériaux vitreux. Cela a été étudié expérimentalement par une expérience modèle consistant à découper une couche de disques métalliques. La synchronisation et l’échelonnage dynamique sont également des phénomènes très généraux qui peuvent être reliés entre eux ainsi qu’au problème général de la compréhension de l’universalité des systèmes hors d’équilibre.


2.1.2. Endommagement et rupture des matériaux hétérogènes

Comprendre l’interrelation entre les microstructures et les propriétés mécaniques a été l’un des principaux objectifs de la science des matériaux durant les dernières décennies. Les modèles prédictifs quantitatifs sont encore plus nécessaires pour l’étude de conditions extrêmes – température, environnement ou irradiation, par exemple – ou de comportement à long terme. Si certaines propriétés, comme les coefficients d’élasticité, se rapprochent bien de la moyenne des propriétés des divers composants microstructurels, aucune des propriétés liées à la rupture – élongation, contrainte jusqu’à défaillance, résistance à la rupture – ne suit cette simple règle, principalement : (i) en raison du gradient élevé de contrainte au voisinage d’une fissure et (ii) parce que, comme les éléments les plus fragiles de la microstructure se brisent en premier, nous avons affaire à des statistiques extrêmes. En conséquence, il est impossible de remplacer un matériau par un milieu « équivalent efficace » au voisinage d’une fissure. Cela a plusieurs conséquences importantes.

2.1.2.1. Effets de taille sur la défaillance des matériaux
Dans les matériaux fragiles, par exemple, les fissures partent des éléments les plus faibles des microstructures. En conséquence, la résistance et la durée de vie présentent des statistiques extrêmes (loi de Weibull, loi de Gumbel), dont la compréhension exige des approches fondées sur la physique non linéaire et statistique (théorie de la percolation, modèle du fusible aléatoire, etc.).

2.1.2.2 Propagation des fissures dans les matériaux hétérogènes
La propagation des fissures est le mécanisme fondamental conduisant à la défaillance des matériaux. Si la théorie du continuum élastique permet de décrire avec une grande précision la propagation des fissures dans les matériaux fragiles homogènes, nous sommes encore loin de comprendre ce phénomène en milieu hétérogène. Dans ces matériaux, la propagation des fissures présente souvent une dynamique saccadée, par sauts brusques qui s’étendent sur une vaste gamme de longueurs d’échelles. C’est également ce que suggère l’émission acoustique qui accompagne la rupture de différents matériaux et, à une bien plus grande échelle, l’activité sismique associée aux tremblements de terre. Cette dynamique de « craquement » intermittent ne peut être saisie par la théorie du continuum standard. De plus, la propagation des fissures crée une structure qui lui est propre. Cette apparition de rugosité a permis de démontrer qu’il existait des caractéristiques morphologiques universelles, indépendantes du matériau, comme des conditions de charge, rappelant les problèmes de croissance d’interfaces. Ceci suggère que des approches issues de la physique statistique peuvent permettre de décrire la défaillance des matériaux hétérogènes. Ajoutons enfin que les mécanismes deviennent bien plus complexes lorsque la vitesse de propagation des fissures augmente et se rapproche de celle du son, comme dans les problèmes d’impact ou de fragmentation, par exemple.

2.1.2.3. Déformation plastique des matériaux vitreux
En raison de l’intensification de la contrainte aux extrémités de la fissure, la rupture s’accompagne généralement de déformations irréversibles, même dans les matériaux amorphes les plus fragiles. Si l’origine physique de ces déformations irréversibles est désormais bien connue pour les matériaux métalliques, elle n’est toujours pas expliquée pour les matériaux amorphes tels que les verres d’oxyde, les céramiques ou les polymères, où les dislocations ne peuvent être définies.


2.1.3. Dynamiques vitreuses : verres, verres de spin et milieux granulaires

2.1.3.1. Verres
La physique des verres ne concerne pas uniquement les verres utilisés dans la vie quotidienne (silicates), mais un ensemble de systèmes physiques tels que les verres moléculaires, polymères, colloïdes, émulsions, mousses, verres de Coulomb, matériaux granulaires, etc. Comprendre la formation de ces systèmes amorphes, la transition vitreuse, et leur comportement hors équilibre est un défi qui a résisté à l’important effort de recherche en physique de la matière condensée au cours des dernières décennies. Ce problème concerne plusieurs domaines, de la mécanique statistique et la matière molle aux sciences des matériaux, en passant par la biophysique. Plusieurs questions ouvertes sont posées : le blocage est-il dû à une réelle transition de phase sous-jacente ou s’agit-il d’un simple croisement avec une partie de l’universalité du mécanisme de forçage ? Quel est le mécanisme physique responsable du ralentissement de la dynamique et de la vitrosité ? Quelle est l’origine des effets de vieillissement, de rajeunissement et de mémoire ? Quels sont les concepts communs qui émergent pour décrire les différents systèmes évoqués ci-dessus et qui demeurent spécifiques à chacun d’eux ?

Il est toutefois intéressant de noter qu’il a récemment été établi que le ralentissement visqueux des liquides en surfusion et autres systèmes amorphes pourrait être lié à l’existence de véritables transitions de phase d’une nature très particulière. Contrairement aux transitions de phase habituelles, la dynamique des vitrifiants ralentit considérablement, alors que leurs propriétés structurelles ne changent presque pas. Nous commençons seulement à comprendre la nature de l’ordre amorphe à longue distance qui apparaît à la transition vitreuse, les analogies avec les verres de spin et leurs conséquences physiques observables. L’une des conséquences les plus intéressantes est l’existence d’hétérogénéités dynamiques (HD) : il a été découvert qu’elles étaient (dans le domaine spatio-temporel) l’équivalent de fluctuations critiques dans les transitions de phase standard. Intuitivement, à mesure que l’on approche de la transition vitreuse, des régions de plus en plus importantes de la matière doivent se déplacer simultanément pour permettre l’écoulement, ce qui produit des dynamiques intermittentes, dans l’espace et le temps. L’existence d’une transition de phase sous-jacente et d’hétérogénéités dynamiques devrait influer sensiblement les comportements rhéologiques et de vieillissement de ces matériaux, qui sont en effet très différents des comportements des simples liquides et solides. En conséquence, les progrès dans la compréhension des dynamiques vitreuses devraient donner lieu à plusieurs avancées technologiques. Les propriétés particulières des verres sont technologiquement utilisées, par exemple, pour l’entreposage des déchets nucléaires.

D’un point de vue expérimental, les principaux défis ont changé, non seulement parce que les progrès dans ce domaine ont donné lieu à des questions radicalement nouvelles, mais aussi parce que de nouvelles techniques expérimentales permettent à présent aux chercheurs d’étudier les systèmes physiques à l’échelle microscopique. Les nouveaux défis pour les années à venir sont : i) étudier les propriétés dynamiques locales pour découvrir les changements dans la manière dont les molécules évoluent et interagissent pour rendre la dynamique vitreuse, et en particulier la raison pour laquelle le temps de relaxation de liquides en surfusion augmente de plus de 14 ordres de grandeur dans une fenêtre étroite de température ; ii) apporter une preuve directe et quantitative que la dynamique vitreuse est ou n’est pas liée à une transition de phase sous-jacente ; iii) étudier la nature des hétérogénéités dynamiques (corrélation entre leur taille et leur temps d’évolution, dimensions fractales, etc.) ; iv) étudier la nature des propriétés hors équilibre des verres, comme la violation du théorème de fluctuation-dissipation, l’intermittence, etc.

D’un point de vue théorique, le plus grand défi est d’élaborer et de développer une théorie appropriée de la dynamique vitreuse à l’échelle microscopique. Il s’agira de révéler les mécanismes physiques sous-jacents qui provoquent le ralentissement et la dynamique vitreuse, et d’élaborer une théorie quantitative pouvant être confrontée aux expériences. L’objectif principal sera à nouveau axé sur les propriétés dynamiques locales, leur longueur d’échelle associée et leur relation avec les échelles de temps croissantes et les propriétés générales de la dynamique vitreuse.

2.1.3.2. Verres de spin
L’expression « verres de spin » a été inventée pour décrire certains alliages de métaux non magnétiques comportant un petit nombre d’impuretés magnétiques, disposées de manière aléatoire, où la preuve expérimentale pour une phase à basse température a démontré un gel non périodique des moments magnétiques avec une réponse aux perturbations extérieures très lente et dépendante de l’histoire du matériau. Les états fondamentaux des verres de spin sont le désordre et la frustration. La frustration exprime le fait que l’énergie de tous les couples de spins ne peut pas être simultanément réduite. L’analyse théorique des verres de spin conduit au fameux modèle Edwards Anderson : spins classiques sur réseaux hypercubiques avec interactions aléatoires entre plus proches voisins. Cela a conduit à de nombreux développements au fil des ans, et les concepts élaborés pour résoudre ce problème ont trouvé des applications dans de nombreux domaines, des verres structuraux et des milieux granulaires aux problèmes informatiques (codes de correction d’erreurs, optimisation stochastique, réseaux de neurones, etc.).

Le programme de développement d’une théorie du champ des verres de spin est extrêmement compliqué, et ses avancées sont régulières et lentes. Les méthodes théoriques ne permettent pas encore d’établir des prédictions précises en trois dimensions. Les simulations numériques rencontrent plusieurs obstacles : nous ne pouvons pas équilibrer les échantillons de plus de quelques milliers de spins, la simulation doit être reproduite pour un grand nombre d’échantillons de désordres (en raison du non-auto-moyennage), et les corrections de taille finie diminuent très lentement.

Les verres de spin constituent en outre un cadre d’expérimentation particulièrement adapté pour la recherche sur la dynamique vitreuse. La dépendance de leur réponse dynamique par rapport au temps d’attente (effet de vieillissement) est un phénomène courant observé dans des systèmes physiques très différents tels que les polymères et les verres structuraux, les diélectriques désordonnés, les gels et les colloïdes, les mousses, les contacts de frottement, etc.

2.1.3.3. Milieux granulaires au voisinage de la transition de jamming
L’expérience commune montre que si la fraction volumique de grains durs augmente au-delà d’un certain point, le système se bloque, cesse de s’écouler et devient capable de supporter des contraintes mécaniques. Le comportement dynamique des milieux granulaires à proximité de la transition de jamming est très semblable à celui des liquides à proximité de la transition vitreuse. En effet, les milieux granulaires à proximité de la transition de jamming présentent un même ralentissement considérable de la dynamique ainsi que d’autres caractéristiques vitreuses telles que les effets de vieillissement et de mémoire. L’une des principales caractéristiques de la dynamique dans les systèmes de vitrification est ce que l’on appelle généralement l’effet de cage, qui explique les différents mécanismes de relaxation : à court terme, toute particule est piégée dans une zone confinée par ses voisines, qui constituent la cage, et provoque une dynamique lente ; après une période suffisamment longue, la particule parvient à échapper à sa cage, de sorte qu’elle peut diffuser à travers l’échantillon par changements de cage successifs, ce qui accélère la relaxation. Contrairement au ralentissement critique standard, cette dynamique vitreuse lente ne semble pas liée à un accroissement de l’ordre statique local. Pour les vitrifiants, il a plutôt été suggéré que la relaxation devient fortement hétérogène et que les corrélations dynamiques augmentent à proximité de la transition vitreuse. L’existence de cette corrélation dynamique croissante est très importante, car elle révèle une sorte de criticité associée à la transition vitreuse.

On peut étudier, par exemple, la dynamique d’une monocouche bidisperse de disques sous deux forçages mécaniques différents, c’est-à-dire de cisaillement cyclique et de vibrations horizontales. Dans le premier cas, une confirmation de la similarité évoquée ci-dessous a été obtenue au niveau microscopique, et le second cas peut apporter la preuve expérimentale d’une divergence simultanée d’échelles de longueur et de temps précisément à la fraction volumique pour laquelle le système perd sa rigidité (transition de jamming).


2.1.4. Bifurcations dans les milieux turbulents : de l’effet dynamo aux dynamiques lentes

2.1.4.1. Effet dynamo
L’effet dynamo est l’émergence d’un champ magnétique à travers le mouvement d’un fluide conducteur électrique. On pense que cet effet est à l’origine des champs magnétiques des planètes et de la plupart des objets astrophysiques. L’une des caractéristiques les plus frappantes de l’effet dynamo terrestre, révélé par les études paléomagnétiques, est l’observation de renversements irréguliers de la polarité de son champ dipolaire. De nombreux travaux ont été consacrés à ce problème, par la théorie et par numérisation, mais l’ensemble des paramètres pertinents pour les objets naturels dépasse les possibilités des simulations numériques pour de nombreuses années encore, notamment en raison des turbulences. Pour les dynamos industrielles, le trajet des courants électriques et la géométrie des rotors (solides) sont entièrement définis. Comme cela ne peut être le cas pour l’intérieur des planètes ou des étoiles, des expériences visant à étudier des dynamos en laboratoire ont évolué vers l’assouplissement de ces contraintes. Les expériences menées à Riga et à Karlsruhe en 2000 ont montré que les fluides dynamos peuvent être générés par l’organisation de fluides de sodium favorables, mais les champs dynamos n’ont qu’une dynamique temporelle. La recherche de dynamiques plus complexes, telles que celles des objets naturels, a encouragé la plupart des équipes travaillant sur le problème de l’effet dynamo à concevoir des expériences avec des fluides moins contraints et un niveau de turbulence supérieur. En 2006, l’expérience Von Kármán Sodium (VKS) a été la première à montrer des régimes où une dynamo statistiquement stationnaire apparaît spontanément dans un fluide turbulent. Elle a ensuite montré pour la première fois d’autres régimes dynamiques, tels que les renversements irréguliers comme ceux de la Terre, et les oscillations périodiques, comme celles du Soleil.

Ces régimes complexes, impliquant un puissant couplage entre hydrodynamiques et MHD, doivent être étudiés en détail. Ils révèlent en particulier que si le champ magnétique dynamo est généré par les fluctuations turbulentes, il se comporte comme un système dynamique présentant peu de degrés de liberté.

Les prédictions théoriques concernant l’influence de la turbulence sur le seuil dynamo du fluide moyen sont rares. De faibles fluctuations de vitesse produisent un faible impact sur le seuil dynamo. Des prédictions pour des amplitudes de fluctuations aléatoires peuvent être obtenues si l’on considère la dynamo turbulente comme une instabilité forcée par le fluide moyen) en présence d’un bruit multiplicatif (fluctuations turbulentes). Dans ce contexte, les fluctuations peuvent favoriser ou entraver la croissance du champ magnétique en fonction de leur intensité ou du temps de corrélation. Les méthodes de simulation directe et de simulation numérique stochastique des équations de magnétohydrodynamique (MHD) peuvent être utilisées pour étudier l’influence de la turbulence sur le seuil dynamo.

2.1.4.2. Bifurcations en milieu turbulent
À des nombres de Reynolds élevés, certains systèmes sont soumis à une bifurcation turbulente entre différentes topologies moyennes. De plus, cette bifurcation turbulente peut conserver la mémoire de l’histoire du système. Ces aspects de la bifurcation turbulente rappellent les propriétés classiques des bifurcations dans les systèmes de petite dimension, mais la dynamique de bifurcation est réellement différente, probablement en raison de la présence de fluctuations turbulentes très importantes. Les études à venir porteront sur la pertinence universelle du concept de multistabilité moyenne pour les états de systèmes à fortes fluctuations et les transitions entre ces états (inversions magnétiques de polarité terrestre, changements climatiques entre les cycles glaciaires et interglaciaires, par exemple). La dynamique lente des systèmes turbulents, dans les cas où des échanges de stabilité peuvent être observés pour des quantités globales ou des propriétés moyennes du fluide, devrait également être étudiée, et des modèles non linéaires ou stochastiques de ces transitions devraient être élaborés.

Dans le cas des fluides turbulents à symétrie, il est également possible d’élaborer une mécanique statistique et de développer une approche thermodynamique des états à l’équilibre des fluides axisymétriques à une échelle donnée de macrogranularité. Cela permet de définir une entropie de mélange et des états de dérivation de Gibbs du problème par une procédure de maximisation de l’entropie de mélange sous contrainte de conservation des quantités totales. À partir de l’état de Gibbs, on peut définir des identités générales déterminant les états à l’équilibre, ainsi que les relations entre les états à l’équilibre et leurs fluctuations. Cette thermodynamique doit être testée sur des fluides turbulents, le fluide Von Kármán, par exemple. Les températures réelles peuvent être mesurées et les résultats préliminaires montrent qu’ils dépendent de la variable prise en compte, comme dans d’autres systèmes hors équilibre (verre). Enfin, nous pouvons déduire une paramétrisation du mélange non visqueux pour décrire la dynamique du système à une échelle de macrogranularité. Les équations correspondantes ont été appliquées numériquement et peuvent être utilisées comme modèle de turbulence à une nouvelle échelle sous-maille.

 

 

Alimentation

Symbioses, fermentations, kéfir,

Nathalie et Christophe

 

 

Algorithmes et société

 

 

 

Des molécules aux organismes et écosystèmes (2017)

Des molécules aux organismes

Rapporteur : Christophe Lavelle (IHES).

Contributeurs : Pierre Baudot (ISC-PIF), Hugues Berry (INRIA, Saclay), Guillaume Beslon (IXXI-LIRIS, Lyon), Yves Burnod (INSERM, Paris), Jean-Louis Giavitto (IBISC, Evry), Francesco Ginelli (CEA, Saclay), Zoi Kapoula (CNRS, Paris), Christophe Lavelle (IHES, Bures sur Yvette), André Le Bivic (CNRS SDV, Marseille), Nadine Peyrieras (CNRS, Gif s/Yvette), Ovidiu Radulescu (IRMAR, Rennes), Adrien Six (UPMC, Paris).

Mots clés : biologie des systèmes et biologie intégrative, stabilité, fluctuation, bruit et robustesse, physiopathologie, réseaux biologiques, biologie computationnelle, approches multi-échelles dans les systèmes biologiques, holonbionte.

Introduction
La recherche biologique produit des connaissances supposées, à un certain point, être transférées en recherche clinique et traduites en avancées médicales pour le traitement des physiopathologies humaines. On espère ainsi trouver, si possible, des remèdes aux maladies, ou du moins mieux les comprendre. Il est pourtant de plus en plus évident qu’une meilleure compréhension ne peut émerger que d’une vision plus holistique ou intégrative des systèmes biologiques. Il nous faut donc développer une meilleure compréhension des systèmes biologiques en tant que systèmes complexes et transférer cette compréhension à la recherche clinique. Cela exige une approche fortement interdisciplinaire et devrait fournir de nouvelles connaissances en physiologie et en pathologie.

Après une brève présentation des objectifs généraux et des concepts abordés dans cette section, nous verrons de manière plus détaillée quatre défis majeurs. Comment les recherches devraient être motivées en biologie est sujet à débat. Doivent-elles être fondées sur des données, des objets ou des hypothèses ? Sommes-nous au moins d’accord sur l’objectif de déchiffrage des chaînes causales qui sous-tendent les processus biologiques ? Attendons-nous des modèles qu’ils apportent des informations et des connaissances sur le comportement des systèmes biologiques et qu’ils nous permettent d’élaborer des prédictions précises ?

Les avancées récentes en génomique fonctionnelle et dans l’étude des maladies complexes telles que le cancer, les maladies auto-immunes ou infectieuses, les maladies mitochondriales ou les syndromes métaboliques, ont montré la nécessité d’une autre approche de la biologie, une vision selon laquelle la pathologie et la physiologie sont le résultat des interactions de nombreux processus à différentes échelles. La nouvelle discipline scientifique de la biologie des systèmes est née de ce point de vue ; elle est axée sur l’étude des gènes, des protéines, des réseaux de réactions biochimiques et de la dynamique des populations cellulaires, considérés comme des systèmes dynamiques. Elle étudie les propriétés biologiques résultant de l’interaction de nombreux composants, en examinant les processus à différentes échelles et leur intégration systémique générale. La science des systèmes complexes fournit un cadre conceptuel et des outils efficaces pour tenter de comprendre les caractéristiques émergentes et immergentes, des molécules aux organismes et inversement. Le terme d’« immergence » implique que certaines contraintes à macro-niveau s’écoulent en cascade, de manière causale, vers des micro-niveaux. Les propriétés émergentes et immergentes doivent être pensées à partir de la reconstruction multi-échelles des données enregistrées aux échelles spatio-temporelles appropriées. Nous nous attendons à trouver des processus génériques (modèles de conception pour l’informatique) qui s’appliquent des niveaux supérieurs aux niveaux inférieurs d’organisation, et vice versa, et qui permettent leur couplage ; par exemple la synchronisation, le renforcement, l’amplification, l’inhibition, obtenus au moyen de processus de base tels que la signalisation par les interactions moléculaires, la diffusion, le transport vésiculaire, le transport ionique, le couplage électrique, le couplage biomécanique et la régulation des caractéristiques des molécules et des macromolécules (y compris leurs concentrations).

Les systèmes complexes impliquent presque toujours une large gamme d’échelles temporelles (en général des femtosecondes pour les réactions chimiques, des secondes pour les processus métaboliques, des jours ou des mois pour les cellules et des années pour les organismes vivants) et spatiales (en général des nanomètres pour les structures moléculaires, des micromètres pour les ensembles supramoléculaires, les organelles et les cellules, des centimètres pour les tissus et les organes, et des mètres pour les organismes). Déterminer l’échelle spatio-temporelle pertinente pour l’expérimentation et la modélisation est un enjeu majeur. Les approches classiques (biochimie, biologie cellulaire et moléculaire, études cognitives et comportementales, etc.) utilisent généralement une échelle « de préférence » déterminée par défaut, essentiellement en raison des protocoles et expériences fondamentaux conçus pour ne fonctionner qu’à une échelle spécifique. Les interactions entre les différentes échelles dans les observations, expérimentations, modèles et simulations deviennent un défi transdisciplinaire passionnant.

Les variations des systèmes biologiques soulèvent la question d’un comportement moyen, caractéristique ou représentatif. Déterminer leurs quantités, et savoir si elles sont scientifiquement utiles, exige de caractériser et de mesurer la variabilité et les fluctuations aux niveaux de la molécule, de la cellule, de la population de cellules et au niveau physiologique. L’origine et la signification fonctionnelle des fluctuations dans les systèmes biologiques, même aux échelles spatio-temporelles où elles se produisent, demeurent largement inconnues. Leur signification fonctionnelle pourrait être abordée à travers leur transmission multi-échelles et leur éventuelle amplification, réduction/amortissement ou leur rôle dans la médiation des bifurcations.

De toute évidence, la compréhension ne résultera pas d’une description individuelle ou d’une modélisation d’organismes (cellule virtuelle, organisme virtuel), mais plutôt de l’identification des composants pertinents pour un problème donné et de la reconstruction de modèles axés sur les mécanismes impliqués. Une telle reconstruction doit utiliser des outils mathématiques et physiques empruntés, entre autres, à la thermodynamique hors équilibre et aux systèmes dynamiques. De nouveaux outils seront également nécessaires pour répondre à des questions spécifiques de la biologie. Enfin, introduire une vision systémique et utiliser des principes et un cadre conceptuel des systèmes complexes pour une meilleure compréhension de la physiopathologie humaine pourrait conduire à un nouveau diagnostic différentiel et améliorer les soins médicaux.

Grands défis

  • Fluctuations et bruit dans les systèmes biologiques
  • La stabilité en biologie
  • Approches multi-échelles
  • Physiopathologie humaine

 


2.2.1. Fluctuations et bruit dans les systèmes biologiques

Au cours de son développement, la biologie moderne a eu souvent recours aux notions de comportements moyens et d’individus moyens. Mais ce cadre conceptuel a été récemment remis en question par l’observation empirique. Des mesures quantitatives de cellules vivantes individuelles, ou à l’intérieur de ces cellules, ont révélé la grande variabilité et la fluctuation de la dynamique cellulaire entre différentes cellules ou différents moments dans la même cellule. Ces observations ouvrent un nouveau cadre conceptuel en biologie, où le bruit doit être pleinement pris en considération si nous voulons comprendre les systèmes biologiques ; cette vision s’écarte du cadre classique qui considère que le bruit et les fluctuations sont une erreur de mesure ou de « simples » fluctuations thermodynamiques qui devraient être supprimées par les cellules.

Ce nouveau point de vue soulève de nombreuses questions, ainsi que les deux problèmes théorique et pratique susceptibles de modifier profondément notre compréhension des systèmes biologiques. Pour aborder ces questions, nous devons toutefois développer un programme complet de recherche scientifique allant des mesures précises à l’analyse de l’origine et du rôle fonctionnel de la stochasticité dans les systèmes biologiques. Pour réaliser de telles avancées, nous devons, entre autres :

  • Améliorer la technologie pour les mesures quantitatives du bruit et des fluctuations dans la cellule, les populations de cellules, les tissus, les organes et les individus. Il faudra en particulier identifier les moments caractéristiques à chaque niveau d’organisation et les indicateurs expérimentaux les plus appropriés.
  • Identifier les mécanismes produisant le bruit et les fluctuations dans les systèmes biologiques et répondre en particulier aux questions suivantes : quelles sont les modalités de transmission multi-échelles des fluctuations ? Les fluctuations sont-elles amplifiées ou réduites/amorties en passant d’une échelle aux autres ? Sont-elles importantes par rapport aux bifurcations dans le destin de l’organisme ou de la cellule ?
  • Comprendre la signification fonctionnelle des fluctuations dans différents systèmes biologiques. Il a par exemple été suggéré que les fluctuations pourraient améliorer la robustesse des êtres vivants. D’autres processus peuvent toutefois être envisagés (résonance stochastique, augmentation des taux de signalisation, différenciation cellulaire, évolution, etc.). Cette signification fonctionnelle implique que les systèmes biologiques sont capables de contrôler le niveau de bruit.
  • Définir les éventuels mécanismes par lesquels les systèmes biologiques peuvent contrôler leur niveau de fluctuation (boucles de rétroaction négative/positive dans les réseaux biochimiques, adaptation neuronale dans les réseaux corticaux, mutations adaptatives et mutation ponctuelle, régulations et réseaux dans le système immunitaire).
  • Remettre en question le sens des processus habituels d’établissement de moyennes dans la biologie expérimentale. Dans le cas des réseaux biochimiques, les données collectées sur les populations de cellules peuvent-elles être utilisées pour déduire le réseau réel dans une cellule individuelle donnée ? Des questions similaires se posent dans le cas des structures de connexion des réseaux corticaux et de la reconstruction des lignées cellulaires.

Ces questions peuvent être abordées dans divers systèmes biologiques tels que (et non exhaustivement) :

  • Les réseaux de transcription et de régulation : il est à présent clair que l’activité transcriptionnelle de la cellule est hautement stochastique. Certaines des causes moléculaires de cette stochasticité ont été identifiées, mais son origine précise et ses mécanismes de régulation restent à découvrir. Cela exigera tout d’abord le développement de méthodologies de mesure appropriées pour permettre de quantifier ces fluctuations à différentes échelles temporelles dans la cellule.
  • Les neurones et les réseaux neuronaux : l’activité « continue » au sein des circuits corticaux est une activité spontanée générée par le caractère récurrent de ces réseaux. Elle a longtemps été considérée comme un simple bruit ajouté aux signaux environnementaux. Des études récentes ont toutefois attribué un véritable rôle fonctionnel à cette activité continue qui pourrait faciliter la propagation du signal et être impliquée dans les processus d’adaptation. Il a été démontré que des effets inhibiteurs réduisent la variabilité au niveau de la cellule individuelle comme de la population de cellules.
  • La diversité du système immunitaire : le système immunitaire se caractérise par sa diversité à différents niveaux ; diversité des récepteurs des lymphocytes, populations d’effecteurs et de régulateurs, dynamique des populations de cellules, sélection et compétition des cellules et migration à travers tout l’organisme sont le résultat de mécanismes stochastiques ou de sélection dont l’impact sur l’efficacité générale du système doit encore être décrit.
  • La variabilité incontrôlée est souvent considérée comme une source de perturbations majeures pour le destin des organismes. Nous pouvons en trouver des exemples dans le processus de vieillissement, le cancer, les maladies auto-immunes, les infections ou les maladies dégénératives. Toutefois, le débat sur l’influence concrète du bruit reste ouvert. Un point en particulier reste à déterminer : dans quelle mesure les processus dégénératifs sont-ils une conséquence de l’accumulation de bruit, une variation des propriétés du bruit ou d’événements stochastiques exceptionnels.
  • La variabilité au niveau génétique est le premier moteur de l’évolution et peut être indirectement régulée en fonction des caractéristiques spatio-temporelles de l’environnement (sélection pour la robustesse, par exemple, ou pour l’évolutivité). En outre, les individus clonaux peuvent être très différents les uns des autres en raison de la variabilité phénotypique intrinsèque et extrinsèque. Les mécanismes par lesquels la variabilité héréditaire et non héréditaire est régulée doivent encore être décrits et leur influence sur le processus d’évolution est largement méconnue.

En ce qui concerne la modélisation des fluctuations, il existe plusieurs outils mathématiques et physiques, mais ils doivent être améliorés :

  • Les modèles stochastiques sont largement utilisés en biologie des systèmes moléculaires. Les algorithmes de simulation (algorithme de Gillespie) utilisent la représentation Delbrück Bartholomay Rényi de la cinétique biochimique comme processus markovien de sauts. Pour améliorer les résultats de ces méthodes (coûteuses en termes de temps) plusieurs systèmes approximatifs ont été proposés, par exemple l’approximation des variables de Poisson par les variables gaussiennes ("tau-leaping"). Les approximations hybrides sont plus appropriées aux processus multi-échelles et elles pourraient être développées en associant moyenne et loi des grands nombres. Dans certains cas simples, l’équation maîtresse peut être résolue.
  • Il est également intéressant de transférer des concepts de la physique à la biologie. Les théorèmes de fluctuation, par exemple, relatifs à l’apparition de fluctuations hors équilibre dans les échanges de chaleur avec le milieu ambiant, et les théorèmes de travail relatifs aux fluctuations thermodynamiques dans les petits systèmes proches de l’équilibre pourraient être appliqués pour décrire les fluctuations dans les réseaux de gènes, les processus de transcription d’ADN et le depliement/repliement des biomolécules.

2.2.2. La stabilité en biologie

Nous trouvons différentes définitions de la stabilité selon le phénomène, le modèle ou la communauté proposant le concept. Les concepts les plus fréquemment évoqués sont l’homéostasie pour le contrôle métabolique, le concept de la Reine Rouge, en biologie évolutive, décrivant un développement permanent permettant de maintenir la stabilité des conditions dans un environnement changeant, la robustesse dans la biologie des systèmes par rapport à l’insensibilité aux perturbations ou la canalisation et les attracteurs dans la biologie du développement et l’écologie.

Les principaux défis sont :

1) Pour chercher à comprendre la stabilité des systèmes biologiques, continuellement soumis à des perturbations intrinsèques et extrinsèques, nous devons développer la notion de situation d’équilibre, ou, plus généralement, la notion d’attracteur. Nous avons besoin de nouveaux concepts mathématiques pour saisir les subtilités de la stabilité biologique.

  • La stabilité en temps fini est un concept qui peut servir à définir la stabilité lorsque l’on sait que le système exploite ou maintient sa structure inchangée dans un temps fini. Les conditions dans lesquelles les variables du système demeurent dans des limites finies nous intéressent particulièrement. Pouvons-nous étendre ce formalisme à d’autres propriétés (oscillations, production optimale de biomasse, etc.) ?
  • La stabilité en temps fini dépend de l’existence de sous-systèmes présentant différents temps de relaxation. Il est donc important de développer des méthodes permettant d’estimer le temps de relaxation le plus long des sous-systèmes. Pour les systèmes composés, comment pouvons-nous relier les temps de relaxation des éléments à ceux du système ?
  • La notion de résilience est également une généralisation de la notion de stabilité, particulièrement intéressante dans ce contexte. Elle met en effet l’accent sur la capacité à restaurer ou maintenir des fonctions majeures soumises à des perturbations. Les formalisations de ce concept, fondé sur les propriétés des systèmes dynamiques (mesure de la taille des bassins d’attraction), voire sur la théorie de la viabilité (coût du retour dans un noyau de viabilité), devraient devenir plus opérationnelles pour favoriser une plus large diffusion.

2) Le fonctionnement des organismes multicellulaires s’opère au niveau de la population cellulaire et non au niveau de la cellule individuelle. Par ailleurs, la stabilité d’une population cellulaire (tissu) est généralement différente de celle de la cellule individuelle. Les cellules extraites de tumeurs, par exemple, peuvent revenir à une activité normale lorsqu’elles sont injectées dans un tissu sain. Dans ce contexte, comment pouvons-nous définir et étudier la stabilité d’une population par rapport à la stabilité des individus ? De plus, nous devons considérer le même rapport dans le contexte d’un organisme en évolution, en tenant compte de la différenciation et de l’organogenèse. Ces processus constituent des exemples de rupture de symétrie, et nous aimerions déterminer si des arguments de symétrie peuvent être utilisés pour l’étude des propriétés de stabilité.

3) La biologie des systèmes étudie la robustesse comme principe d’organisation fondamental des systèmes biologiques. Comme l’a souligné H. Kitano, le cancer est un système robuste comportant quelques points faibles. La découverte de traitements et de remèdes aux maladies peut donc passer par la détermination des points faibles d’un système robuste. Pour répondre à ces questions, nous avons besoin de modèles pertinents, de nouvelles théories mathématiques et d’outils informatiques pour analyser les propriétés des modèles, et de nouvelles techniques expérimentales pour quantifier la robustesse.

4) Complexité et stabilité. Dans le processus de modélisation, nous devons être en mesure de basculer entre divers niveaux de complexité. Les propriétés stables du système pourraient être les propriétés communes à plusieurs niveaux de complexité. Plus généralement, y a-t-il un lien entre stabilité et complexité ?


2.2.3. Approches multi-échelles

Les processus biologiques mettent en jeu des événements et des processus qui se produisent à différentes échelles spatio-temporelles. Une relation hiérarchique entre ces échelles n’entre dans notre description que parce qu’elle correspond à notre point de vue subjectif, généralement fondé sur notre accès expérimental limité au système. Des approches multi-échelles empruntées à la physique théorique ont été essentiellement développées d’une manière unidirectionnelle (de bas en haut), pour intégrer des paramètres et des mécanismes à une échelle donnée à des descriptions réelles – et que nous espérons réduites – à plus grande échelle. Toutefois, les propriétés à échelle réduite sont directement associées aux propriétés à des échelles supérieures (par exemple, la distribution 3D du chromosome dans le noyau régit partiellement l’expression des gènes, qui participe elle-même à l’architecture du noyau). La complexité même des systèmes vivants et des fonctions biologiques repose en partie sur la présence de ces rétroactions bidirectionnelles entre échelles inférieures et supérieures établies au cours de l’évolution. Des approches auto-cohérentes ou itératives multi-échelles doivent donc être introduites pour prendre en compte les fortes interconnexions entre les différents niveaux et les schémas de causalité circulaires qui en découlent.

2.2.3.1. Multi-échelle vs. auto-échelle
Pour bien rendre compte du comportement d’un système biologique, une approche multi-échelles doit aborder conjointement toutes les échelles, sans omettre aucun détail microscopique ni aucun ensemble macroscopique. De toute évidence, cette modélisation atteindrait rapidement un important degré de complexité et finirait par être ingérable. Une telle limitation des descriptions multi-échelles constitue donc un défi radical pour le paradigme qui sous-tend la modélisation des systèmes biologiques.

Pour réduire le niveau de complexité, il a été proposé (Lavelle, Benecke, Lesne) de concevoir des modèles en prenant comme point de départ et ligne directrice la fonction biologique pour orienter la modélisation intégrée et utiliser l’analyse supervisée des données parallèlement à la logique biologique. L’analyse est réalisée en découpant sa logique et son application en processus fondamentaux impliquant des caractéristiques à différentes échelles, déjà intégrés dans leur formulation. Plus généralement, ce découpage permet d’obtenir des modules fonctionnels « auto-échelonnés », indépendants d’une description arbitraire ou de l’échelle de l’observation. Comme les représentations dépendantes de la fonction sont intrinsèquement multi-échelles à l’état naturel et que la fonction ne peut pas être discontinue, ce paradigme de transition requiert un modèle à échelle permanente. Les descriptions à échelle continue peuvent à première vue sembler trop complexes et non réalistes ; néanmoins, lorsqu’un tel modèle à échelle continue est élaboré dans le contexte d’une représentation dépendante de la fonction, la dimension de la variable du vecteur à considérer s’effondre.

2.2.3.2. Émergence contre immergence
La modélisation des systèmes biologiques requiert de nouveaux formalismes mathématiques capables de refléter la dynamique complexe d’un système en intégrant ses nombreux niveaux. Cela peut être réalisé en définissant des fonctions « micro vers macro » (émergence) et « macro vers micro » (immergence, micro-émergence ou causalité vers le bas) et en intégrant des couplages intra-niveau (horizontal) et inter-niveaux (vertical). La définition des variables pertinentes à chaque niveau d’organisation et une description de leurs relations est nécessaire pour obtenir des fonctions d’émergence (ou d’immergence) permettant à l’analyse de sauter du niveau microscopique (ou macroscopique) au niveau macroscopique (ou microscopique). Les phénomènes d’émergence et d’immergence sont bien connus en biologie, tout comme les liens entre la topologie de la structure des tissus et le comportement des cellules. Mais ces relations de cause à effet sont difficiles à déchiffrer, essentiellement parce que les échelles auxquelles elles se produisent ne sont pas nécessairement celles auxquelles les chercheurs effectuent leurs observations et leurs expériences.

  • Comment devons-nous procéder pour choisir les échelles spatio-temporelles pertinentes pour nos expériences, modèles et théories (auto-échelonnage plutôt que échelonnage multiple exhaustif) ?
  • Comment pouvons-nous effectuer des reconstructions multi-échelles à partir des données enregistrées à différentes échelles ? À quelles échelles spatio-temporelles le modèle ou la simulation obtenus seront-ils valables ?

2.2.4. Physiopathologie humaine

La physiopathologie humaine crée des incertitudes en raison des frontières constamment mouvantes entre les champs de disciplines telles que la neurologie, les neurosciences, la psychiatrie, l’immunologie, la cardiologie, l’endocrinologie et l’étude du métabolisme. Elle se caractérise par le dysfonctionnement et la détérioration progressifs des processus agissant sur plusieurs échelles spatio-temporelles avec des interactions non linéaires entre fonctions physiologiques et biologiques, cognition, émotions et conséquences sociales. Les problèmes peuvent d’abord résulter d’un conflit local entre des signaux internes et externes (les vertiges, par exemple), mais ce conflit peut s’étendre, se diffuser et créer de nouvelles boucles de causalité présentant de nombreuses interactions pathogènes réciproques. Les problèmes fonctionnels peuvent être primaires ou résulter d’effets secondaires de mécanismes spontanés d’adaptation visant à lutter contre une lésion ou une dysfonction primaire. Il est donc important de les dissocier.
Deux défis majeurs sont :

  • Appliquer les principes et les cadres théoriques des systèmes complexes à la conception d’études expérimentales et à l’analyse des données à différentes échelles (neurologique, physiologique, comportementale, neuropsychologique, immunologique) relatives à des individus ou à un vaste groupe de patients.
  • Découvrir des corrélations croisées et des interactions pour ouvrir de nouvelles perspectives sur les mécanismes pathogènes primaires ou secondaires. Cela pourrait permettre d’obtenir de nouveaux outils de diagnostic différentiel plus sensibles, mais aussi d’améliorer les soins médicaux ou les méthodes de réadaptation fonctionnelle. Nous devons dépasser une pluridisciplinarité limitée aux différentes approches parallèles et utiliser les outils des systèmes complexes pour associer les données de différents domaines et acquérir une meilleure connaissance.

Cette question concerne l’ensemble de la médecine interne et générale, l’immunologie, les neurosciences, la psychiatrie, la gériatrie, la pédiatrie, la rééducation fonctionnelle, la santé publique et la science des systèmes complexes. Des exemples de problèmes fonctionnels, dont certains n’ont aucune origine organique mesurable, comprennent le vertige – vertiges et troubles de l’équilibre, peur de tomber chez les personnes âgées, perte d’audition isolée, acouphènes, difficultés d’apprentissage – la dyslexie, mais également les maladies neuro-dégénératives, les différentes démences, la démence à corps de Lewy et la maladie d’Alzheimer. Quelles sont les causes du passage du bruit acoustique physiologique au signal perçu indésirable dans le cas des acouphènes en l’absence de résultats neuro-ontologiques ?

Les principales questions comprennent l’importance des fluctuations instantanées des mesures (physiologiques, comportementales, dans le cas de la démence, par exemple) par rapport à la physiopathologie et à la dégénérescence progressive des circuits corticaux et sous-corticaux. Nous pourrions citer d’autres exemples en immunologie : l’analyse des fonctions du système immunitaire dans les maladies physiologiques (de l’ontogénie au vieillissement, la gestation) et pathologiques (cancer, maladies auto-immunes, infections), et des interactions avec d’autres systèmes biologiques comme le système nerveux, endocrinien ou métabolique. Cela est fondé sur l’analyse dynamique des populations de cellules du fluide lymphatique, la quantification et l’identification du phénotype et des fonctions, des répertoires, de la génomique et de la protéomique.

 

 

Construction and evolution of immunity

Edition 2017

Complexity of the immune system

Contributed by Véronique Thomas-Vaslin

As a complex biological system, the immune system is an adaptive, highly diversified, robust and resilient system with emergent properties, such as anamnestic responses and regulation. The immune system is characterized by complexity at different levels: network organization through fluid cell populations with inter- and intra-cell signaling, lymphocyte receptor diversity, cell clonotype selection and competition at cell level, migration and interaction inside the immunological tissues and fluid dissemination through the organism, homeostatic regulation while rapid adaptation to a changing environment.

The immune system develops during the fetal life and organizes in relation with the mother immunity and microbiote that thus transmits its historicity. The genetic diversity of the antigenic receptors and the correct differentiation and renewal of lymphocytes insures during all the life a potential to react to any antigens that is kept through quiescent lymphocytes that remain in “standby”. Then, quiescent lymphocytes that perceive antigens are activated and involved collectively during immune responses, through various functions and communications.   This allows the cognition of the worldwide molecular diversity, including the eukaryote and prokaryote cells that compose our human “holobionte” organism. Innovative primary and memory adaptive immune responses arise in responses to the constant fluxes of molecular perturbations and alterations occurring throughout all our life. This immune protection insures that at the macroscopic level, organisms remain in healthy state, with resilience to immune perturbations and infections, efficiency for reproduction of species, including the protection of the fetus from immune system mother. Delicate networks and oscillations through regulations occur daily in the immune system and lymphoid organs. They continuously reproduce new diversified lymphocytes, provide a selection that kill more than 90% of the cells produced, to distribute and control functions of selected lymphocytes through the body and establish collaborative cell functions of immuno-surveillance.
Understanding the organization and regulation of this complex immune system  (but also disorganization, instability and aging) refers to transversal questions already mentioned for other complex systems such as other biological, social or ecological macro systems, with some peculiarities specific to the immune system as summarized below.

Transversal questions commons to other complex systems (specific to immune system):

-Study and modelling of adaptive multiscale system (the adaptive immune system)
-Integration of high-throughput multiscale and multiparametric data and metadata and sharing (data from transcriptome, proteome, but also cytome, repertome…)
-Computer or mathematical tools for exploration and formalisation (supervised and non supervised statistical modeling, mechanistic reconstruction of immune system behaviour)
-Theoretical reconstruction (data mining, multiscale analysis, representation of heterogeneous data, organisation of knowledge’s database describing the immune system around the lymphocyte level, from molecule to organism, data-driven and hypothesis-driven reconstruction
-Metamodels, multiformalism for reconstruction and visualization of dynamics, differentiation, and behaviour (mathematical & computer modelling for lymphocyte cell population dynamics, activation, regulation and selection processes; use of oriented object, graphical language based on state and transition diagrams, SMA, ontologies, for modelling the immune system…)
-Fluctuations, stability, variability, regulations at multiscale levels (Multilevel/Multiscale: organism, lymphoid tissues, lymphocyte populations, cellular and molecular lymphoid repertoires)
-Robustness/resilience (describe, predict and control immune system development & aging; resilience to perturbations, transition to immunopathologies (infection, autoimmunity, cancer…); immunotherapy/vaccination.
-Model the relationships between biodiversity, functioning and dynamics of the (eco)systems (diversity, stability / perturbation of immune repertoires and lymphocyte populations)
-Self organization, simulation of virtual landscapes (auto-organisation of cells in lymphoid organs and development, cell network and immune repertoire)
-Data mining: extraction, visualization of data and semantic and syntactic analysis of scientific literature requires artificial intelligence and automatic learning approaches (information extraction and visualization of immune literature with concepts specific to immune system according to  a given context)

Transversal questions commons to other complex systems Questions specific to the immune system
Study and modeling of adaptive multi-scale system The adaptive immune system
Integration of high-throughput multi-scale and multi-parametric data and metadata and sharing Biological generic data from transcriptome, proteome, but also cytome, repertome…
Computer or mathematical tools for exploration and formalization Supervised and non supervised statistical modeling, mechanistic reconstruction of immune system and lymphocyte behaviour
Theoretical reconstruction Multi-scale analysis, representation of heterogeneous data, organisation of knowledge’s database describing the immune system around the lymphocyte level, from molecule to organism, for data-driven and hypothesis-driven reconstruction
Metamodels, multi-formalism for reconstruction and visualization of dynamics, differentiation, and behaviour Mathematical & computer modelling for lymphocyte cell population dynamics, activation, regulation and selection processes; use of oriented object, graphical languages, SMA, ontologies, for modeling the multi-scale entities of the immune system…
Fluctuations, stability, variability, regulations at multi-scale levels Multi-level/Multi-scale: organism, lymphoid tissues, lymphocyte populations, cellular and molecular lymphoid repertoires
Robustness/resilience and relation to organization Behavior of immune system from development to aging; resilience to perturbations, transition to immunopathologies (infection, autoimmunity, cancer…); immunotherapy/vaccination
Model the relationships between biodiversity, functioning and dynamics of the (eco)systems Diversity, stability/perturbation of immune repertoires and lymphocyte populations
Self organization, simulation of virtual landscapes Auto-organization of cells in lymphoid organs and development, cell network and immune repertoire
Data mining, extraction, visualization of data and semantic and syntactic analysis of scientific literature requires artificial intelligence and automatic learning approaches Information extraction and visualization of immune literature with concepts specific to immune system,  according to  a given biological context

Table 1: Crossing transversal questions identified for the investigation of the complex systems with the questions specific to the immune system.

Challenges related to the complexity of the immune system

More than transversal question common to other complex systems, the immune system present some peculiarities that require particular investigations and modeling and represent new challenges to overcome.
1. Objective identification of immune system cell populations

2. Lymphocyte population dynamics & repertoire selection: Integration of multilevel/ multiscale data and dynamic modeling

3. Understanding resilience or instabilities to perturbations, immune dysfunction in order to improve immuno-intervention strategies

4. Extract, visualize and organise immunological knowledge from scientific immune literature

5. Contribute to global evaluation of complex systems and risk issue

6. Revisite the “immune system”: limits, definition, characteristics, functions and stability

7. Bio-inspired and artificial immune systems

8. Immune system and communication

9. From micro-ecosystems to social ecological developments, clinical and research impacts

1. Objective identification of immune system cell populations

Innate and adaptive immune system subpopulations are currently defined based on the revelation of a combination of cell surface or intracellular/nuclear molecules that the researcher has to define. Thus, the cell populations revealed by cell staining are largely dependent on the mixture and the number of chosen parameters (n) that will drive the number of subpopulations (2n). Techniques like Flow cytometry analysis allow quantification of several parameters from individual cells allowing characterizing cell size, structure, specific phenotype and function of millions of cells in a multi-dimensional way. However, analyses performed by manual gating inspect parameters 2 by 2 and do not reveal the complexity of the lymphocyte subpopulations that co-express several parameters.
The challenge is developing methods and software tools for current immunological analysis and automatic identification of cell subsets and their trajectory during their differentiation and their cell cyle. This allows objective investigation and identification of cell subpopulations that have certainly been ignored by immunologists, to identify variability/stability, resilience or perturbations among development/aging, through genetic backgrounds, and during the course of perturbations as immunopathologies or immunotherapies.

2. Lymphocyte population dynamics & repertoire selection: Integration of multilevel/ multiscale data and reconstruction of dynamic interactions

The most important feature of the immune system is the availability of a diverse cell repertoire and its selection constraints. Lymphocytes are produced from precursors in primary lymphoid organs that differentiate and somatically rearrange DNA variable genes composing a particular repertoire. T or B cell repertoires are thus collections of lymphocytes, each characterized by its antigen-specific receptor produced by random somatic rearrangements of V(D)J gene segments during lymphocyte differentiation, producing a potential repertoire of a quadrillion of TCR/Ig receptors about one thousand beyond the lymphocyte count in a single individual. Then, process of lymphocyte selection with high cell death or amplification of particular antigen specific clones represent a network of dynamical interactions conferring tolerance to avoid autoimmunity though retaining the potential to respond to a very large collection of antigens. Thus the dynamics of cell fluxes and turnover, cell selection process through division and cell death constraint the immune system to adapt a dynamic equilibrium according to programmed genetic variability’s and permanent antigen challenge. The rules governing the clonal selection processes and cell population dynamics stability or disturbance in immune pathologies and aging are far to be fully understood. Integration of high-throughput data describing qualitatively and quantitatively cell populations, repertoire diversity and gene expression should allow data mining, signature discovery and reconstruction of dynamics behaviours.

The challenge is the integration of multiscale data and metadata describing cell populations, cellular and molecular repertoires and gene expression across time, lymphoid organs and genetic background or various conditions describing physiological or pathological states or treatments. Organisation of knowledge’s using standardised database with ontologies and state transition diagram and influences should improve the organisation of data for data mining and dynamic computational modelling. Object-oriented computer modelling taking into account the levels of the “organism”, the “organs”, the “cell” and the “molecule” through various time scales, should improve the interoperability of mathematical and computer models already developed in the field, allowing also the direct intervention of the biologist to implement the models and suggest new experiments or treatments.

3. Understanding resilience or instabilities to perturbations, immune dysfunction in order to improve immuno-intervention strategies

Aging, immunopathologies as infectious, autoimmune or inflammatory diseases, cancer as well as immunotherapies, vaccination represent either internal instability or external aggressions that impact the stability and reactivity of the immune system at various biological levels (from molecules to organism). Genetic or environmental component alterations (antigens, infections, chemicals, nutriments…) or other biological instabilities (as in nervous, hormonal, metabolic systems…) and  disorganisation related to  aging can affect the organisation of immune system its dynamics and repertoires and turn the physiologic equilibrium to immuno-pathologies. The identification and quantification of variability and perturbations at these different levels and through time should allow understanding the resilience or instability of the system. Conversely, improving knowledge on the physiological or pathological dynamic behaviour of the immune system should also reveal keys for immuno-interventions.
The challenge is to connect and better integrate knowledge’s as a result of data mining and dynamic computer modelling and simulations of such perturbations. The resilience and homeostatic regulation of the system (steady state dynamic equilibrium) but also variability/fluctuation (according to genetic background, physiological development and aging) to pathological perturbations of the immune system should thus be investigated by multidisciplinary approaches. This requires the development of original biological, mathematical and computer modelling tools. This might allow to assess the quantity /quality of small perturbations at various scale levels that can impact /dys-balance the whole immune system equilibrium or on the contrary to estimate the maximal variability the system can endure without global perturbations at the organism level.

4. Extract, visualize and organise immunological knowledge from scientific immune literature__

The complexity of the immune system, related to biological multi-scale levels, but also of the data generated by multiple technologies, published in the form of unstructured text requires the development of innovative techniques of data and literature mining to enhance information retrieval, visualization of enormous quantities of data and organisation of knowledge.

The challenge is to develop data mining, text mining and machine learning methods to have a better understanding of the complexity of the immuno-physiome. Innovative data mining, semantic and syntactic analytical approaches should help define the concepts that have to be extracted and algorithms to automatically extracts the data with a maximum of accuracy.

5. Contribute to global evaluation of complex systems and risk issue

A global evaluation of the behaviour of complex systems should be undertaken under philosophical and scientific aspects. The behaviour of complex systems is related to their multi-scale organisation. While the immune system is related to micro-levels from molecule to organism, the biosphere is related to macro-levels from organisms to global environment, though social interactions, migration, ecosystems, climate and biosphere. The immune system represents a model of choice to evaluate the common properties of organisation and behaviour of such other complex systems at higher scale levels. Indeed data, simulations and predictions are difficult to establish for some systems. Organisation of systems results from the selection among diversities of only a small fraction of all potential possibilities, with an infinite combination of parameters. This contributes to selected dynamic equilibrium allowing the systems to resist perturbations trough time unless the resilience is disrupted.
The challenge is to provide a global analysis of common properties of complex multi-scale systems to understand the robustness and degree of resilience of systems selected on the basis of their organisation and risk of changes in the dynamic equilibrium. The notion of emergence and immergence have to be analysed to understand whether aging and evolution of a system and threshold effects are involved in the resilience of systems or could induce their disorganisation.

6. Revisiting the “immune system”: limits, definition, characteristics, functions and stability

Complex systems are often viewed as multi-scale, self-assembly, adaptive dynamic and cognitive networks of diverse interacting agents capable of sensing patterns with degenerative properties. In biology, links between entities and processes are insured at various scales. At the macroscopic level, the nervous system insures the cognition, perception and memory of “self”, through mental links and relations to macroscopic external environment, allowing to define ego as well as physical/somatic identity based on consciousness, memory and social interactions. Similarly, at the microscopic level, the immune system as a cognitive, diverse, dynamic, fluid and anamnestic system, sense the quality and quantity of microscopic patterns, either from body or environment. The immune system is thus at the interface of the dynamic symbiotic organisation of the individual (composed in adults as many prokaryotic than eukaryotic cells) and constantly senses its molecular and celllular environment, and its own components (idiotopes). This leads to individual cell signalling up to collective decision-making allowing for discrimination and memory of microscopic entities in a systemic way.

Biological and philosophical conceptual questions remain about the notion of organisation, organism, immune system, the perception of self, identity, memory, tolerance and resilience.

• Are there limits between the immune system, the organism and the environment?
• Has the immune system a role to define the identity of an organism?
• What are the major characteristics of an organisation and an organism?
• How do cognition, diversity, selection, memory and dominant tolerance contribute to the dynamic stability of the system and the resilience of the organism?
• How can we define the immune system? Is the term “immune”, with its etymologic origin meaning “exempt”, adequate according to current knowledge?

Responding to these challenges will improve global data exploration and understanding of the complexity of the immune system (Immuno-physiome) linked to other biological systems or to macro ecological/biosphere systems.

7. Bio-inspired and artificial immune systems

Knowledge’s assembled to understand, reconstruct, simulate and predict the complex multi-scale behaviour and resilience of the immune system dynamics in health, aging, diseases or treatments could be useful for the design of innovative artificial immune systems reproducing or inspired from the behaviour of the natural immune system. Thus, understanding this natural organisation, selected during the evolution of species and cells in organism, can help to design innovative evolutive artificial immune systems, and referring to the “war” metaphor to design the best “immuno-logistic” optimization. This could help understanding the characteristics of an organisation as a process and as a result, from organisms to societies and for the design of regulatory processes and security purposes.

The challenge is to overcome the conceptual and technical limitations to design self-organized artificial immune systems resilient to perturbations and able to preserve the identity and integrity of the organism or societies.

8. Immune system and communication

The immune system is inside the holobionte and poly-genomic organism, at the interface between eukaryote and prokaryote cells. This cognitive system makes the interface between the molecular world and cells, on the basis of dynamic communication. Deciphering the concept of cellular and molecular communication and signal transmission could be done at various levels: at horizontal level inside innate and adaptive, between cells, between organisms, and at vertical level from molecule to organism and up to social system.

The challenge is to model the rules that govern communication, the interactions, transmission and percolation up to emergence of patterns. Modeling the physiological communication and transmission of information could help understanding alterations resulting in pathologies and aging and to design therapeutic interventions to improve defective communication.

9. From micro-ecosystems to social ecological developments, clinical and research impacts

Cognitive systems like the immune system and the nervous system are involved in the perception, adaptation and memory of our microscopic to macroscopic social ecological environments that are constantly perturbed, and in the orientation of our individual and collective behavior. Indeed defective immune responses or altered regulations of the immune system have great impact on our health, and consequently on our decisions and social behavior.

Immuno-pathologies can potentially affect each individual, but also increase their frequency in the society as epidemic spreading and alter the health, the reproduction, activity and the longevity of individuals, with societal impact. On one side, in case of immuno-deficiencies, or inefficient responses of the immune system to rapidly control replicative microbes or tumors cells infections and tumors can progress. The role of vaccination is thus primordial to accelerate and amplify the immune response to control the infection and prevent transmission to other individuals. On the other side, in case of defective control and feedback regulations of the immune system, the uncontrolled reactivity against body components, like in autoimmune and inflammatory diseases, or the defective orientation of immune responses or cell population dynamics could also occur and lead to allergies, metabolic diseases, fetal abortions, tumor growth.

Aging of the immune system and of the human population can moreover alter both sides with delayed or defectives process: the internal cell metabolism, reproduction and repair inside adaptive lymphocytes and innate cells; the inter-cell communication/activation/functions/distribution and altered feedback loops through various biological levels.

Perturbations in our environment, lifestyle and human industrialization since the last century, has allowed for the rapid change of the immune context, as detected by lymphocytes. The occurrence of some 133 millions new chemicals with more than 10, 000 new substances created each day should be considered. The deviation of immune regulations and functions related to excessive hygiene and deprivation of the co-evolutive microbiote (like in caesarean) or wide usage of antibiotics could alter the cross-talk between the immune system, the microbiote and the antigenic world and lead to emergence of new pathologies like allergies and metabolic disorders.

Human interventions by prevention, biotherapies, chemotherapies, chronobiology can try to manipulate and control immune responses. One way is to improve and accelerate a specific immune response by vaccination, in order to gain the race against selected replicative pathogenic microbes or tumors. Another way is to induce specific tolerance against some body components, while preserving other potential beneficial responses with specific immuno-regulation. This is indeed an alternative to global immunosuppression that non-specifically decreases the immuno-competence and increases the risk of occurrence of infections or tumors.

The challenge is to integrate interactions from the micro-ecosystem that includes the immune system and the microbiote of each individual, up to the social-ecological development of humans that include personal and societal health, nutrition, chronobiology, stress, industrial and technological developments that impact back on immune system by immergence. Information should be given to the society at any level, from child to elderly and also researchers in multi-disciplinary domains, like mathematicians and computer scientists involved in modeling of immune system and ecosystems. Indeed people should have information’s about the complex cognitive immune system behavior that keep the trace of the molecular and cell history of our body, those cells react at any instant to molecular perturbations in its environment to preserve by emergence the individual but also eco-socio system viability. The consciousness that in each individual our immune system is facing our world according to its context that depends on hygiene, food, micro-flora, chemicals, antibiotics, therapies, aging and stress could change the way understanding the traces that the immune system lives in the body up to social systems. Moreover, immuno-clinical investigations and immunotherapies are developing and open new avenues for prevention. Risk perception and its evaluation at global levels of organization, for the resilience of our living systems is also of importance.

Conclusions

Identifying theoretical and methodological questions related to the complexity of the natural and artificial immune systems will help to structure new ideas and collaborative work across complex systems. Responding to these challenges will improve the global data exploration, the emergence of new concepts and understanding of the immune system linked to other biological systems or to macro ecological/biosphere systems. The ImmunoComplexiT network  from the RNSC  http://immunocomplexit.net/is currently  questionning and modeling the complexity  of the immune system.

Some references

Abi Haidar, A., Six, A., Ganascia, J.-G., & Thomas-Vaslin, V. (2013). The Artificial Immune Systems Domain: Identifying Progress and Main Contributors Using Publication and Co-Authorship Analyses (Vol. 12).

Bellier, B., Six, A., Thomas-Vaslin, V., & Klatzmann, D. (2011). Predicting immune responses to viral vectors and transgenes in gene therapy and vaccination : the coming of systems biology. Clinibook.

Bellier, B., Six, A., Thomas-Vaslin, V., & Klatzmann, D. (2013). Systems Immunology, Novel Evaluation of Vaccine. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 2089-2092 ): Springer New York.

Bersini, H., Klatzmann, D., Six, A., & Thomas-Vaslin, V. (2012). State-transition diagrams for biologists. PLoS ONE, 7(7), e41165. doi:10.1371/journal.pone.0041165

Jacquemart, F., & Thomas-Vaslin, V. (2016). L’évaluation globale des technologies. In B. Bocquet (Ed.), La Fièvre de l’évaluation (pp. 196): Presses Universitaires du Septentrion.

Jacquemart, F., Thomas-Vaslin, V., & Coutellec, L. (2016). Pour une évaluation globale des OGM : Des perspectives épistémologiques renouvelées pour l’analyse des risques.Retrieved from https://hal.archives-ouvertes.fr/hal-01298382

Lavelle, C., Berry, H., Beslon, G., Ginelli, F., Giavitto, J., Kapoula, Z., . . . Bourgine, P. (2008). From molecules to organisms: towards multiscale integrated models of biological systems. Theoretical Biology Insights, 1, 13-22.

McEwan, C., Bersini, H., Klatzmann, D., Thomas-Vaslin, V., & Six, A. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems: Luniver press. ISBN.

Six, A., Bellier, B., Thomas-Vaslin, V., & Klatzmann, D. (2012). Systems biology in vaccine design. Microb Biotechnol, 5(2), 295-304. doi:10.1111/j.1751-7915.2011.00321.x

Six, A., Mariotti-Ferrandiz, M. E., Chaara, W., Magadan, S., Pham, H. P., Lefranc, M. P., . . . Boudinot, P. (2013). The Past, Present, and Future of Immune Repertoire Biology – The Rise of Next-Generation Repertoire Analysis. Front Immunol, 4, 413. doi:10.3389/fimmu.2013.00413

Thomas-Vaslin, V. (2014a). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

Thomas-Vaslin, V. (2014b). Evaluation de la résilience et des perturbations des systèmes complexes. La lettre de l’inSHS du CNRS. Retrieved from http://www.cnrs.fr/inshs/Lettres-information-INSHS/lettre_infoinshs_32.pdf

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Thomas-Vaslin, V. (2016, sep 2015). Understanding and modelling the complexity of the immune system. Paper presented at the First Complex Systems Digital Campus World E-Conference 2015, Tempe, United States.

Thomas-Vaslin, V. (2017a). Le rôle des traces dans le système immunitaire : des anticorps au corps (B. Galinon-Mélénec Ed. Paris CNRS éditions ed. Vol. 4).

Thomas-Vaslin, V. (2017b). Questionnements et connaissance de la complexité. In E. Matériologiques (Ed.), Qu’est ce que la science… pour vous? Textes rassemblés par Marc Silberstein (pp. 251-256). Paris.

Thomas-Vaslin, V. (2017). Understanding and Modeling the Complexity of the Immune System. In P. Bourgine, P. Collet, & P. Parrend (Eds.), First Complex Systems Digital Campus World E-Conference 2015 (pp. 261-270). Cham: Springer International Publishing.

Thomas-Vaslin, V., Altes, H. K., de Boer, R. J., & Klatzmann, D. (2008). Comprehensive assessment and mathematical modeling of T cell population dynamics and homeostasis. J Immunol, 180(4), 2240-2250.

Thomas-Vaslin, V., & Jacquemart, F. (Producer). (2016). Approche de la résilience et perturbations des systèmes complexes par une évaluation globale. Congrès mondial pour la pensée complexe: Les défis d’un monde globalisé; reseau-canope.fr/congres-mondial-pour-la-pensee-complexe/pensee-complexe.html#bandeauPtf. [article] Retrieved from https://www.reseau-canope.fr/fileadmin/user_upload/Projets/pensee_complexe/thomas_vaslin_jacquemart_approche_resilience_perturbations_systemes_complexes.pdf

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013). Lymphocyte Dynamics and Repertoires, Biological Methods. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 1145-1149): Springer New York.

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013). Lymphocytes dynamics and repertoires, modeling. In W. O. Dubitzky W (Ed.), Encyclopedia of Systems Biology (pp. 1149-1152): Springer, Heidelberg New York.

Thomas-Vaslin, V., Six, A., Pham, H. P., Dansokho, C., Chaara, W., Gouritin, B., . . . Klatzmann, D. (2012). Immunodepression & Immunosuppression during aging. In M. B. Portela (Ed.), Immunosuppression (pp. 125-146). Brazil: InTech open acces publisher.

Vibert, J., & Thomas-Vaslin, V. (2017). Modelling T Cell Proliferation: Dynamics Heterogeneity, Depending on Cell Differentiation, Age, and Genetic Background. PLoS Comput Biol, 13 (3), e1005417. doi:10.1371

Read more

Intelligence ubiquitaire

Intelligence ubiquitaire

Edition 2017

Contributeurs : Marc Schoenauer (INRIA)

Mots clés : réseaux pair à pair (P2P), réseaux ad hoc, observations des phénomènes spatio-temporels multi-échelles (réseaux trophiques, agriculture, météorologie, etc.), algorithmes épidémiques, modèles computationnels et théorie de l’information, calcul spatial, systèmes d’auto-conscience, sens commun, confidentialité.

Introduction
La technologie actuelle permet et demande une rupture dans les modes d’acquisition et de traitement des informations, passant de l’approche monolithique à la mise en réseau d’un grand nombre d’unités de calcul éventuellement hétérogènes. Cette nouvelle approche, reposant sur la distribution du traitement et du stockage, doit permettre d’ajouter de l’intelligence aux artefacts qui constituent désormais notre environnement et de repousser les limites de l’informatique classique (essoufflement de la loi de Moore).

Cet objectif à long terme demande :

  • de résoudre les problèmes d’organisation physique et de communications (routage et contrôle distribué),
  • de mettre au point des mécanismes d’auto-régulation et de contrôle,
  • de concevoir de nouveaux modèles de calcul,
  • de spécifier des environnements de programmation adaptative (apprentissage, rétroaction et sens commun).

Les limites technologiques du modèle de calcul séquentiel de von Neumann semblent aujourd’hui atteintes et exigent de nouveaux paradigmes pour répondre à la demande de puissance computationnelle émanant de nos sociétés modernes. Au cœur de ces nouveaux paradigmes figure la distribution des tâches entre les architectures décentralisées (par exemple, les processeurs multi-cœurs, les grilles de calcul). Traiter la complexité de tels systèmes est incontournable pour répondre aux objectifs de passage à l’échelle et de robustesse dans un cadre décentralisé. Par ailleurs, il est maintenant technologiquement possible de disséminer des capteurs et des moyens de calcul partout où ils sont nécessaires. Cependant, leur exploitation nécessite leur mise en réseau ; pour des raisons physiques, chaque élément ne peut se connecter qu’à ses proches voisins (réseau ad hoc). Dans d’autres contextes, les réseaux pair a pair reposent également sur une visibilité restreinte de l’ensemble des éléments. Dans les deux cas (réseaux ad hoc et P2P), l’enjeu est de pouvoir exploiter au mieux les informations disponibles sur l’ensemble du réseau. Les défis proposés ici concernent l’ensemble de ces nouveaux systèmes computationnels ; on retrouvera certains enjeux des réseaux sociaux ou écosystémiques également traités dans cette feuille de route.

Grands défis

 


2.9.1. Conception locale pour les propriétés générales (routage, contrôle et confidentialité)

Routage, contrôle et confidentialité
Pour mieux concevoir et gérer les grands réseaux, nous devons comprendre comment émergent les comportements généraux alors même que chaque élément prend des décisions au niveau local avec une vision très restreinte du système dans sa totalité. Un modèle de base est celui des algorithmes épidémiques, dans lesquels chaque élément échange des informations avec des éléments voisins. Un enjeu de conception repose sur la nature des informations échangées (prenant notamment en compte les contraintes de confidentialité) et sur la sélection des voisins correspondants qui conditionnent le comportement général du système.

Méthodes : théorie de l’information, systèmes dynamiques, physique statistique, algorithmes épidémiques, algorithmes inspirés par le vivant.


2.9.2. Calcul autonome

Robustesse, redondance, résistance aux défaillances
L’autonomie des systèmes computationnels est une condition nécessaire pour leur déploiement à grande échelle. Les propriétés d’autonomie requises se rapprochent des propriétés du vivant : robustesse, fiabilité, résilience, homéostasie. Une difficulté est due à la taille et l’hétérogénéité de tels systèmes, qui rendent sa modélisation analytique particulièrement complexe ; de surcroît, les réactions du système dépendent du comportement dynamique et adaptatif de la communauté des utilisateurs.

Méthodes : systèmes inspirés par le vivant, systèmes d’auto-conscience.


2.9.3. Nouveaux modèles computationnels

Résolution et stockage distribué, fusion d’informations spatiales, temporelles ou multimodales, émergence d’abstractions
La mise en réseau d’un grand nombre d’unités informatiques, très souvent hétérogènes (grilles, P2P, processeurs n-cœurs) requiert une capacité de traitement gigantesque. Or, pour utiliser efficacement de telles capacités, nous avons besoin de nouveaux modèles de calcul qui prennent en compte non seulement la distribution des traitements sur des unités de faible puissance, mais aussi le manque de fiabilité de ces unités et des voies de communication. De même, la distribution des données (réseaux de capteurs, RFID, P2P) lance des défis spécifiques en termes d’intégration, de fusion, de reconstitution spatio-temporelle et de validation.

Méthodes : Algorithmes neuro-mimétiques, propagation des croyances.


2.9.4. Nouveaux paradigmes de programmation : création et ancrage des symboles

Apprentissage automatique, rétroaction et sens commun
La programmation de systèmes dédiés à l’intelligence ambiante (domotique, bien vieillir, remise en forme) doit permettre l’intervention de l’utilisateur. La spécification du comportement attendu demande un lien transparent entre les données de bas niveau disponibles et les concepts naturels de l’utilisateur (par exemple, ancrage des symboles). Par ailleurs, le programme de recherche doit être nourri par l’étude des usages ; la coévolution entre l’utilisateur et le système informatique conduit à l’apparition de systèmes hybrides complexes.

Méthodes : interface cerveau-machine, programmation par démonstration, apprentissage statistique.

 

 

Comportements collectifs dans les systèmes biologiques et sociaux

Comportements collectifs dans les systèmes biologiques et sociaux

Rapporteurs : Guy Theraulaz et Luc Foubert

Contributeurs : Guy Theraulaz (Centre de Recherches sur la Cognition Animale, Centre de Biologie Intégrative, Institute for Advanced Studies in Toulouse) ; Luc Foubert (BioEmergences, Gif sur Yvette); José Halloy (Université Paris Diderot, LIED UMR8236); Véronique Thomas-Vaslin (CNRS, UPMC, réseau ImmunoComplexiT), Laura Hernandez (LPTM,UMR8089 CNRS-Université de Cergy-Pontoise); Valentina Lanza (LMAH, Le Havre)

Mots clés : Comportements collectifs, intelligence collective, modèles individus-centrés, interactions asymétriques, équations aux dérivées partielles stochastiques, techniques de reconstruction, données à haut débit, description mésoscopique, méthode d’inversion, transitions de phase et état critiques, cognition.

NOTE : ajouter des références aux comportements collectifs dans les systèmes sociaux humains.


1. Introduction
Les phénomènes collectifs sont omniprésents dans les dynamiques du vivant. Ainsi, de très nombreuses espèces ont développé des formes de vie collective très élaborées. Les nuées d’étourneaux, les bancs de poissons et les colonies d’insectes « sociaux » (fourmis, termites et certaines espèces d’abeilles et de guêpes) semblent se comporter comme un seul et même individu, une sorte de « super-organisme ». Ces systèmes sont composés de nombreuses unités distinctes qui présentent des comportements collectifs à plusieurs échelles d’espace et de temps. A une autre échelle, on peut observer et caractériser les mouvements des cellules lors de la formation des organes et des tissus et imaginer leurs contrôles dans les perspectives de “tissue engineering” in vitro.

La complexité de ces phénomènes se reflète dans les propriétés non-triviales des dynamiques collectives – qui émergent à l’échelle macroscopique – par rapport aux interactions entre les unités au niveau microscopique.

La méthodologie employée pour étudier ces phénomènes consiste à caractériser et quantifier à la fois et séparément les comportements aux niveaux individuel et collectif et ensuite à relier les deux échelles de phénomènes au moyen de modèles mathématiques (Camazine et al., 2001 ; Weitz et al., 2012). Le travail expérimental permet d’identifier et de quantifier les interactions entre individus ainsi que leurs conséquences sur leur comportement et leur physiologie. Par exemple en termes de probabilité d’exécuter une action en réponse à des informations présentes dans l’environnement. La variabilité individuelle est également un élément important à intégrer dans la reconstruction des interactions et des fonctions de réponse individuelles. Cette variabilité est également souvent produite par les interactions entre les unités ; c’est le cas par exemple des processus d’assignation des tâches conduisant à la division du travail dans certaines sociétés d’insectes (exemple de sociétés parthénogénétiques chez les fourmis). De même, si un environnement homogène (moyen) représente une approximation utile pour l’étude des comportements collectifs, il est assez rare qu’un environnement existant soit homogène, et l’hétérogénéité influence profondément les structures, la dynamique et les formes produites à l’échelle d’un groupe. Les observations et les mesures aux échelles individuelles et collectives doivent par conséquent être réalisées dans des environnements homogènes (en termes de température, humidité, luminosité) pour découpler les effets de gradient et de modulation de ces paramètres environnementaux sur les interactions individuelles. La quantification de ces influences permet dans un second temps d’aborder la question de la variabilité de l’environnement sur les comportements collectifs.

L’analyse quantitative et la modélisation des comportements aux deux échelles (individu et collectif) s’appuient sur des concepts et des outils développés en physique statistique (approche multi-échelles, transition de phase, processus stochastiques, …). Cette analyse permet de caractériser les lois régissant les interactions entre les individus et la structure du réseau d’interactions entre ces derniers. Par ailleurs le caractère décentralisé et dynamique de ces systèmes implique l’utilisation de techniques de modélisation basées sur une architecture répartie de type multi-agents ou sur des systèmes d’équations différentielles partielles. L’obtention de modèles reproduisant les caractéristiques dynamiques des phénomènes étudiés et validés ensuite expérimentalement permet de déterminer le rôle précis joué par chacune des variables comportementales dans les propriétés apparaissant au niveau collectif, mais aussi l’étendue de la zone de paramètres associée à ces variables pour lesquelles apparaissent ces propriétés.

Les modèles permettent également de tester des hypothèses sur la combinaison des interactions à l’échelle individuelle ; typiquement, il s’agit de comprendre quelles sont les interactions avec les voisins qui influencent le comportement d’un individu au sein d’un groupe en déplacement et comment les différentes informations recueillies sur ces voisins sont intégrées pour orienter chaque comportement individuel ? Cette approche des mécanismes impliqués dans les phénomènes collectifs permet la construction de modèles ayant une réelle valeur explicative et ouvre également la possibilité de développer des systèmes artificiels d’intelligence collective permettant le contrôle de la dynamique des interactions au sein de groupes de robots ou d’animaux.

Une collaboration étroite entre physiciens et biologistes spécialisés en analyse non linéaire, scientifiques spécialisés en sciences sociales et experts en informatique s’est révélée essentielle pour permettre à la recherche d’avancer sur ces questions.

2. Grands défis

1. Quelle est l’importance de l’asymétrie des interactions dans les dynamiques collectives observées à l’échelle de groupes d’organismes ?

2. Peut-on prédire certains comportements collectifs chez l’homme ?
3. Dans quelle mesure le contrôle des informations échangées entre individus, peut-il permettre d’accroître les capacités d’intelligence collective de groupes humains (coopération, collaboration, délibération) ?

4. Peut-on contrôler la dynamique de certains déplacements collectifs à l’échelle cellulaire en contrôlant certaines molécules impliquées dans la coordination ?

5. Les systèmes vivants se maintiennent-ils dans des états critiques ?

6. Est-il possible de construire des modèles multi-échelles reliant les processus cognitifs à l’échelle individuelle aux comportements collectifs ?

2.1. Quelle est l’importance de l’asymétrie des interactions dans les dynamiques collectives observées à l’échelle de groupes d’organismes ?
Ces dernières années, les chercheurs ont déployé des efforts considérables pour étudier et caractériser l’émergence des phénomènes collectifs par l’observation, l’expérimentation et la modélisation. La recherche a exploré une gamme étendue de systèmes, des nanostructures aux matières granulaires en passant par les dynamiques neuronales et les dynamiques sociales observées dans de très nombreuses sociétés animales y compris humaines.

Ces phénomènes intrinsèquement non-linéaires présentent de grandes similarités avec certains systèmes physiques (comme les systèmes de spins). Des études ont en effet recensé un certain nombre de passages dynamiques entre différents types de comportement collectifs organisés ayant une forte résonance avec des systèmes rencontrés en physique : synchronisation de phase dans l’interaction des systèmes oscillants, transitions de phase dans des systèmes composés d’agents auto-propulsés (e.g. transition dans les formes de déplacements collectifs dans des bancs de poissons), auto-organisation et formation de structures spatiales bi ou tri-dimensionelles (e.g. réseaux de pistes ou de mycélium, nids d’insectes sociaux).

La compréhension complète des relations entre la dynamique des interactions à l’échelle microscopique et les propriétés macroscopiques est cependant encore loin d’être élucidée. Par exemple, les recherches sur l’émergence des dynamiques logiques non triviales à un niveau général, hors d’oscillateurs microscopiques ouverts qui se caractérisent par des échelles temporelles plus courtes que celles des oscillateurs macroscopiques, ne sont toujours pas dotées d’un cadre théorique. Si certains chercheurs pensent qu’il est possible d’extraire les coefficients de transfert des composants à grande longueur d’onde issus d’analyses linéaires microscopiques (méthode de Lyapunov), cette théorie n’est toujours pas clairement définie. Les systèmes composés d’unités auto-propulsées semblent présenter des fluctuations d’une densité numérique anormalement importante – phénomène inconnu dans le domaine des matériaux à l’équilibre (hors criticalité), mais observé lors d’expérimentations sur des milieux granulaires – un phénomène dont les modèles théoriques actuels ne rendent que partiellement compte.

De nouvelles découvertes sont attendues de la description à l’échelle mésoscopique intermédiaire reliant les niveaux microscopiques et macroscopiques par les quantités de granularité pertinentes à des échelles spatio-temporelles locales appropriées. En raison de l’importance des fluctuations dans les phénomènes hors équilibre, les équations aux dérivées partielles (EDP) qui en découlent devraient produire des conditions stochastiques, souvent multiplicatives, dans les champs de granularité. L’analyse de ces EDP stochastiques est un défi à relever par les physiciens comme par les mathématiciens, d’un point de vue numérique et analytique. Pour cela, de nouvelles techniques très puissantes, comme le groupe de renormalisation non perturbatif, promettent d’apporter un nouvel éclairage sur ce sujet dans un proche avenir.

Si les chercheurs se sont jusqu’à présent concentrés sur des systèmes constitués d’unités en grande partie identiques, de nombreuses questions sont soulevées par des systèmes tels que les organes ou tissus faisant intervenir différents types cellulaires ainsi que la matrice extracellulaire ou les sociétés composées d’unités de différentes sortes (par exemple des castes différents). Un autre élément important caractéristique de certains systèmes biologiques qui les différencie des systèmes physiques, est la présence d’une forte anisotropie de la perception à l’échelle individuelle. Ceci introduit une très forte asymétrie des interactions entre les individus. Ainsi dans un banc de poissons, un individu va interagir très fortement avec d’autres poissons qui sont situés devant lui; alors que ces derniers vont peu interagir avec ceux situés à l’arrière. Cette modulation angulaire du poids des interactions va avoir un impact très important sur les formes de déplacement qui vont émerger à l’échelle du banc.

Par ailleurs, il est bien connu depuis très longtemps que la vie en groupe peut induire des modifications profondes de la physiologie et du comportement des individus qui constituent ces sociétés en particulier quand la densité augmente.

Cet effet de groupe qui est particulièrement spectaculaire chez le criquet pèlerin où l’augmentation de la densité d’individus conduit au passage d’une phase solitaire à une phase grégaire, résulte de l’augmentation du taux de sérotonine dans les ganglions thoraciques sous l’effet des contacts mécaniques entre les criquets. Des phénomènes similaires dans lesquels l’intensité ou la forme des interactions pourraient être modulés par la densité des individus et déterminer des transitions de comportement collectifs sont encore très largement inexplorés.

La compréhension complète de l’émergence des phénomènes collectifs dans de tels systèmes nécessite la prise en compte de l’asymétrie des interactions entre ces éléments et de la modulation des interactions par la densité d’individus. Dans ce contexte il faut savoir si les propriétés émergentes dans ces systèmes sont les mêmes que celles observées dans des systèmes avec interactions homogènes. Dans le cas contraire il faut identifier quelles sont les caractéristiques spécifiques des propriétés collectives  dues à l’asymétrie de l’interaction.

Enfin, il est important de rappeler que l’approche théorique doit être développée conjointement aux observations expérimentales. L’étude des modèles doit fournir des résultats sous une forme permettant de les comparer et de les valider par des expérimentations quantitatives.

Ce sont notamment les techniques de reconstruction spatiale – permettant de mesurer la position et la trajectoire en trois dimensions de chacune des unités au sein d’un grand groupe – qui s’avèrent de plus en plus utiles pour extraire des informations sur les dynamiques à l’échelle microscopique.

2.2. Peut-on prédire certains comportements collectifs chez l’homme ?

Depuis quelques années, l’étude des comportements collectifs chez l’homme connaît un essor particulièrement important lié notamment au développement de nouveaux outils numériques et technologiques. De nombreuses technologies de micro-localisation permettent aujourd’hui la collecte de vastes ensembles de données sur des phénomènes jusqu’alors inaccessibles : la mobilité, les interactions et les décisions individuelles au sein de groupes humains. Ces données sont précieuses pour comprendre les mécanismes qui gouvernent de nombreuses dynamiques de groupes sur de grandes échelles. Ainsi, il est possible d’observer et d’analyser la formation de groupes et de communautés, la structure des réseaux d’interactions au sein de ces groupes, les actions de collaborations, ou bien encore les phénomènes de propagation de rumeurs. Des études récentes ont analysé des données massives et anonymisées sur les déplacements d’utilisateurs de téléphone portables (Song et al., 2010) ; ces études ont montré que contrairement à l’acception commune selon laquelle les actions humaines sont aléatoires et largement imprédictibles, la mobilité humaine suivait des formes de déplacement étonnamment régulière. Ainsi plus de 93 % des déplacements individuels sont réguliers et prédictibles et ne diffèrent pas significativement selon les catégories démographiques, sociales ou linguistiques. Ce type d’approche peut potentiellement être appliqué  à plusieurs autres comportements collectifs chez l’homme comme les choix collectifs.

De plus,  l’étude des comportements collectifs humains en situation de catastrophe, essentielle en matière de préconisations pour réduire la vulnérabilité des sociétés et augmenter leur résilience, est difficile à mener. Les possibilités d’expérimentation in vivo sont très limitées, en raison des coûts induits et des difficultés à reproduire des conditions réalistes. Des méthodes alternatives, basées sur les approches mathématiques et les méthodologies in silico, s’offrent alors aux chercheurs. Sous cet angle de recherche, à savoir la formalisation mathématique des réactions humaines, ces dernières deviennent un objet d’étude partagé entre les Mathématiques, les Sciences Humaines et Sociales, et l’Informatique.

2.3. Dans quelle mesure le contrôle des informations échangées entre individus, peut-il permettre d’accroître les capacités d’intelligence collective de groupes humains (coopération, collaboration, délibération) ?

Le développement d’Internet et des nouveaux outils de communication mobiles permet d’envisager un traitement spécifique de l’information permettant d’accroitre la coopérativité au sein de groupes humains. L’enjeu est de déterminer sous quelles conditions des interactions contrôlées entre les individus d’un groupe peuvent conduire celui-ci à trouver ou à se rapprocher de la bonne solution à un problème.

2.4. Peut-on contrôler la dynamique de certains déplacements collectifs à l’échelle cellulaire en contrôlant certaines molécules impliquées dans la coordination entre cellules?

A une autre échelle, celle de groupes de cellules, l’ingénierie génétique permet aujourd’hui le contrôle des interactions entre cellules à travers l’activation ou l’inactivation de certains gènes qui contrôlent la production de certaines molécules. Ces nouveaux outils permettent un contrôle des mécanismes qui à l’échelle individuelle interviennent dans la genèse de certains phénomènes collectifs, comme par exemple la capacité de groupes de lymphocytes à remonter des gradients de chimiokines. Alors que cela est impossible à réaliser à l’échelle d’un organisme. En effet, les interactions comportementales intègrent de nombreux processus, et il est intéressant de supprimer une interaction spécifique comme l’attraction sans affecter l’alignement car toutes les deux dépendent d’une information visuelle chez les poissons. Notons que certains systèmes sont dotés naturellement de régulations changeant les interactions entre cellules. Ainsi les hormones  (œstrogènes, progestérones, prolactines, …) régulent les interactions produisant la morphogenèse des glandes mammaires et change le résultat de ce processus [Speroni, L., Whitt, G. S., Xylas, J., Quinn, K. P., Jondeau-Cabaton, A., Barnes, C., … & Soto, A. M. (2013). Hormonal regulation of epithelial organization in a three-dimensional breast tissue culture model. Tissue Engineering Part C: Methods, 20(1), 42-51.]. In vitro,  la composition de la matrice extracelullaire, élément crucial médiant certaines interactions entre cellules peut aussi être changée ce qui est décisif pour la morphogenèse [Montévil, M., Speroni, L., Sonnenschein, C., & Soto, A. M. (2016). Modeling mammary organogenesis from biological first principles: cells and their physical constraints. Progress in Biophysics and Molecular Biology, 122(1), 58-69.].

2.5. Les systèmes vivants se maintiennent-ils dans des états critiques ?

La physique statistique,  permet de relier les variables macroscopiques d’un système (sa description thermodynamique) aux interactions entre les constituants du système au niveau microscopique (issues des premiers principes).

On appelle « phase »  un état du système ayant des propriétés macroscopiques mensurables qui lui sont propres, (compressibilité des liquides, très différente de celle des gaz, par exemple). Un diagramme de phase permet d’identifier dans l’espace des paramètres macroscopiques pertinents pour le système (par exemple P,T,V pour un fluide simple), les régions dans lesquelles le système se présente sous différentes phases. Ces régions sont séparées par des régions de dimension inférieur (surfaces ou lignes, par exemple) qui matérialisent la région de transition. Dans certains cas, à la  le système change de phase tout en étant toujours homogène. Pendant ce type de transition, dite  critique, le système se trouve dans une phase critique, homogène aussi (on n’observe pas de coexistence de phases comme dans la transition liquide-solide), bien caractérisée, où la longueur de corrélation devient infinie et la fonction de corrélation a une décroissance en loi de puissance (au lieu d’une décroissance exponentielle dans la phase “normale”), transmettant ainsi les fluctuations à tout le système.

La criticalité auto-organisée est une propriété des systèmes dynamiques qui ont un point critique comme attracteur. C’est le cas des certains systèmes ouverts, hors équilibre. Leur comportement macroscopique présente une invariance d’échelle spatiale et/ou temporelle caractéristique d’un point critique lors d’une transition de phase. A la différence des phénomènes critiques à l’équilibre, pour ce type de système critique auto-organisé, il n’est pas nécessaire de fixer  les paramètres de contrôle à une valeur précise, l’auto-organisation il résulte de la dynamique du système.

Les systèmes vivants montrent, des états stationnaires ordonnés, caractérisés par des dynamiques collectives  qui émergent des comportements et des interactions des éléments individuels: des études sur les systèmes collectifs tels que les nuées d’oiseaux, les bancs de poissons ou encore certains réseaux de neurones, montrent que l’ont peut catégoriser et caractériser leurs dynamiques collectives à partir de leurs interactions individuelles (ref nécessaires).

Une approche de physique statistique appliquée à l’étude de ces systèmes suggère qu’ils se maintiennent dans la zone de criticalité. Dans ce cas, du à l’existence d’une longueur de corrélation ayant la taille du système, on pourrait expliquer comment ils  adaptent rapidement leur comportement collectif en fonction d’une perturbation extérieure (approche d’un prédateur pour un groupe d’animaux, ou stimulation sensorielle pour un réseau de neurones) [Luković, M., Vanni, F., Svenkeson, A., & Grigolini, P. (2014). Transmission of information at criticality. Physica A: Statistical Mechanics and its Applications, 416, 430-438.]. Dans certains systèmes intra-organismes, la structure multi-échelles issue d’un régime critique semble exploitée pour accommoder des hétérogénéités fonctionnelles (tel que les radeaux lipidiques dans la membranes cellulaires) [Machta, B. B., Papanikolaou, S., Sethna, J. P., & Veatch, S. L. (2011). Minimal model of plasma membrane heterogeneity requires coupling cortical actin to criticality. Biophysical journal100(7), 1668-1677.].

Une autre question importante concerne l’influence de l’anisotropie/l’asymétrie des interactions sur la dynamique du groupe:

De façon générale, on peut formaliser la caractériser structurellement chaque système en précisant le bassin d’influence local/distal entre les éléments du système. Dans un système physique (cristal, liquide, gaz), ce sont les interactions fondamentales, leurs symétries et la façon dont elles propagent les perturbations à travers le milieu (qui peut être ou inhomogène ou anisotrope) qui vont induire les corrélations d’activités de proche en proche. Dans le cas d’un réseaux de neurones, ce sont les extensions des champs synaptiques qui caractérisent l’influence locale ou distale, excitatrice ou inhibitrice des cellules voisines sur l’unité considérée et que l’on modélise conventionnellement par un noyau de convolution (du type “différence de gaussiennes” ou “mexican-hat”). Dans le cas des dynamiques collectives d’organismes en mouvement, ce sont la perception et les échanges d’information entre individus (traitements sensori-moteurs pour l’estimation et l’adaptation à la position, la vitesse ou l’alignement des voisins) dont les anisotropies et les asymétries des interactions vont diriger la dynamique collective sur différentes phases.

Plusieurs autres questions restent en suspens:

– comment définir la criticalité d’un système collectif biologique (mesurer des longueurs de corrélation?)

– quelles sont les variables qui permettent aux systèmes de se maintenir dans la zone de criticalité (attracteur de criticalité?)

– quel est l’impact de l’anisotropie/symétrie des interactions sur la dynamique collective et son maintient dans un état quasi-critique.

– comment faire le lien entre la caractérisation des états dynamiques collectifs et les questions de morphogenèse: la caractérisation d’une “forme” émergente à un niveau de description peut elle toujours être caractérisée objectivement par des paramètres du niveau élémentaire sous-jacent, ou participe t-elle de la subjectivité de l’esprit de l’observateur: voir à ce sujet les travaux sur l’émergence des formes visuelles apparentes et sur le “triangle de Kanizsa” par J. Petitot et A. Sarti, et sur les modèles d’hallucinations (P. Breslov et al. 2002). Pour résoudre cette question, il semble pertinent de faire appel aux “méthodes de renormalisation” pour caractériser objectivement l’influence de la dynamique d’un niveau sur l’organisation des niveaux supérieurs (Longo & al. 2012).

Piste méthodologique sur le Groupe de Renormalisation:

Quand la dynamique d’un système s’approche d’un point critique, de large régions d’une nouvelle phase apparaissent de sorte que les corrélations entre les constituants microscopiques s’étendent sur des distance macroscopique. On caractérise cette situation en introduisant une “longueur de corrélation” qui mesure l’étendue de ces corrélations [évaluent la cohérence du système]. Au point critique cette longueur devient infinie et typiquement les corrélations décroissent selon une loi de puissance (non-intégrable, ce qui contraste avec la décroissance exponentielle). Les exposants de ces lois de puissances présentent un remarquable degré d’universalité car les mêmes exposants apparaissent pour des système physiquement différents tels qu’un gaz et une substance ferromagnétique.

Le groupe de renormalisation (GR) est à la fois une façon de caractériser les phénomènes critiques et un outils calculatoire. Il a été introduit pour expliquer les deux aspects mentionnés ci-dessus à savoir l’émergence des lois de puissance et l’universalité des exposants. Son argument qualitatif est le suivant: si les corrélations s’étendent sur des distances macroscopiques, il doit être indifférent de considérer le système comme constitué des objets microscopique originaux ou de blocs contenant un grand nombre de ces constituants. A la limite, où les corrélations s’étendent à l’infini, la taille des blocs ne doit plus avoir d’importance et cela conduit immédiatement à des propriétés d’homogénéité pour les fonctions de corrélation. Si les corrélations sont des fonctions ayant un symétrie d’échelle, le système ne change pas de nature si on le considère comme constitué des objets microscopique originaux ou de blocs contenant un grand nombre de constituants. Le passage d’un échelle à l’autre décrit alors asymptotiquement les symétries d’échelles du système.

3. Success stories

3.1. Décrypter et modéliser les interactions impliquées dans la construction du nid chez les fourmis

La construction collective d’un nid chez les fourmis nécessite une coordination très étroite de l’activité bâtisseuse des individus qui s’opère au moyen d’interactions « stigmergiques » (du grec stigma qui signifie piqûre et ergon qui signifie travail). Ce mécanisme hypothétique, introduit par Pierre-Paul Grassé à la fin des années cinquante permettrait aux insectes de coordonner indirectement leurs activités en utilisant les structures déjà construites (Grassé, 1959). Schématiquement, les traces laissées sur le sol par un insecte lorsqu’il se déplace comme les pistes des phéromones ou les structures qu’il a construites constituent des stimuli qui vont ensuite déclencher d’autres comportements chez les autres insectes de la colonie. L’activité de ces insectes va alors modifier les stimuli qui ont déclenché leurs comportements, conduisant à la formation de nouveaux stimuli. Ces boucles de rétroaction sont à l’origine de la coordination des activités des insectes et donnent ainsi l’illusion que la colonie suit un plan pré défini. Mais la l’existence de type mécanisme de coordination des activités de construction n’a jamais été démontrée expérimentalement et à même parfois été battue en brèche par certains auteurs.

Ces mécanismes de coordination ont récemment été décryptés par des équipes françaises chez la fourmi des jardins Lasius niger (Khuong et al., 2016). Chez cette espèce, le nid est constitué de deux parties : une partie souterraine constituée de chambres creusées dans le sol et reliées par un réseau de galeries ; et un dôme en terre dont la structure interne est constituée d’un grand nombre de chambres en forme de bulles étroitement imbriquées les unes aux autres. Deux principales formes d’interactions avec les structures qu’elles construisent permettent aux fourmis de coordonner leurs activités. Les fourmis déposent préférentiellement du matériau de construction dans les zones où d’autres dépôts ont déjà été réalisés. Ce comportement stigmergique qui produit une « rétroaction positive » (une effet boule de neige) est induit par une phéromone (une substance chimique) ajoutée par les fourmis dans le matériel de construction. L’accumulation de boulettes d’argile aux mêmes endroits conduit à la formation de piliers. Une seconde forme de rétroaction intervient ensuite lorsque les piliers atteignent une hauteur correspondant à la longueur moyenne du corps d’une fourmi. Les ouvrières construisent alors des extensions latérales qui constituent par la suite des « chapiteaux » de forme globulaire. Les fourmis utilisent ainsi leur corps comme un gabarit pour déterminer la hauteur à partir de laquelle elles cessent de construire verticalement et commencent à déposer des boulettes latéralement sur les piliers. La fusion des chapiteaux achève la construction des chambres et de nouveaux piliers sont ensuite érigés au-dessus constituant un nouvel étage dans la structure. Mais ce qui est surtout frappant, c’est le remodelage permanent de la structure. Si la forme globale du nid reste la même au cours du temps, les ouvrières détruisent en permanence certaines parties du nid tout en reconstruisant de nouvelles structures. Ce remodelage permet aux fourmis d’adapter en permanence la structure du nid à la taille de la population et aux conditions environnementales. Enfin la phéromone ajoutée par les fourmis au matériel de construction joue un rôle clé dans la croissance et la forme des nids. La durée de vie de la phéromone est en effet fortement influencée par les conditions de température et d’humidité. Ainsi lorsque la phéromone s’évapore rapidement, le nombre total de piliers construits par les fourmis diminue fortement ; quant aux chapiteaux, ils s’aplatissent et forment des auvents. Grâce à ce mécanisme, lorsque la température augmente, les fourmis construisent des abris adaptés, dont la forme va changer en fonction des conditions de l’environnement, tout en conservant pourtant les mêmes comportements individuels.

3.2. Décrypter et modéliser les interactions entre poissons au sein d’un banc

Plus de la moitié des espèces de poissons sont grégaires, soit environ 10000 espèces. Ces animaux se regroupent en bancs qui se déplacent à l’unisson comme s’ils ne constituaient qu’un seul et même super-organisme. Ils adoptent également une étonnante variété de comportements collectifs qui leur permettent de repérer plus facilement des sources de nourriture, et aussi d’identifier les dangers et échapper aux prédateurs. Comme pour d’autres phénomènes observés chez d’autres espèces grégaires comme les nuées d’oiseaux, ou les troupeaux d’ongulés, ces déplacements collectifs sont auto-organisés. Ils ne sont régis par aucun poisson leader, ni aucune hiérarchie. La coordination résulte d’un ensemble d’interactions entre les individus au cours desquelles ceux-ci échangent des informations et y répondent en adaptant leurs mouvements. On peut aujourd’hui décrypter ces interactions entre poissons, construire des modèles mathématiques fidèles, les simuler sur ordinateur, et ainsi mieux comprendre comment émerge leur intelligence collective. Pour cela, on combine des techniques d’analyse des comportements utilisées en éthologie et des outils développés en physique statistique. Ces travaux ont permis de mettre en évidence deux types d’interactions entre les poissons : l’attraction et l’alignement (Gautrais et al., 2012 ; Calovi et al., 2017). Selon leur force et la façon dont ces deux interactions se combinent, le banc sera sensible à un infime changement de comportement d’un ou plusieurs poissons et il adoptera plusieurs formes de comportements collectifs. Chez les doules à queues rubanées (Kuhlia mugil), une espèce côtière apparentée aux harengs vivant sur les côtes de l’île de la Réunion, les chercheurs ont identifié quatre formes de comportements collectifs (Calovi et al., 2014). La première est semblable à un vol de moucherons, les poissons restant regroupés de manière lâche tout en se déplaçant au hasard sans direction définie: attraction, alignement et vitesse de nage sont alors très faibles. Lorsque la vitesse des poissons augmente (au-delà de 0,2 mètre par seconde), quand ils détectent notamment un prédateur, ils peuvent adopter un mouvement polarisé où l’alignement domine la force d’attraction. Pour d’autres combinaisons des interactions d’attraction et d’alignement, ils forment des structures en vortex et tournent de façon persistante autour d’un axe vide de tout poisson. Enfin lorsque l’attraction est forte mais l’alignement quasi nul, et pour des gammes de vitesses comprises entre 0.8 et 1.2 mètre par seconde, le banc adopte spontanément une formation en ligne sinueuse. On peut ainsi établir un « diagramme de phase » très précis définissant les conditions d’apparition de ces différents comportements collectifs en fonction des paramètres d’attraction et d’alignement des poissons. Les physiciens utilisent de tels diagrammes pour décrire les différents états possibles d’un système. Ceux de l’eau, par exemple : solide, liquide ou gazeuse selon les températures et les pressions considérées. Or, pour une série de combinaisons d’attraction et d’alignement, lorsque la vitesse de nage est importante (supérieure à 0.8 mètre par seconde), les doules se trouvent dans un état qualifié de «métastable » – entre le banc polarisé et la structure en vortex. Lorsqu’un banc se retrouve dans cet état, la plus petite modification du comportement d’un seul des poissons peut faire basculer le banc d’un régime à un autre. Le groupe acquiert ainsi une très grande réactivité et devient sensible à toutes sortes de perturbations survenant dans son environnement (Calovi et al., 2015). Cet état, dans lequel le banc oscille en permanence entre un déplacement dans une direction privilégiée (banc aligné) et un déplacement circulaire (vortex), lui permet d’adopter une réponse qui maximise les chances de survie de chaque poisson lorsque surviennent les attaques de prédateurs.

3.3. Comportements collectifs d’agents cognitifs en biologie:  le système immunitaire

Un système cognitif dynamique reposant sur des comportements collectifs de cellules échangeant des informations à travers des réseaux d’interaction est le système immunitaire qui est un système complexe critique, oscillant et adaptatif. La dynamique des comportements collectifs et réseaux d’interactions entre lymphocytes et immuno-récepteurs diversifiés commence à être expérimenté in vivo et in silico.

Dans l’article de Thomas-Vaslin 2014, les flux, comportements collectifs et réseaux d’interaction des lymphocytes dans un organisme sont schématisés par un réseau d’interaction collectifs via les immuno-récepteurs à la surface des lymphocytes ou ceux qui sont secrétés comme les anticorps qui sont eux mêmes des antigènes.

Challenge: Comment peut on modéliser les comportements collectifs des lymphocytes qui rendent compte de l’émergence de propriétés dynamiques, supra-clonales, dominantes au sein du système immunitaire?

Par exemple comment modéliser

  • l’organisation du système immunitaire et de la sélection des répertoires durant l’ontogénie ?
  • Le maintien de la tolérance dominnate et de la mémoire immunologique pour aboutir à des processus cognitifs adaptatifs.

La prise en compte de ces comportements collectifs, réseaux d’interactions, boucles de régulation positives et négatives, et occurrence dans le temps des événements (historicité), dans des modélisations multi-échelles du système immunitaire devrait permettre de mieux cerner les propriétés et l’architecture évolutive du système : par exemple on souhaiterait pouvoir modéliser les processus d’apprentissage et de sélection des répertoires des lymphocytes diversifiés permettant l’établissement de la tolérance au soi mais aussi la capacité adaptative permettant des réponses immunes efficaces.

En cas de perturbations de ces comportements collectifs par exemple avec des immunisations, infections, ou de perturbation des flux et dynamique des lymphocytes au cours du vieillissement, on voudrait pouvoir modéliser le basculement vers un état d’auto-immunité ou inflammatoire, ou pouvoir manipuler la restauration vers l’état de tolérance dans des protocoles d’immunothérapie.

 

3.4. Réseaux d’oscillateurs et synchronisation: application aux réseaux de neurones.

Les réseaux d’oscillateurs sont depuis toujours un des paradigmes les plus utilisés pour décrire les processus dynamiques qui se produisent dans les systèmes complexes. Les grands réseaux d’oscillateurs couplés avec différents attracteurs périodiques ont été étudiés dans de nombreux domaines de la science et de la technologie, comme, par exemple, la biologie, la physique et l’ingénierie (Kuramoto, Winfree). La caractéristique principale des réseaux oscillants est l’émergence de la synchronisation entre les différents éléments; effectivement, souvent ces éléments changent leur rythme de sorte que beaucoup d’entre eux montrent un comportement corrélé. Il est évident que la compréhension de la manière dont les interactions entre les cellules influent sur l’aspect et les propriétés de ces oscillations est de cruciale importance pour caractériser ces dynamiques complexes.

Dans l’hypothèse d’un couplage faible (que l’on peut retrouver dans certaines applications en neuroscience (Hoppenstead & Izhikevich)), des nombreux résultats ont été obtenus en terme de synchronisation de phase (Kuramoto, Pikovsky et al., Hoppenstead & Izhikevich).

 

REFERENCES

Bak P (1996). How Nature Works: The Science of Self-organized Criticality. New York: Copernicus

Bialek W, Cavagna A, Giardina I, Mora T, Pohl O, Silvestri E, Viale M, Walczak AM (2014) Social interactions dominate speed control in poising natural flocks near criticality. Proceedings of The National Academy of Sciences USA 111: 7212-7217.

Bresslov & al. (2002). Neural Comput. What geometric visual hallucinations tell us about the visual cortex. Neural Computation, 14 : 473–491.

Calovi, D.S., Litchinko, A., Lecheval, V., Lopez, U., Pérez Escudero, A., Chaté, H., Sire, C. & Theraulaz, G. Disentangling and modeling interactions in fish with burst-and-coast swimming (submitted).

Calovi, D.S., Lopez, U., Schuhmacher, P., Sire, C., Chaté, H. & Theraulaz, G. (2015). Collective response to perturbations in a data-driven fish school model. Journal of the Royal Society Interface, 12: 20141362.

Calovi, D.S., Lopez, U., Ngo, S., Sire, C., Chaté, H. & Theraulaz, G. (2014). Swarming, Schooling, Milling: Phase diagram of a data-driven fish school model. New Journal of Physics, 16: 015026.

Camazine, S., Deneubourg, J.L., Franks, N., Sneyd, J., Theraulaz, G. & Bonabeau, E. (2001). Self-Organization in Biological Systems. Princeton University Press.

Dauphiné A., (2003). Les théories de la complexité chez les géographes. Economica, Paris.

Deokjae Lee, Jae-Young Kim, Jeho Lee, and B. Kahng. Forest Fire Model as a Supercritical Dynamic Model in Financial Systems. (2015). Phys. Rev. E 91, 022806.

Gautrais, J., Ginelli, F., Fournier, R., Blanco, S., Soria, M., Chaté, H. & Theraulaz, G. 2012. Deciphering interactions in moving animal groups. Plos Computational Biology, 8: e1002678.

Grassé, P. P. (1959). La reconstruction du nid et les coordinations interindividuelleschez Bellicositermes natalensis et Cubitermes sp. La théorie de la stigmergie: essai d’interpétation du comportement des termites constructeurs. Insectes Sociaux, 6 : 41–83

Hoppensteadt, F. C., & Izhikevich, E. M. (2012). Weakly connected neural networks (Vol. 126). Springer Science & Business Media.

Khuong, A., Gautrais, J., Perna, A., Sbaï, C., Combe, M., Kuntz, P., Jost, C. & Theraulaz, G. 2016. Stigmergic construction and topochemical information shape ant nest architecture. Proceedings of The National Academy of Sciences USA, 113: 1303–1308.

Kuramoto, Y. (2012). Chemical oscillations, waves, and turbulence (Vol. 19). Springer Science & Business Media.

Longo, G & Montevil, M. (2015). Perspectives on organisms: biological time, symetry and singularity. Ed. Springer.

Longo, G., Montevil, M. & Pocheville, A. (2012). From bottom-up approaches to levels of organization and extended critical transitions. Frontiers in Physiology, 3 : 232.

Mora, T. & Bialek, W. 2011. Are Biological Systems Poised at Criticality? J. Stat. Phys. 144: 268-302.

Pikovsky, A., Rosenblum, M., & Kurths, J. (2003). Synchronization: a universal concept in nonlinear sciences (Vol. 12). Cambridge university press.

Song, C., Qu, Z., Blumm, N., & Barabási, A.-L. (2010). Limits of Predictability in Human Mobility. Science, 327 : 1018-1021.

Tkacik et al., (2015). Thermodynamics and signatures of criticality in a network of neurons. Proceedings of The National Academy of Sciences USA, 112 : 11508–11513

Weitz, S., Blanco, S., Fournier, R., Gautrais, J., Jost, C. & Theraulaz, G. 2012. Modeling Collective Animal Behavior with a Cognitive Perspective: A Methodological Framework. Plos One, 7: e38588.

Winfree, A. T. (2001). The geometry of biological time (Vol. 12). Springer Science & Business Media.

 

PISTES ET REFERENCES COMPLEMENTAIRES

Schulz, R., Werner, B., & Behn, U. (2014). Self tolerance in a minimal model of the idiotypic network. Frontiers in Immunology.

Menshikov, I., Beduleva, L., Frolov, M., Abisheva, N., Khramova, T., Stolyarova, E., & Fomina, K. (2015). The idiotypic network in the regulation of autoimmunity: Theoretical and experimental studies. J Theor Biol, 375, 32-39. doi:10.1016/j.jtbi.2014.10.003

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Thomas-Vaslin, V. (2014). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

 

Commentaire général: La description des succès stories citées est bcp trop  longue et déséquilibrée entre les divers cas. L’idée était d’énoncer quelques résultats qui ont vraiment fait changer le domaine, montrer par quelques lignes en quoi ces résultats on fait date,    et donner les réferences concernées. Il serait aussi bien faire ressortir pour toutes  les succèss stories  comment elles s’insèrent dans la description de l’état de l’art sur le domaine faite en introduction.

 

 

Géosciences et environnement

Géosciences et environnement

Rapporteur : Michael Ghil (ENS Paris).

Contributeurs : Pierre Baudot (Inaf CNRS), François Daviaud (CEA), Bérengère Dubrulle (CEA), Patrick Flandrin (CNRS ENS Lyon), Cedric Gaucherel (INRA), Gabriel Lang (Agro Paris Tech), Francesco d’Ovidio (ENS), Daniel Schertzer (Météo-France), Eric Simonet (CNRS).

Mots clés : changement climatique, prévisibilité et incertitudes, écosystèmes et paysages, multiples échelles et hétérogénéité, climat et réseaux trophiques, maladies émergentes, transport et mélange, interactions climat-temps, modélisations déterministe ou stochastique.

Introduction
Les caractéristiques physiques, chimiques et biologiques de l’homme – de l’échelon local et communautaire à l’échelle mondiale – deviennent une préoccupation de plus en plus majeure de l’ère post-industrielle. Leur étude inclut tous les sous-systèmes du système terrestre – l’atmosphère, les océans, l’hydrosphère et la cryosphère, ainsi que la croûte terrestre supérieure – et leurs interactions avec la biosphère et les activités humaines. Par conséquent, nous devons travailler sur des systèmes hautement complexes, hétérogènes et multi-échelles à partir d’une série d’approches aussi interdisciplinaires que possible. Les concepts et les outils de la théorie des systèmes complexes semblent particulièrement utiles pour relever trois défis majeurs. Premièrement, il s’agit de la gamme d’incertitudes qui prévaut toujours dans les projections d’avenir sur le changement climatique qui, jusqu’à présent, était attribuée en grande partie à des difficultés de paramétrage des processus à l’échelle sous-maille dans les modèles de circulation générale (MCG) et au réglage des paramètres semi-empiriques. Des études récentes signalent également des difficultés fondamentales associées à l’instabilité structurelle des modèles climatiques et suggèrent l’application de la théorie des systèmes dynamiques aléatoires pour aider à réduire les incertitudes. Deuxièmement, c’est le système terrestre qui varie à toutes les échelles spatio-temporelles et se trouve donc en situation d’hors équilibre thermodynamique, et ce, très certainement de manière importante. Les méthodes de la physique statistique représentent alors un intérêt particulier dans la modélisation du comportement en quasi-équilibre du système permettant ainsi d’étendre les résultats à des états encore plus éloignés de la situation d’équilibre. Troisièmement, une majeure partie de l’intérêt dans ce domaine découle des préoccupations au sujet de l’impact socio-économique des événements extrêmes. L’étude de leurs statistiques et de leurs dynamiques vise à mieux comprendre et à obtenir des prévisions plus fiables de ces événements.

Les caractéristiques physiques, chimiques et biologiques de l’homme – de l’échelon local et communautaire à l’échelle mondiale – deviennent une préoccupation de plus en plus majeure de l’ère post-industrielle. La complexité du système est sans doute comparable à celle des systèmes étudiés en sciences de la vie et en sciences cognitives. Il paraît donc particulièrement judicieux d’intégrer les principaux domaines d’application issus de la théorie des systèmes complexes aux questions qui figurent dans cette feuille de route.

Le système terrestre comprend plusieurs sous-systèmes – l’atmosphère, les océans, l’hydrosphère et la cryosphère, ainsi que la croûte terrestre supérieure – chacun étant à son tour hétérogène et variable à toutes les échelles de temps et d’espace. Cette variabilité se trouve en outre affectée et, en retour, affecte non seulement l’écosystème contenu dans chaque sous-système, mais aussi les humains, leur économie, leur société et leur politique. Par conséquent, nous avons affaire à un système multi-échelles fortement complexe et hétérogène, et les disciplines scientifiques, indispensables pour mieux comprendre, contrôler, prédire et gérer ce système sont nombreuses et variées. Elles incluent de nombreuses sous-disciplines des sciences physiques, sciences de la vie, mathématiques, informatique et, bien entendu, toutes les sciences de la Terre et de l’environnement : de la géologie, géophysique et géochimie aux sciences de l’atmosphère et des océans en passant par l’hydrologie, la glaciologie et la pédologie.

Les questions interdisciplinaires essentielles soulevées dans ce domaine majeur comprennent le changement climatique, le changement dans la répartition et l’interaction entre les espèces entraînant un changement climatique passé, présent et futur, la manière dont les cycles biogéochimiques des traces de substances chimiques et nutritives interagissent avec d’autres changements dans le système, et le lien entre les problèmes sanitaires et les changements de l’environnement. Concernant la méthodologie, des objectifs majeurs ont été fixés pour permettre de résoudre ces questions. Ils incluent : une meilleure prédiction et la réduction des incertitudes, une meilleure description et modélisation du transport et du mélange des fluides à l’échelle planétaire, la compréhension de l’effet net produit par le temps sur le climat et les impacts des changements de temps sur les changements climatiques. Concevoir la meilleure utilisation de la modélisation stochastique, déterministe ou combinée dans cette démarche hautement complexe est également fondamental.

Afin de traiter simultanément quelques-unes de ces questions clés et de tenter d’atteindre certains de ces grands objectifs connexes, nous proposons de nous concentrer sur les trois grands défis suivants : (i) comprendre l’origine des incertitudes autour des projections sur le changement climatique et les réduire ; (ii) étudier la physique statistique hors équilibre du système terrestre ; et (iii) étudier les statistiques et les dynamiques des événements extrêmes.

L’amplitude des incertitudes concernant les prévisions relatives aux changements climatiques a été définie pour la première fois en 1979 comme une réaction à l’équilibre des températures mondiales de 1,5 à 4,5 k pour une concentration de CO2 dans l’atmosphère multipliée par deux. Quatre rapports d’évaluation du GIEC plus tard, les températures restent à quelques degrés près les mêmes pour la fin du siècle et pour l’ensemble des scénarios relatifs aux gaz à l’effet de serre. Cette difficulté persistante à réduire les incertitudes a été attribuée jusqu’à tout récemment à des difficultés de paramétrage des processus à l’échelle sous-maille dans les modèles de circulation générale (MCG) et de réglage des paramètres semi-empiriques. En revanche, de nouvelles études signalent également des difficultés fondamentales associées à l’instabilité structurelle des modèles climatiques et suggèrent l’application de la théorie des systèmes dynamiques aléatoires pour aider à réduire les incertitudes.

Le système terrestre varie à toutes les échelles spatio-temporelles, de la microphysique des nuages à la circulation générale de l’atmosphère et des océans, des micro-organismes aux écosystèmes planétaires, et des fluctuations décennales du champ magnétique à la dérive des continents. L’ensemble du système, tout comme chacun de ses sous-systèmes, est forcé et dissipatif, et donc hors équilibre thermodynamique, et ce, très certainement de manière conséquente. Les méthodes de la physique statistique semblent intéressantes pour la modélisation du comportement de quasi-équilibre du système et pour tenter d’obtenir des résultats pouvant être étendus à d’autres paramètres réels, plus éloignés de la situation d’équilibre.

Enfin, une majeure partie de l’intérêt en géosciences et en études de l’environnement découle des préoccupations à propos de l’impact socio-économique des événements extrêmes. L’approche classique de tels événements repose toujours sur la théorie des valeurs extrêmes généralisées (TVE), même si ses hypothèses ne se rencontrent que rarement en pratique. Il nous faut donc élaborer des modèles statistiques plus sophistiqués, fondés sur une meilleure compréhension des dynamiques qui entraînent des événements extrêmes. Avec de meilleurs modèles statistiques et dynamiques, nous devrions être en mesure de fournir des prévisions plus fiables pour les événements extrêmes, et les soumettre à des tests approfondis dans toutes les disciplines et pour des ensembles de données.

Les géosciences ont une longue tradition de contribution aux études des systèmes complexes et non linéaires. Les travaux d’E. N. Lorenz, au début des années 1960, ont fourni un paradigme majeur de dépendance sensible à l’état initial. Ces travaux, associés à ceux de C. E. Leith, ont apporté un nouvel éclairage sur la propagation des erreurs à différentes échelles de mouvement. Les phénomènes multi-échelles dans le contexte de la Terre solide et de l’enveloppe fluide ont permis une meilleure compréhension de la multifractalité et ses conséquences pour les prévisions dans de nombreuses disciplines, y compris la sphère sociale et politique. Nous espérons et croyons que le travail proposé ici sera une source d’inspiration et s’avérera utile à la théorie des systèmes complexes et ses applications dans de nombreuses autres disciplines.

Grands défis

  • Comprendre et réduire les incertitudes
  • Physique statistique hors équilibre du système terrestre

 


2.10.1. Comprendre et réduire les incertitudes

Charney et coll. (Natural Academic Press, 1979) ont été les premiers à proposer une estimation consensuelle de la sensibilité à l’équilibre du changement climatique en fonction de la concentration atmosphérique de CO2. Le résultat fut la fameuse fourchette de 1,5 à 4,5 k d’augmentation de la température mondiale près de la surface (Ts, température de surface), pour une concentration de CO2 multipliée par deux. Le climat n’a pourtant jamais été ni ne sera probablement jamais en situation d’équilibre. Outre les estimations sur la sensibilité à l’équilibre, les quatre rapports d’évaluation successifs élaborés par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC : 1991, 1996, 2001, 2007) ont donc porté sur les estimations du changement climatique pour le XXIe siècle sur la base de divers scénarios d’augmentation du CO2 dans cet intervalle de temps. Les résultats des modèles de circulation générale (MCG) relatifs à une augmentation de température au cours des cent prochaines années ont obstinément résisté à tout rétrécissement de la fourchette des estimations, avec une variation de plusieurs degrés Celsius pour les températures prévues pour la fin du siècle, pour un scénario d’augmentation du taux de CO2 donné. Cette difficulté de réduction de la fourchette d’estimations est étroitement liée à la complexité du système climatique, à la non-linéarité du processus en jeu et aux obstacles à une représentation fidèle de ces processus et des rétroactions à travers les MCG.

L’une des sources d’erreurs évidentes est la difficulté à représenter tous les processus inférieurs à la résolution spatio-temporelle du modèle. Ce problème est particulièrement évident pour les processus biochimiques où la dynamique microphysique et microbiologique est couplée à la dynamique turbulente de l’océan et de l’atmosphère entraînant une variabilité spatio-temporelle virtuelle à presque toutes les échelles d’observation. Le phytoplancton en est un exemple. Son rôle majeur dans l’absorption de CO2 est affecté autant par l’advection des nutriments due à la circulation à grande échelle (bassin, années), que par la présence de filaments associés à la remontée d’eau froide (1 à 20 km, jours), l’interaction écologique avec le zooplancton (mm/m, heures/jours), ou les processus turbulents et biologiques à l’échelle de la cellule. L’étude de ces phénomènes biochimiques demande le développement de nouveaux outils théoriques dépassant les capacités de chaque discipline, et qui, en raison de leurs caractéristiques, entrent naturellement dans le cadre des systèmes complexes. Ces études doivent permettre de :

  • appréhender simultanément les multiples échelles spatio-temporelles de transport et de repérage des dynamiques,
  • intégrer les descriptions des différentes disciplines, notamment les propriétés de transport et de mélange issues de la théorie des turbulences, et les processus biologiques ou chimiques des repérages d’advection,
  • fournir des résultats sous une forme permettant de les comparer avec l’ensemble croissant des données d’observation,
  • formuler un schéma de paramétrage computationnel efficace pour les modèles de circulation.

Une seconde source d’erreurs réside dans la difficulté fondamentale liée à l’instabilité structurelle des modèles climatiques. Il est largement admis que l’espace de tous les systèmes dynamiques déterministes et différentiables (SDD) présentent une structure très complexe : les systèmes présentant une structure stable ne sont malheureusement pas typiques de toutes les dynamiques déterministes, comme on l’espérait au départ (Smale, 1967). En effet, ce qui est modélisé par les SDD ne semble pas typiquement robuste d’un point de vue qualitatif et topologique, et cela concerne même les petits systèmes comme le modèle de Lorenz (1963). Ce fait décevant a conduit des mathématiciens à aborder le problème de la robustesse et de la généricité à partir de nouvelles approches stochastiques (Palis, 2005). D’autre part, des travaux sur le développement et l’utilisation de modèles de circulation générale sur plusieurs décennies ont amplement démontré que tout ajout ou changement dans le « paramétrage» d’un modèle – c’est-à-dire dans la représentation des processus sous-maille en termes de variables explicites et à grande échelle du modèle – peut se traduire par des changements notables dans le comportement du modèle résultant.

Le problème de l’amplitude des incertitudes, loin d’être une simple difficulté pratique de « réglage » de quelques paramètres du modèle, pourrait être lié à l’instabilité structurelle inhérente aux modèles climatiques. Une manière possible de réduire cette instabilité structurelle est l’utilisation de paramétrages stochastiques dans le but de lisser les dynamiques qui en résultent à travers une moyenne d’ensemble. Une question clé est alors de déterminer si les paramétrages stochastiques ad hoc ajoutent une quelconque forme de robustesse aux modèles climatiques déterministes connus et comment réduire l’amplitude des incertitudes dans les projections climatiques futures. Des résultats préliminaires indiquent que le bruit produit des effets stabilisants qui doivent être étudiés à travers une série de modèles climatiques, des MCG les plus simples aux plus complexes. Une telle hypothèse pourrait être testée en appliquant des concepts théoriques et des outils numériques issus de la théorie des systèmes dynamiques aléatoires (SDA ; L. Arnold, 1998). Selon cette théorie purement géométrique, le bruit est paramétré de manière à traiter les processus stochastiques comme de véritables flux dans un espace de phases étendu appelé « faisceau de probabilités ». Les séries d’invariants aléatoires, tels que les attracteurs aléatoires, peuvent alors être définies et rigoureusement comparées au moyen du concept SDA d’équivalence stochastique permettant de prendre en compte la stabilité stochastique structurelle de ces modèles.


2.10.2. Physique statistique hors équilibre du système terrestre

La Terre et ses différentes composantes (hydrosphère, atmosphère, biosphère, lithosphère) constituent des systèmes typiquement hors équilibre : en raison de la nature dissipative intrinsèque de leurs processus, ils sont contraints, sans forçage, à s’effondrer au repos. Toutefois, en présence d’un forçage permanent, un régime d’état de stabilité peut être établi, dans lequel le forçage et la dissipation s’équilibrent en moyenne, ce qui permet de maintenir une situation stable non triviale avec d’importantes fluctuations couvrant une large gamme d’échelles. Le nombre de degrés de liberté impliqués dans les dynamiques correspondantes est si important que l’approche mécanique statistique – permettant l’émergence de quantités pertinentes générales pour décrire les systèmes – serait la bienvenue. Une telle simplification serait particulièrement utile pour la modélisation des enveloppes fluides, où la capacité des ordinateurs actuels interdit la simulation numérique à pleine échelle des équations (Navier-Stokes) qui les décrivent. Des problèmes similaires sont omniprésents dans la biologie et l’environnement lorsque les équations sont connues.

Un autre résultat intéressant de l’approche statistique serait d’obtenir un équivalent du théorème fluctuation-dissipation (TFD) pour trouver une relation directe entre les fluctuations et la réponse du système au forçage extérieur infinitésimal. Appliquée au système terrestre, une telle approche pourrait fournir de nouvelles estimations de l’impact des émissions de gaz à effet de serre sur les perturbations climatiques.

Diverses difficultés sont liées à la définition des mécanismes statistiques hors équilibre dans le système terrestre :

  • le problème de la définition d’une entropie (voire une série infinie d’entropies) dans les systèmes hétérogènes,
  • l’identification des contraintes,
  • le problème de la non-extensivité des variables statistiques due aux corrélations entre les différentes composantes du système (éventuellement résolu par l’introduction de dimensions (fractionnaires) réelles).

Sur le plan de la physique, plusieurs avancées ont récemment été enregistrées dans la description des turbulences grâce à l’utilisation d’outils empruntés à la mécanique statistique des fluides à propriétés invariantes. En revanche, les principes variationnels de la production d’entropie sont encore à étudier. D’autres progrès ont été accomplis concernant l’équivalent du théorème de fluctuation-dissipation (TFD) dans les systèmes physiques largement hors équilibre. Des essais expérimentaux sur un système magnétique vitreux ont mis en évidence la violation du TFD par les non-linéarités dans la relation entre la fluctuation et la réponse. Des identités générales entre fluctuation et dissipation n’ont été obtenues en théorie que pour les systèmes temporellement symétriques. Elles ont été expérimentalement testées avec succès pour les systèmes dissipatifs (non temporellement symétriques) tels que les circuits électriques ou les fluides turbulents. Il serait intéressant d’étendre ces résultats au système terrestre.