Théorie et mesure des réseaux (2008)

Théorie et mesure des réseaux

Contributeurs : Cyril Bertelle, Jean-Philippe Cointet, Jean-Pierre Gaudin, Damien Olivier, Jean-Baptiste Rouquier

Mots-clefs : Réseau complexe, graphe de terrain, grand réseau d’interaction, graphe, hiérarchie, clustering, communautés, dynamique, robustesse, données partielles, données contextuelles

Introduction

La technologie actuelle produit des données à un rythme toujours plus rapide, et une partie de ces données peut être modélisée par des graphes. Dans de nombreux domaines, le point de vue graphe apporte un éclairage complémentaires aux analyses spécialisées propres au domaine. Cela permet notamment d’orienter les recherches vers les voies les plus prometteuses, d’appréhender la structure d’une grande masse de données. L’approche réseau est un moyen de travailler l’articulation multi-échelle qui caractérise la plupart des systèmes complexes.

Pour tenter de dessiner les contours du domaine des réseaux complexes, nous proposons les trois critères suivants : il s’agit de graphes qui sont

  • construits à partir de données d’observation
  • suffisamment grands pour permettre des statistiques et une approche agglomérative
  • évoluant essentiellement par des mécanismes locaux

Quels sont les verrous actuels de l’étude des réseaux ? Quelles sont les problématiques communes à plusieurs disciplines ? Au fil des pages de la feuille de route, les réseaux sont mentionnés plusieurs fois. Le but est ici d’identifier les problématiques communes, qui appellent des méthodes communes.

Défis

  • Structure et hiérarchie, classification (translation of this section at the end)
  • Classification

Recueil et formalisation des données

A. Incomplétude des données

La non-exhaustivité des données peut provenir de différents facteurs : coût de rassemblement, soucis de confidentialité, stratégie de rétention des possesseurs de données (capitalisation de l’information). Une partie de ce défi peut être aujourd’hui surmontée par des protocoles innovants de collecte de données. Notamment, l’obstacle des coûts ou de faisabilité peut être réduit par le recours à des protocoles qui s’appuient sur des dispositifs d’information embarqués, comme les téléphone portables, les dispositifs munis de puces RFID (type navigo/oyster), des logiciels proposés à l’utilisateur, etc.

Ces difficultés sont encore augmentées lorsque l’on souhaite faire un recueil longitudinal (encore appelé dynamique, ou diachronique) de données. La dynamique est par exemple cruciale pour étudier un réseau de déplacement de population (qui montre des cycles journaliers et saisonniers) et sa réaction aux incidents, ou bien l’infrastructure internet (le réseau de routeurs et serveurs) dont la dynamique est plus rapide que le processus de mesure.

Ces difficultés de collecte peuvent induire une description lacunaire des réseaux. Pour travailler avec des données lacunaires, il y a principalement deux voies :

  • utiliser des modèles artificiels pour compléter les trous ;
  • s’appuyer sur d’autres sources pour combler les manques (par exemple, utiliser des données statistiques et démographiques pour estimer les données manquantes)
  • prendre en compte, dès la mesure, un indicateur de confiance sur toutes les données (par exemple la probabilité qu’un lien dans les données existe réellement dans le système mesuré, ou bien un intervalle de confiance sur le poids d’un nœud). Puis adapter les méthodes à ce type de données.

 

B. Enrichissement du formalisme réseau

Le formalisme de base des réseaux s’appuie sur une approche relationnelle stricte (et homogène en termes de nœuds) qu’il s’agit ensuite de remettre en situation de plusieurs manières :

1. Introduire d’autres contextes

Il s’agit notamment d’approches géographiques : utiliser le contexte physico-spatial. D’autres contextes sont la démographie, l’économie et la politique. Par exemple, comment travailler sur des données concernant la préparation d’un projet, les présents aux réunions, comment mesurer l’implication des partenaires ?
Leur prise en compte appelle à un enrichissement de l’analyse des structures relationnelles, et vice-versa : l’approche réseau éclaire ces contextes.
L’art du modélisateur prend toute sa mesure sur ces problèmes, pour contrôler quelle information est perdue lors de la modélisation (par exemple en approximant l’économie d’une ville par sa population et quelques flux tels que eau et argent), nécessairement schématique. L’information entrée dans le modèle peut être largement améliorée.

2. Donner du relief

Les réseaux dont les relations sont purement binaires décrivent des situations décontextualisées. Il s’agit donc de développer des procédures à même de prendre en compte plus d’informations :

  • un cas en cours est celui des réseaux orientés(ou dirigés) et/ou pondérés(ou valués: les nœuds et liens ont un poids)
  • la superposition de réseau (multi-réseau)
  • la sémantique des liens (par exemple, contenu textuel attaché à un échange d’emails)
  • des nœuds hétérogènes (s’il y a deux types de nœud, c’est un réseau biparti, mais il peut y en avoir plus)
  • hyper-réseaux : formalisation d’un tissu relationnel qui se constitue autour d’événements, d’enjeux et de co-production qui engagent un ensemble d’agents.

 

Dynamique

La prise en compte de la dynamique dans les grands réseaux est essentielle pour leur approche dans le cadre de l’étude des systèmes complexes. Trois aspects sont à considérer et sont développés dans la suite : la caractérisation de ces dynamiques, la mesure des dynamiques elles-mêmes et les propriétés induites.

1. Caractérisation des dynamiques

La dynamique peut s’exprimer de différentes façons non nécessairement exclusives :

  • la dynamique dans le réseau telle que la variation des flux portés par la connectivité du réseau,
  • la dynamique du réseau lui-même, correspondant à la variation de la topologie/structure du réseau.

De plus, ces deux dynamiques sont amenées à interagir et il est nécessaire alors d’étudier leurs pro-actions et rétro-actions.

2. Mesure de la dynamique

Il s’agit ici de pouvoir étudier et qualifier la trajectoire de l’évolution du réseau, avec la mise en évidence de certains comportements caractéristiques tels que des dynamiques lentes ou rapides ou encore des phénomènes de bifurcations.

L’inscription de cette dynamique dans le réseau conduit à des constructions morphologiques. L’étude de ce phénomène peut s’effectuer sous différents angles :

  • la genèse de l’apparition de ces formes (aspect stigmergique du processus : lien important entre la forme en construction et la dynamique),
  • la détection de formes localisées dans le réseau (réseaux sociaux, …) et la dynamique des processus d’auto-organisation qui en sont à l’origine,
  • l’influence du réseau global sur les processus émergents locaux.

Ces différents éléments amènent des questions telles que :

  • le réseau conserve-t-il les mêmes caractéristiques au cours de sa constitution ?
  • existe-t-il des étapes structurelles au cours de sa dynamique ?

 

3. Propriétés et maîtrise du réseau dans sa dynamique

La manipulation des grands réseaux en tant qu’outils de modélisation appelle à identifier des propriétés et des méthodes de contrôle ou de régulation.

On peut s’intéresser à l’expression de lois de conservation sur les réseaux en tant que structures discrètes et notamment transposer ces lois de manière opératoire sur des très grands réseaux. A l’opposé, on peut être amené à modéliser des effets dissipatifs.

Étudier la dynamique, c’est implicitement étudier la robustesse et la résilience. Comment des perturbations introduites sur le réseau modifient les trajectoires ?

Enfin, un problème important est celui du contrôle des trajectoires par des actions locales sur le réseau, et des dynamique multi-échelle. Comment une modification à un niveau d’échelle donné (par exemple au niveau méso : application d’une politique publique) se répercute sur les autres niveaux d’échelles ?


Structure et hiérarchie, classification

La hiérarchie peut signifier simplement un ordre d’importance entre les nœuds. Ordonner les nœuds permet de diriger les efforts vers les entités les plus importantes : les protéger (vaccination, sécurité, renforcement), les contrôler et surveiller, leur allouer plus d’effort pour les mesurer…

Mais de façon plus importante, parler de hiérarchie c’est parler de structures telle que dendrogrammes ou communautés hiérarchiques. Comprendre cette organisation multi-échelles est crucial pour comprendre à la fois comment les structures à grande échelle émergent d’interactions locales (de bas en haut) et réciproquement comment (de haut en bas) comment la structure globales (par exemple des institutions) influe sur les entités locales. Il faut bien sûr combiner ces deux approches, ce qui donnera une vision de l’échelle mésoscopique.

Beaucoup de méthodes fructueuses pour trouver de la structure dans un réseau ont été publiées : petit mondes et navigabilité, mesures de centralité, détection de communautés (cf. “Community detection in graphs”, Santo Fortunato, 2010)…
Il existe également des modèles de génération de réseau : attachement préférentiel, block model (voir “A Survey of Statistical Network Models”, Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, 2009). Une régression entre un tel modèle et des données permet de préciser sa structure.
Peut-on espérer une théorie plus unifiée ou un modèle intégré pour décrire la structure d’un réseau, adaptable à de nombreux cas particuliers ?

D’un point de vue technique, il manque toujours un logiciel générique pour analyser et visualiser les réseaux, bien qu’il existe des projets prometteurs (GePhi, Tulip…).


Classification

Il est classique de distinguer les réseaux naturels des réseaux artificiels. Les premiers on tendance à être assortatifs (ce que l’on appelle homophilie), leurs liens résultent d’affinités, tandis que les seconds font souvent preuve de l’effet inverse et des contraintes externes ont une influence (par exemple, des politiques publiques sur les réseaux commerciaux). Mais cette distinction sur l’origine des données a des limites dans ses capacités opératoires, il nous faut chercher d’autres classifications.

Il est aussi nécessaire d’avoir des approches différentes pour les petits et les grands réseaux : dans le premier cas on peut s’attacher à l’exhaustivité et apporter une attention à chaque nœud, tandis que le second exige une vision globale, un résumé du réseau.

Beaucoup de paramètres mesurables ont été définis (“Characterization of Complex Networks: A Survey of measurements”, L. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas). Nous avons maintenant besoin d’une vision globale sur les invariants et propriétés pertinentes pour classifier les réseaux. Nous avons besoin de façons de comparer les réseaux entre disciplines, pour faciliter le portage de méthodes, pour obtenir des idées précises et des intuitions de tous les domaines.

 

 

Intelligence ubiquitaire

Intelligence ubiquitaire

Contributeurs : Marc Schoenauer (INRIA)

Mots clés : réseaux pair à pair (P2P), réseaux ad hoc, observations des phénomènes spatio-temporels multi-échelles (réseaux trophiques, agriculture, météorologie, etc.), algorithmes épidémiques, modèles computationnels et théorie de l’information, calcul spatial, systèmes d’auto-conscience, sens commun, confidentialité.

Introduction
La technologie actuelle permet et demande une rupture dans les modes d’acquisition et de traitement des informations, passant de l’approche monolithique à la mise en réseau d’un grand nombre d’unités de calcul éventuellement hétérogènes. Cette nouvelle approche, reposant sur la distribution du traitement et du stockage, doit permettre d’ajouter de l’intelligence aux artefacts qui constituent désormais notre environnement et de repousser les limites de l’informatique classique (essoufflement de la loi de Moore).

Cet objectif à long terme demande :

  • de résoudre les problèmes d’organisation physique et de communications (routage et contrôle distribué),
  • de mettre au point des mécanismes d’auto-régulation et de contrôle,
  • de concevoir de nouveaux modèles de calcul,
  • de spécifier des environnements de programmation adaptative (apprentissage, rétroaction et sens commun).

Les limites technologiques du modèle de calcul séquentiel de von Neumann semblent aujourd’hui atteintes et exigent de nouveaux paradigmes pour répondre à la demande de puissance computationnelle émanant de nos sociétés modernes. Au cœur de ces nouveaux paradigmes figure la distribution des tâches entre les architectures décentralisées (par exemple, les processeurs multi-cœurs, les grilles de calcul). Traiter la complexité de tels systèmes est incontournable pour répondre aux objectifs de passage à l’échelle et de robustesse dans un cadre décentralisé. Par ailleurs, il est maintenant technologiquement possible de disséminer des capteurs et des moyens de calcul partout où ils sont nécessaires. Cependant, leur exploitation nécessite leur mise en réseau ; pour des raisons physiques, chaque élément ne peut se connecter qu’à ses proches voisins (réseau ad hoc). Dans d’autres contextes, les réseaux pair a pair reposent également sur une visibilité restreinte de l’ensemble des éléments. Dans les deux cas (réseaux ad hoc et P2P), l’enjeu est de pouvoir exploiter au mieux les informations disponibles sur l’ensemble du réseau. Les défis proposés ici concernent l’ensemble de ces nouveaux systèmes computationnels ; on retrouvera certains enjeux des réseaux sociaux ou écosystémiques également traités dans cette feuille de route.

Grands défis

 


2.9.1. Conception locale pour les propriétés générales (routage, contrôle et confidentialité)

Routage, contrôle et confidentialité
Pour mieux concevoir et gérer les grands réseaux, nous devons comprendre comment émergent les comportements généraux alors même que chaque élément prend des décisions au niveau local avec une vision très restreinte du système dans sa totalité. Un modèle de base est celui des algorithmes épidémiques, dans lesquels chaque élément échange des informations avec des éléments voisins. Un enjeu de conception repose sur la nature des informations échangées (prenant notamment en compte les contraintes de confidentialité) et sur la sélection des voisins correspondants qui conditionnent le comportement général du système.

Méthodes : théorie de l’information, systèmes dynamiques, physique statistique, algorithmes épidémiques, algorithmes inspirés par le vivant.


2.9.2. Calcul autonome

Robustesse, redondance, résistance aux défaillances
L’autonomie des systèmes computationnels est une condition nécessaire pour leur déploiement à grande échelle. Les propriétés d’autonomie requises se rapprochent des propriétés du vivant : robustesse, fiabilité, résilience, homéostasie. Une difficulté est due à la taille et l’hétérogénéité de tels systèmes, qui rendent sa modélisation analytique particulièrement complexe ; de surcroît, les réactions du système dépendent du comportement dynamique et adaptatif de la communauté des utilisateurs.

Méthodes : systèmes inspirés par le vivant, systèmes d’auto-conscience.


2.9.3. Nouveaux modèles computationnels

Résolution et stockage distribué, fusion d’informations spatiales, temporelles ou multimodales, émergence d’abstractions
La mise en réseau d’un grand nombre d’unités informatiques, très souvent hétérogènes (grilles, P2P, processeurs n-cœurs) requiert une capacité de traitement gigantesque. Or, pour utiliser efficacement de telles capacités, nous avons besoin de nouveaux modèles de calcul qui prennent en compte non seulement la distribution des traitements sur des unités de faible puissance, mais aussi le manque de fiabilité de ces unités et des voies de communication. De même, la distribution des données (réseaux de capteurs, RFID, P2P) lance des défis spécifiques en termes d’intégration, de fusion, de reconstitution spatio-temporelle et de validation.

Méthodes : Algorithmes neuro-mimétiques, propagation des croyances.


2.9.4. Nouveaux paradigmes de programmation : création et ancrage des symboles

Apprentissage automatique, rétroaction et sens commun
La programmation de systèmes dédiés à l’intelligence ambiante (domotique, bien vieillir, remise en forme) doit permettre l’intervention de l’utilisateur. La spécification du comportement attendu demande un lien transparent entre les données de bas niveau disponibles et les concepts naturels de l’utilisateur (par exemple, ancrage des symboles). Par ailleurs, le programme de recherche doit être nourri par l’étude des usages ; la coévolution entre l’utilisateur et le système informatique conduit à l’apparition de systèmes hybrides complexes.

Méthodes : interface cerveau-machine, programmation par démonstration, apprentissage statistique.

Intelligence territoriale et développement durable

Intelligence territoriale et développement durable

Rapporteur : Denise Pumain (université Paris 1).

Contributeurs : Pierre Auger (ISC-IRD-Geodes), Olivier Barreteau (Cemagref), Jean-Bernard Baillon (université Paris 1), Rémy Bouche (INRA),Danièle Bourcier (CNRS), Paul Bourgine (École polytechnique), Elisabeth Dubois-Violette (CNRS), Jean-Pierre Gaudin (IEP), Elisabeth Giaccobino (CNRS ), Bernard Hubert (INRA), Jean-Pierre Leca (université Paris 1), Jean-Pierre Muller (CIRAD), Ioan Negrutiu (ENS Lyon), Denise Pumain (université Paris 1).

Mots clés : espace géographique, configuration territoriale, régions rurales et urbaines, réseaux, systèmes de villes, gouvernance multi-niveaux et multi-acteurs, ressources, réglementation, développement durable, négociation, systèmes d’information géographique, automates cellulaires, simulation spatiale, systèmes multi-agents.

Introduction
Un territoire physique est un système qui intègre naturellement une variété de processus généralement étudiés par un grand nombre de disciplines différentes (économie, sociologie, etc.). Ces processus mettent en jeu des ressources naturelles et sociales avec leurs stratégies individuelles et collectives qui, ensemble, interviennent dans la construction du territoire. Les ménages, les entreprises ou encore les organismes publics entreprennent des actions planifiées et non planifiées, reproduisent des pratiques et élaborent des anticipations stratégiques. Des infrastructures physiques ainsi que des configurations socio-spatiales immatérielles de longue durée freinent ces actions et structurent le territoire à plusieurs échelles spatio-temporelles. L’étude de cette complexité justifie le recours à des modèles de simulation pour comprendre la relation entre les processus et les structures pour évaluer et préparer des actions collectives et individuelles ou mesurer leur impact sur la viabilité des structures spatiales. Ces modèles sont des instruments importants d’aide à la décision et, en tant que tels, peuvent aider à modifier l’évolution des territoires.

Grands défis

  • Comprendre la différenciation territoriale
  • Vers une gouvernance territoriale réflexive
  • Viabilité et observation des territoires

2.8.1. Comprendre la différenciation territoriale

Les territoires se recomposent aux différentes échelles, locales et mondiales, à la faveur de l’expansion des réseaux matériels et immatériels et de la diversification des lieux d’initiative. Des «territoires en réseaux » se dessinent aujourd’hui à partir des liens fondés sur les télécommunications et non plus, comme auparavant, sur la proximité géographique, à l’échelon des individus et des entreprises mondialisées, en même temps que se produisent des recouvrements partiels d’autres territoires, par exemple, lorsqu’ils relèvent de plusieurs centres de décision. Les modèles territoriaux classiques sont-ils toujours pertinents pour représenter les différenciations ? Par quoi les remplacer ?

L’évolution des territoires est généralement décrite en termes de géohistoire, de viabilité ou de capacité d’adaptation et d’innovation. Elle doit être mise en relation avec des processus tels que le développement d’institutions, d’innovations technologiques, de transformations des pratiques et des représentations sociales. Dans ce contexte, les modalités de circulation et de concentration de l’information sont essentielles. Souvent, les réseaux qui transportent une importante quantité d’informations ne peuvent pas être étudiés par l’observation et nécessitent la reconstruction de modèles de simulation. Le défi est de coupler les modèles dynamiques des interactions spatiales à différentes échelles aux informations géographiques qui permettent l’intégration et la visualisation des informations localisées, et l’évolution des réseaux et des territoires.


2.8.2. Vers une gouvernance territoriale réflexive↵

La gouvernance territoriale ne s’opère plus par un simple contrôle hiérarchique descendant, mais par un processus multi-niveaux impliquant de nombreux acteurs. Des structures de contrôle intermédiaires apparaissent entre les niveaux territoriaux. De nouveaux modes de légitimation sont inventés, entre démocratie représentative, participative et gouvernance inclusive. Par ailleurs, l’intérêt croissant pour la durabilité incite à prendre en compte les dynamiques naturelles qui opèrent à différentes échelles spatio-temporelles.

L’élaboration d’une gouvernance bien informée repose sur l’invention de nouveaux modèles de prise de décision prenant en compte les processus et les institutions, les configurations de compétition et de coopération, mais aussi les interactions symboliques et pratiques. Les dynamiques naturelles et sociales doivent être couplées en identifiant des niveaux d’organisation, des échelles temporelles et des maillages territoriaux pertinents pour instaurer un contrôle réflexif. Une autre difficulté est d’inclure la diversité des stratégies des acteurs dans ces modèles. De manière générale, la question est d’identifier les structures qui émergent au niveau intermédiaire et de comprendre les relations entre les niveaux micro, méso et macro.


2.8.3. Viabilité et observation des territoires

L’analyse rétrospective et prospective des territoires est essentielle pour l’acquisition de connaissances sur la viabilité à long terme des entités géographiques dans leurs dimensions sociales, économiques, écologiques et éthiques. Les questions de mesure sont ici fondamentales. Le choix des indicateurs, leur pondération, la définition des normes, l’identification des objectifs et des enjeux posent des problèmes spécifiques pour des territoires qui sont à la fois complémentaires et concurrents. Le défi est de construire des bases de données spatio-temporelles utiles au suivi et à la comparaison de ces évolutions.
Un problème majeur est celui de l’adaptation des sources d’information, ou leur création, issues des unités administratives ou politiques à un moment donné pour l’évaluation ultérieure des entités territoriales (villes, régions, réseaux) possédant leur propre dynamique. Le problème est crucial pour les études à long terme de la résilience et la vulnérabilité des systèmes urbains ou pour l’évaluation comparative des programmes de l’Agenda 21 (qui associe objectifs sociétaux, économiques et écologiques).

Innovation, apprentissage et coévolution

Innovation, apprentissage et coévolution

Rapporteur : Denise Pumain (Université Paris 1).

Contributeurs : David Chavalarias (Institut des systèmes complexes de Paris Île-de-France/CNRS), Nadine Peyrieras (Institut de neurobiologie CNRS), Denise Pumain (université Paris 1).

Mots clés : innovation, émergence, bifurcation, coévolution, apprentissage, acceptation, société de l’information.

Introduction
Dans les systèmes complexes, l’innovation apparaît à travers divers processus comprenant l’émergence de nouvelles entités et de nouvelles catégories, la modification des processus d’interaction, le changement de leurs échelles spatiales ou temporelles, ou encore leur transformation dynamique. Dans la perspective de la science des systèmes complexes, la question essentielle est de savoir si les modalités de changement sont comparables lorsque l’on passe des systèmes naturels ou artificiels aux systèmes sociaux. Un premier défi consiste à identifier les conditions dynamiques favorables à l’innovation. L’innovation est-elle toujours associée à des sauts, des ruptures ou des bifurcations, ou résulte-t-elle de tendances plus régulières ? Quels processus expliquent l’observation fréquente des cycles d’innovation ? Un deuxième défi consiste à déterminer s’il existe une accélération de l’innovation dans la société humaine à travers le temps en identifiant les mesures pertinentes des changements sociétaux. Un troisième défi sera de comprendre comment l’intention et la réflexion servent de cadre à l’innovation dans les systèmes sociaux et comment l’effet de rétroaction de l’apprentissage influe sur la cognition individuelle et collective au cours de l’histoire.

Grands défis

  • Comprendre les conditions dynamiques de l’innovation
  • Modéliser les innovations et leurs rythmes
  • Comprendre la relation entre cognition et innovation

 


2.7.1. Comprendre les conditions dynamiques de l’innovation

L’innovation ne peut-elle être analysée que ex-post, ou peut-elle être prédite, et si oui, à partir de quels indicateurs et variables explicatives ? Les signes précurseurs d’un changement sont-ils évidents dans une partie spécifique de la dynamique du système, par l’amplification des fluctuations autour d’une trajectoire, l’intensification de processus préexistants, ou la transition de variations quantitatives à des variations qualitatives ? Comment l’innovation est-elle acceptée : en s’introduisant dans les structures existantes, en les remplaçant ou en induisant des modifications de ces structures ? Quelles relations sont établies entre les nouveaux artefacts et leurs fonctions, et les nouvelles pratiques fondées sur leur utilisation ? Comment pouvons-nous expliquer la manière dont les groupes d’innovations mènent à l’observation de grands cycles d’évolution sociale ?


2.7.2. Modéliser les innovations et leurs rythmes

Certains analystes suggèrent qu’il y a une accélération de la fréquence de production d’innovations, en particulier à travers les révolutions techniques et l’évolution vers une société de l’information. Est-ce une réalité ou une illusion ? Répondre à cette question exige une définition précise de l’innovation et de l’information, ainsi qu’une détermination stricte des intervalles de temps mesurant cette fréquence. Comment pouvons-nous fixer des périodes de référence pertinentes pour caractériser les rythmes d’émergence, de succession et de coprésence des innovations ? En d’autres termes, la mesure des heures normales est-elle significative ou devons-nous imaginer d’autres mesures de temps sociétal ?


2.7.3. Comprendre la relation entre cognition et innovation

Les sociétés élaborent et assimilent également des innovations relatives aux artefacts qu’elles produisent dans leurs propres pratiques et institutions. Est-il possible de comprendre la dynamique sociale de l’innovation sans introduire l’intentionnalité et la réflexivité individuelles et collectives ? L’innovation sociale est-elle en accord ou en conflit avec l’évolution biologique ? Le fait que l’innovation soit ciblée et que les processus d’apprentissage et d’acceptation soient transmis au travers de normes juridiques, économiques ou culturelles introduit-il des caractéristiques différentes en matière d’innovation dans les sociétés humaines ? Dans ces processus, est-il possible d’identifier à un niveau intermédiaire des milieux ou réseaux sociaux, voire des zones géographiques, plus propices à l’innovation que d’autres, ou dotés d’une capacité d’innovation spécifique ? Quelles sont les expressions des interactions entre innovation et cognition individuelle ? Le contrôle social sur l’innovation peut-il aller jusqu’à des transformations biologiques ?

Individus, structures, sociétés

Rapporteur : Denise Pumain (université Paris 1).

Contributeurs : Frédéric Amblard (université de Toulouse), Cyrille Bertelle (LITIS UFR sciences technologies), Paul Bourgine (École polytechnique), David Chavalarias (Institut des systèmes complexes de Paris Île-de-France/CNRS), Valérie Dagrain (consultante technologie information), Guillaume Deffuant (Météo-France et université Paris-Est Cemagref), Silvia De Monte (ENS), Sara Franceschelli (Paris Jussieu), Francesco Ginelli (Institut des systèmes complexes de Paris Île-de-France), Pablo Jensen (ENS Lyon), Maud Loireau (IRD), Jean-Pierre Müller (CIRAD), Denise Pumain (université Paris 1).

Mots clés : institutions, hétérarchies, méthodologies multi-niveaux, attroupement, comportement collectif, théorie des jeux (évolutive), coopération, mesures quantitatives, évolution, réponse à la perturbation, organisation spatiale, insectes sociaux, transition vers la multicellularité, oscillations synchrones, différenciation sociale, économie cognitive, réseaux sociaux, apprentissage social.

Introduction
L’interaction des individus crée des organisations qui influencent alors l’interaction et les individus eux-mêmes. Le comportement des sociétés n’est pas la simple somme des comportements des éléments qui les composent, mais révèle souvent des propriétés émergentes. Pour les besoins de l’analyse, nous pouvons distinguer entre émergence faible et émergence forte. Si certaines questions, telles que l’émergence de comportement de groupement ou d’attroupement, peuvent être considérées communes à toute population biologique, sociétés humaines comprises, la culture et la réflexivité imposent de nouvelles difficultés pour le travail de description. En outre, les entités géographiques (régions, organisations spatiales, réseaux, paysages, etc.) influent sur les interactions entre les individus. Les méthodes des systèmes complexes fournissent un cadre théorique pour comprendre la coévolution des différents niveaux de description (territoires, sociétés et individus) et les processus évolutifs façonnant les communautés. Il permet d’analyser les raisons qui conduisent à des inégalités entre les différentes entités.

Cette question délicate est particulièrement pertinente pour la compréhension de la dynamique multi-niveaux des entités régionales : lieux, régions, organisations spatiales, réseaux, paysages, etc. Le plus souvent, des faits stylisés peuvent être obtenus à partir de la coévolution des territoires au niveau macro-géographique. Les modèles de systèmes complexes peuvent aider à reconstruire les comportements individuels qui, selon certaines règles sociales et contextes historiques, génèrent des inégalités entre les territoires. Les entités territoriales ne doivent pas seulement être comprises comme des subdivisions géographiques, mais également comme des systèmes qui possèdent des règles de gouvernance particulières et des représentations collectives associées, qui définissent les sentiments d’appartenance caractérisant les identités individuelles.

Résumé des défis : le principal sujet de recherche dans ce domaine est l’identification des propriétés universelles au niveau macro pouvant être expliquées par des comportements collectifs (décrits et quantifiés à partir d’enquêtes sociologiques). Pour comprendre le processus de différenciation sociale (ou géographique), nous avons besoin de deux types de modélisation des phénomènes d’émergence forte : d’une part, de la rétroaction des modèles collectifs sur les représentations et les coutumes individuelles, d’autre part, sur l’émergence des institutions aux niveaux collectifs en dehors des interactions entre individus et des règles collectives changeantes. Un autre défi majeur, lorsque l’on compare le développement des sciences sociales avec les sciences « dures », et pour permettre le transfert de modèles des études du domaine de la physique aux études sociologiques, est la collecte appropriée de données in vivo ou in vitro (statistiques adaptées, données d’économie expérimentale, etc.).

Grands défis

  • Émergence d’un comportement collectif dans les populations biologiques
  • Coévolution des individus et de la société
  • Coévolution des individus, des structures et des territoires
  • Hétérarchies, organisations multi-échelles

 


2.6.1. Émergence d’un comportement collectif dans les populations biologiques

Les sociétés animales sont généralement décrites à un niveau collectif en raison de l’évidence et de l’immédiateté des observations à l’échelle de la population. Les caractéristiques des agents individuels dessinent souvent dans une large mesure le comportement collectif. L’un des défis les plus intéressants de l’approche des systèmes complexes est de découvrir la relation entre les niveaux individuel et sociétal dans les populations biologiques.

Il s’agit, par exemple, d’une question essentielle lorsque l’on étudie le comportement d’« attroupement » dans les espèces animales telles que les oiseaux, les poissons, les groupes de mammifères ou les bactéries. Un autre phénomène fascinant est l’organisation spatiale qui émerge spontanément dans le comportement de nidification et les pistes de recherche de nourriture chez les insectes sociaux. Au niveau cellulaire, une synchronie collective peut émerger de l’interaction des cellules oscillant individuellement. De plus, la transition de l’organisation unicellulaire à l’organisation pluricellulaire est une question majeure de la théorie de l’évolution. L’étude des excitateurs (semblables aux neurones) interagissant au moyen de graphiques de connectivité non triviale a récemment montré un comportement intense lié à une synchronisation cohérente ou partielle.

Ces dernières années, les outils empruntés à la physique non linéaire ont apporté une aide considérable à travers la théorie et la modélisation pour caractériser ces phénomènes émergents. Des mécanismes fondamentaux conduisant à un comportement collectif ont été identifiés, certaines propriétés universelles, communes à divers systèmes biologiques, ont été documentées et de nouvelles prédictions ont été formulées au niveau théorique. Si une concordance qualitative avec les observations a généralement été obtenue, nous avons besoin de mesures quantitatives dans des populations biologiques pour faire progresser notre compréhension de ces phénomènes.

L’émergence de cohérence entre les cellules oscillantes, la transition de Kuramoto, par exemple, devrait se produire dans une large catégorie de populations cellulaires. À ce jour, elle n’a néanmoins été démontrée quantitativement que dans les systèmes physiques et chimiques. Une théorie établit que le comportement super-diffusif et les fluctuations de nombre anormales se produisent dans les attroupements, mais ces phénomènes n’ont pas été étudiés dans des observations empiriques. La transition vers la multicellularité, décrite par les modèles de la théorie des jeux, n’a jamais été observée au cours d’expériences d’évolution dirigée.

En outre, un nouvel ensemble de questions se pose concernant la stabilité de ces structures sociales émergentes, par rapport à un forçage extérieur ou à des perturbations. Par exemple, l’interaction entre les oiseaux dans un attroupement a-t-elle été améliorée par l’évolution dans le sens d’une résilience aux effets perturbateurs de l’attaque d’un prédateur ? Est-il possible de contrôler un groupe entier d’animaux en agissant sur certains de ses éléments ? Comment les fourmis réagissent-elles à de nouveaux obstacles introduits dans leur territoire de recherche de nourriture ? Quelle est la robustesse du comportement synchrone par rapport à la diversité des individus ?


2.6.2. Coévolution des individus et de la société

Le renouvellement de la recherche transdisciplinaire dans les sciences sociales traduit la nécessité d’intégrer de nombreux aspects du comportement humain pour comprendre pleinement la diversité des cultures et des institutions socio-économiques humaines. Ceci est particulièrement évident pour les économistes qui, après un long attachement au paradigme de l’homo economicus, abandonnent progressivement ce point de vue et cherchent un nouveau modèle. En effet, de nombreux phénomènes ne correspondent pas aux explications traditionnelles des équilibres socio-économiques, en particulier l’hétérogénéité des modèles socioculturels observés, le fait que nous sommes souvent confrontés à des phases de transition et des attracteurs locaux plutôt qu’à des équilibres stables, et l’accumulation de preuves de l’importance de l’influence sociale et des croyances des autres sur les processus de prise de décision, même dans les milieux économiques. D’autre part, les décideurs soulignent de plus en plus souvent le fait que les nouveaux défis sociétaux tels que le changement climatique ou la pauvreté persistante de certaines régions nous obligent à aborder la question du changement des mentalités (c’est-à-dire la distribution des priorités ou des types d’agents dans la population) plutôt que d’un simple changement des comportements. Dans l’économie dominante, et la plupart du temps dans les sciences sociales, tenir compte des priorités fixées au fil du temps conduit à de nouveaux défis théoriques pour l’économie et plus généralement pour les sciences sociales, comme l’a expliqué le lauréat du prix Nobel Vernon Smith (2005) :

« Techniquement, la question peut être posée dans les termes suivants : comment modéliser de la manière la plus productive des types d’agents en étendant la théorie des jeux de sorte que ces types soient partie intégrante de son contenu prédictif, et non simplement importés comme une explication ex-post-technique des résultats expérimentaux. »

Cette question à propos de l’origine des types, des priorités ou, plus largement, des représentations, croyances et valeurs des agents, est l’une des questions les plus délicates de la modélisation d’un système social. Comme tous les processus de prise de décision des agents en découlent, il est difficile d’imaginer les motifs des modèles et leurs conclusions sans aborder la question. Néanmoins, très peu de modèles abordent directement ce sujet. Par ailleurs, la plupart reposent sur un mécanisme de conformité sociale pour faire évoluer les types d’agents, alors qu’il n’est pas évident que la diversité des types d’agents dans une société ne puisse être expliquée que par ce mécanisme.

Pour aller au-delà de ce point de vue, nous devons imaginer des cadres formels représentant une différenciation sociale où le processus de différenciation n’est ni une optimisation d’une quantité donnée, ni le seul sous-produit de la conformité sociale.

Nous devons donc trouver une alternative entre individualisme méthodologique et holisme où les influences sociales et les motivations individuelles contribuent aux processus de différenciation des types d’agents. Une troisième voie pourrait être l’individualisme méthodologique complexe (Jean-Pierre Dupuy 2004).

Pour concrétiser ce programme, nous devons répondre à plusieurs questions méthodologiques :
1) Nous devons étudier les mécanismes conduisant à des changements de croyances, d’objectifs, de priorités et de valeurs, du point de vue de la psychologie, des sciences cognitives et de la philosophie. Cela nous permettra de développer des outils appropriés pour représenter formellement la dynamique de changement à l’échelle de l’individu. Nous devons tenir compte à la fois de l’action individuelle (capacité de choisir en fonction de sa propre personnalité) et de l’influence sociale sur l’évolution de la personnalité de l’individu. Nous devons garder à l’esprit le fait que les gens sont capables de décider de ne pas suivre certaines règles et d’en créer de nouvelles. Comment pouvons-nous aller des mécanismes d’interaction « simplistes » (optimum, imitation, etc.) vers des mécanismes plus créatifs ? Nous pourrions soutenir que les gens, dans de nombreuses circonstances, ne semblent pas suivre des règles algorithmiques. Au lieu de cela, leur expertise s’adapte intuitivement au contexte : comment prendre cela en compte dans les simulations ?

2) Nous devons mieux comprendre la manière dont les gens façonnent leurs réseaux sociaux, comment ils constituent de nouveaux liens, comment ils suppriment les anciens, comment ils perçoivent les groupes sociaux et dans quelle mesure leurs décisions sont socialement et spatialement intégrées. Il est en particulier important de réussir à représenter les groupes sociaux comme les résultats endogènes d’une dynamique sociale plutôt que comme des entités imposées par le modélisateur, comme ils sont souvent décrits dans la littérature.

3) Nous devons développer des méthodes pour articuler le comportement à l’échelle de l’individu ainsi que les comportements collectifs émergents à toutes les échelles spatio-temporelles. Nous devons en particulier aborder la question de savoir comment un comportement émergent peut avoir un impact a posteriori sur un comportement individuel (influences de bas en haut et de haut en bas) et quelle influence la topologie du réseau peut avoir sur la dynamique d’un réseau de soutien.

4) Nous devons mieux comprendre le rôle de l’histoire, des sentiers de dépendance et des perturbations. Dans le monde social réel, la structure est le produit non seulement des actions contemporaines, mais aussi de l’histoire. C’est là que nous agissons ; nos actions font l’histoire et la modifient. En d’autres termes, pour qu’une simulation soit une représentation appropriée de la sphère sociale, elle ne peut partir uniquement des agents. Il est important d’inclure l’histoire dans les simulations et de tenir compte des sentiers de dépendance. Cette dépendance découle souvent d’« erreurs » dans l’inférence et la transmission de l’information, des variations de l’environnement ou de l’hétérogénéité des réponses individuelles. L’étude des systèmes dynamiques révèle que ces perturbations sont un élément essentiel dans la détermination du comportement du système.

5) Peut-on exprimer clairement la manière dont la réalité sociale a un effet rétroactif sur les agents ? Au niveau intermédiaire des « habitudes de pensée », selon les termes de Hodgson, « L’effet des institutions est d’encadrer, de canaliser, de contraindre les individus, provoquant de nouvelles perceptions et dispositions. À partir de ces nouvelles habitudes de pensée et comportements, de nouvelles priorités et intentions émergent, changeant les institutions, ce qui influe à son tout sur la manière de voir. »

6) Quels sont les modèles sociaux ? Quand nous évaluons la pertinence d’un modèle, il est intéressant d’évaluer la représentation du « social » dans ce modèle. La pertinence de modèles ou systèmes sociaux « simples » (dans le style de modèle de ségrégation de Schelling) est une question ouverte qui mérite une recherche épistémologique approfondie. Questions possibles : dans quelle mesure la réflexivité des agents est-elle prise en compte ? Quels niveaux intermédiaires entre les individus et la société (tels que les institutions, les cultures) sont explicitement pris en compte ?


2.6.3. Coévolution des individus, des structures et des territoires

Les entités territoriales (villes, paysages, régions, etc.) coévoluent avec les individus et les structures sociales (point 2). Elles agissent comme un contexte qui contraint (permet et limite) les capacités individuelles, tandis que les individus et les structures sociales collectives, à travers leurs pratiques et leurs interactions, maintiennent ou transforment les structures territoriales. L’existence même des territoires, à travers les ressources auxquelles ils donnent accès, les symboles qui les représentent ou leur contrôle sur différents aspects de la vie, agit comme une contrainte (et une ressource) sur l’évolution des individus. Cette coévolution implique des processus qui s’insèrent dans différentes échelles temporelles. La relation entre les échelles d’espace et de temps n’est pas négligeable et requiert des recherches spécifiques.

L’un des problèmes est d’identifier l’échelle temporelle pertinente pour l’observation des entités spatiales (l’acquisition de données de télédétection, par exemple). Un autre problème est de savoir comment identifier les entités territoriales pertinentes dans le temps et entre différents systèmes territoriaux (identifier une « ville » en tant qu’agglomération de population urbaine, par exemple).

Autre défi : l’identification des processus qui tendent à augmenter les inégalités entre les entités territoriales (de revenu ou de PIB entre les pays, par exemple, ou bien de taille de la population ou de PIB entre les villes), et la compréhension du lien des réactions positives et des lois d’échelonnage avec la coévolution des individus et des organisations sociales. Cela soulève la question du rôle de la diversité sociale, culturelle ou économique associée à une grande échelle comparé au rôle de la spécialisation.

Comment pouvons-nous comprendre la transition entre les étapes (périodes de temps, régimes) où la dynamique est limitée par la disponibilité des ressources locales (systèmes écologiques), et les étapes où les innovations ou l’expansion des réseaux spatiaux suppriment les contraintes sur l’expansion du système ?

Les entités territoriales sont organisées en réseaux sociaux et spatiaux à travers des relations qui dépendent de la situation des communications et des transports. Au cours de l’histoire, la distance spatiale a représenté une lourde contrainte sur les interactions sociales, même si les relations à longue distance ont toujours existé. Aujourd’hui, de nombreuses relations semblent n’être plus ou être moins contraintes par la distance (et sa traduction en coût ou en temps). La contraction apparente de l’espace au fil du temps semble accroître les inégalités territoriales. Les changements de configuration des réseaux de transport ont des effets considérables sur la propagation des épidémies, alors que les conséquences des changements des réseaux de communication sont bien plus difficiles à évaluer.

Trois principales composantes de la dynamique des entités territoriales (telles que leur croissance en termes démographiques et économiques ou leur capacité potentielle en termes de durabilité) sont déjà parfaitement identifiées, mais restent à quantifier en tant que facteurs possibles de développement durable. Ce sont des ressources intrinsèques (paysages, capital humain, portefeuille des activités économiques, valeur du patrimoine), la situation géographique (position relative dans les réseaux économique, financier, géopolitique ou culturel, qui évoluent avec le temps), et le sentier de dépendance qui permettent et limitent un sous-ensemble de trajectoires dynamiques des territoires individuels. Par exemple, il est possible d’évaluer en termes de probabilités l’avenir des localités rurales en fonction de leur spécialisation économique, leur situation géographique par rapport aux villes de différentes tailles et fonctions, leurs propres ressources potentielles et la capacité d’initiative de leurs principaux décideurs. Dans le cas des villes et des zones métropolitaines, le poids de ces facteurs est différent. Cette importance peut être évaluée à partir d’études comparatives des lois d’échelle pour les répartitions des tailles des villes et des zones métropolitaines, qui révèlent l’incidence des principaux cycles d’innovation sur le développement urbain.

Un défi majeur de la recherche dans ce domaine est de trouver les données appropriées pour quantifier les interactions entre les territoires. Des données limitées sur les véritables interactions entre les villes, les régions et les pays (comme les flux migratoires ou les échanges commerciaux) peuvent être collectées, mais nous manquons souvent de données sur leurs échanges énergétiques, financiers ou d’information. Ces flux invisibles sont ceux qui entretiennent et construisent réellement la dynamique de croissance et de développement inégaux dans les territoires. Ils traduisent et créent les interactions générant des flux vitaux, mais sont généralement analysés d’une manière très différente, comme des « effets de réseau » ou résumés dans la rubrique « mesures de distance générales » qui cherchent à saisir la situation relative de chaque lieu au sein d’un système plus vaste. Tout moyen d’améliorer les connaissances sur ces interactions énergétiques, financières ou d’information cruciales, à tous les niveaux, devrait permettre d’importantes avancées dans l’analyse des dynamiques territoriales.

Les modèles expérimentaux de durabilité urbaine pourraient aider à développer des politiques afin de relever les défis de la raréfaction croissante de l’énergie ou d’un changement d’organisation des réseaux mondiaux financiers et d’information reliant les zones métropolitaines à travers le monde. Une question majeure concerne la menace à la stabilité mondiale qui surgira bientôt de la divergence grandissante entre croissance démographique et croissance économique : dans les deux ou trois prochaines décennies, les plus grandes métropoles du monde en termes de population seront également les plus pauvres en termes de production économique. Nous devons stimuler la réorganisation des flux mondiaux à l’échelle des territoires nationaux et des réseaux métropolitains pour évaluer le coût probable de la durabilité.


2.6.4. Hétérarchies, organisations multi-échelles

Une première distinction peut être faite entre les hiérarchies intégrées dans lesquelles les entités à macro-niveau incorporent récursivement les niveaux inférieurs, telles que les hiérarchies dans l’écologie (cellules, organes, organismes, etc.), et les hiérarchies non intégrées où les entités sont représentatives ou régissent les entités de niveau inférieur (comme dans les structures de gouvernement). Dans les deux cas, la hiérarchie dépend du point de vue : généralement, les hiérarchies intégrées peuvent être observées en regardant les échelles de temps relatives de la dynamique, et une entité de niveau supérieur dans un système non intégré peut être une entité de niveau inférieur au sein d’une autre organisation (représentative ou non représentative, par exemple). De nombreuses questions relatives aux systèmes complexes requièrent la combinaison de hiérarchies hétérogènes intégrées et non intégrées. Un certain nombre d’abstractions sont proposées pour permettre de décrire ces systèmes, telles que les multi-hyper réseaux (Jeffrey Johnson) et les structures holoniques (Koestler).

Les questions toujours ouvertes sont :

  • Comment représenter les structures holoniques et leur dynamique ?
  • Comment reconstruire la dynamique des structures holoniques et des réseaux multi-hyper à partir des données observées ?
  • Comment représenter ces structures et leur dynamique pour réaliser des prédictions ?

Lorsque l’on utilise des holons, la question est de savoir comment gérer leur double nature (autonomie vis-à-vis du niveau inférieur/hétéronomie vis-à-vis du niveau supérieur) et comment choisir le modèle d’autonomie le mieux adapté.

Les applications pourraient inclure la prise en compte de différentes sortes de hiérarchies dans les cultures modernes et traditionnelles, l’imbrication des mécanismes de gouvernance dans un territoire donné, etc.

Les processus qui génèrent et entretiennent les structures hiérarchiques (réseaux d’interaction en partie intégrés et en partie imbriqués) sont généralement les mêmes. La structure est à la fois définie par les différences qualitatives et les inégalités quantitatives entre les entités territoriales, suffisamment répandues sur des périodes de temps supérieures au système de comportement ou même au renouvellement générationnel de leurs éléments. Ces structures sont transformées progressivement ou de manière plus rapide à travers les processus d’innovation qui utilisent une partie de la structure (et « l’avantage comparatif » potentiel du territoire) pour introduire de nouvelles pratiques sociales ou de nouveaux artefacts.

Pour établir de meilleures prédictions sur la compétence territoriale à évoluer et à saisir l’innovation, nous devons mieux connaître les structures hétérarchiques. Quels méthodes et instruments peuvent être utilisés pour décrire et comparer les organisations hétérarchiques, en incluant le nombre de niveaux, leur degré de flexibilité ou d’intégration et leur articulation fonctionnelle ?

Pour être en mesure de prédire la capacité d’adaptation et d’innovation d’une entité territoriale, nous avons besoin d’une analyse et d’une classification des trajectoires historiques des entités territoriales, y compris leur sensibilité aux caractéristiques organisationnelles internes et aux perturbations extérieures. Cela représente de vastes explorations (extraction de données et modélisation dynamique) de l’évolution des entités territoriales dans le contexte socio-économique et géographique.

De la cognition individuelle à la cognition sociale

De la cognition individuelle à la cognition sociale

Rapporteur : David Chavalarias (Institut des systèmes complexes de Paris Île-de-France/CNRS).

Contributeurs : Paul Bourgine (École polytechnique), David Chavalarias (Institut des systèmes complexes de Paris Île-de-France/CNRS), Jean-Philippe Cointet (Institut des systèmes complexes de Paris Île-de-France/INRA), Camille Roth (CAMS).

Mots clés : dynamiques sociales, modélisation des critères de décision, mesures quantitatives sociales, cognition sociale, hétérogénéité interindividuelle.

Introduction
La cognition signifie, au sens large, le traitement de l’information, incluant tous les aspects comme, par exemple, les processus d’interprétation. Un système cognitif est donc un système de traitement de l’information. Il peut être intégré dans un seul individu ou réparti sur un grand nombre de personnes. On parlera alors de cognition individuelle ou de cognition distribuée. La cognition sociale est une cognition distribuée sur l’ensemble des individus d’une société en interaction au sein d’un réseau social. La cognition individuelle peut, elle aussi, être considérée comme une cognition distribuée sur un réseau neuronal.

Dans les réseaux sociaux, lorsque une information atteint les agents, son contenu est traité par le réseau social, produisant d’autres informations et d’autres liens sociaux à la suite de série d’interactions. Ce processus de cognition sociale pourrait ainsi conduire à une transformation du réseau social.

Aussi bien au niveau individuel que collectif, les processus cognitifs obéissent à de fortes contraintes : rien ne peut être fait par des individus en dehors de ce qu’ils savent faire seuls ou en interaction avec les autres ; rien ne peut être anticipé en dehors de ce qu’ils peuvent prévoir seuls ou en interagissant avec les autres. De la même façon, la structure du réseau et la nature des interactions agissent comme de fortes contraintes sur les processus cognitifs. De nouveaux protocoles apparaissent et permettent de décrire ou de quantifier ces contraintes aux niveaux infra-individuel, individuel et collectif, de manière à suggérer, à leur tour, de nouveaux modèles. La migration rapide des interactions sociales vers les médias numériques permet la collecte massive de données sur la cognition sociale du point de vue de ses processus (la structure spatiale des interactions, des distributions temporelles, etc.) et de ses produits (documents électroniques en ligne, données sur les utilisateurs, etc.). La coexistence de ces deux phénomènes ouvre aujourd’hui de nouvelles perspectives pour l’étude de la cognition individuelle et sociale sur la base de l’analyse comparative avec des données empiriques. Cela devrait être un axe majeur des initiatives de recherche pour une meilleure compréhension de l’évolution de nos sociétés.

Grands défis

  • Cognition individuelle, contraintes cognitives et processus de décision
  • Modéliser les dynamiques des communautés scientifiques
  • Société de l’internet, l’internet de la société

 


2.5.1. Cognition individuelle, contraintes cognitives et processus de décision

La relation entre les processus cognitifs de haut niveau et de bas niveau reste problématique : le lien entre les processus dynamiques dans le réseau neuronal et les processus symboliques étudiés par la psychologie ou la linguistique sont encore mal compris. Une voie prometteuse consiste à explorer de manière beaucoup plus attentive les dynamiques spatio-temporelles mésoscopiques comme, par exemple, les colonnes corticales, les assemblées de neurones synchrones (ou, plus généralement, polysynchrones). Ces dynamiques spatio-temporelles peuvent servir de véritables révélateurs des processus symboliques. Un travail d’exploration théorique et méthodologique, de même qu’un partage des données au sein de très grandes bases munies de leurs métadonnées, est incontournable pour aboutir à une meilleure compréhension du passage entre processus dynamiques et processus symboliques.

Une avancée notable dans ce grand défi permettrait non seulement d’unifier un aspect essentiel des sciences cognitives, mais aussi de renforcer le lancement de la nouvelle discipline de la neuro-économie : l’observation de l’activité neuronale renouvelle l’étude du comportement du sujet face à la « nature » ou dans ses interactions stratégiques et sociales avec les autres. Cela permettrait aussi de revisiter, du point de vue de l’économie cognitive, la théorie de la décision, et aussi la théorie des jeux traditionnelle, y compris les concepts de « préférence » et d’« utilité » qui constituent la base de la théorie économique.


2.5.2. Modéliser les dynamiques des communautés scientifiques

Les communautés scientifiques constituent un espace privilégié pour l’étude de la cognition sociale car la structure des réseaux impliqués (organisation en équipes, réseaux de collaboration, réseaux de coauteurs, réseaux de citations) et la production de ces communautés (colloques, revues, articles) sont connues sous leurs formes dynamiques. Pour échanger des concepts, ces communautés développent un langage propre dont l’évolution reflète leur activité.
Ceci permet de poser des questions très précises sur la manière dont les communautés scientifiques traitent collectivement l’information, et pour n’en citer que quelques-unes : comment sont adoptés les nouveaux concepts ou les nouvelles thématiques ? Quelles sont les structures remarquables dans la diffusion des innovations (effets de prestige, de traditions locales, etc.) ? Quel est l’effet de la répartition des individus en communautés ou bien de la création de liens entre communautés sur le développement de la connaissance ? Quelles sont les relations entre trajectoires individuelles et évolutions des communautés ? Quels outils développer pour visualiser dynamiquement l’évolution des paradigmes scientifiques en intégrant au fur et à mesure le flux des productions scientifiques ?

Exemples :

  • émergence et diffusion de nouveaux concepts dans les bases de données bibliographiques,
  • détection de champs scientifiques émergents,
  • dynamique des réseaux de collaboration,
  • comparaison des orientations scientifiques entre communautés ou organismes distincts.

2.5.3. Société de l’internet, l’internet de la société

La quantité d’informations archivées sur Internet aura bientôt largement dépassé celle qui est stockée sur support papier. Internet rassemble aujourd’hui des espaces de stockage de connaissances de types très variés (articles, encyclopédies, etc.). Il s’agit aussi d’un lieu de discussion (blogs, forums), de commerce (sites d’enchères, de vente et de troc), de référencement (autant pour les individus à travers les pages personnelles que pour les institutions ou les entreprises), et il sert aussi de mémoire externe pour les réseaux de relations (réseaux d’amis, groupes de travail, etc.). Il est en outre un « agenda universel » annonçant des centaines de milliers d’événements par jour. Quels changements ce nouvel outil est-il en train d’apporter aux processus de cognition sociale (nouvelles formes de rencontre, nouvelles formes d’échange, nouvelles formes de débat, nouvelles formes d’élaboration collective de connaissances) ? Pour la première fois, toutes ces données sont empiriquement exploitables avec une très grande précision spatio-temporelle. Comment utiliser ces nouvelles sources d’information pour mieux comprendre les dynamiques sociales et nous munir d’outils pour visualiser la complexité de l’activité sociale révélée par Internet ? Un défi majeur est de transformer l’information brute disponible sur Internet en des flux structurés d’informations permettant de visualiser, de modéliser et de reconstruire de manière multi-échelle les processus de cognition sociale à l’œuvre sur la toile.

Exemples :

  • impact des blogs dans les débats politiques et citoyens,
  • nouvelles dynamiques pour l’élaboration collective de connaissances (Wikipedia, logiciels libres, etc.),
  • mesure de propagation d’émotion collective suite à un événement social important via le nombre de requêtes (Google trends, par exemple),
  • étude comparative des différences culturelles via les informations géolocalisées (sémantique des pages Web, tags, requêtes dans les moteurs de recherche, etc.), reconstruction des territoires culturels,
  • formation de communautés épistémiques et réseaux d’amis.

Complexités écosystémiques

Complexités écosystémiques

Contributeurs : Olivier Barreteau (Cemagref), Paul Bourgine (École polytechnique), David Chavalarias Institut des systèmes complexes de Paris Île-de-France/CNRS), Cédric Gaucherel (INRA), François Houllier (INRA), Ioan Negrutiu (ENS Lyon), Nadine Peyrieras (Institut de neurobiologie CNRS).

Mots clés : dynamiques écologiques, adaptation et évolution, services écologiques, multifonctionnalités des écosystèmes, intégration de données, couplage de modèles, dynamiques spatio-temporelles, modèles multi-échelles, perturbations et résilience, stabilité et transition dynamique, comportement émergent, réaction et rétroaction, organisation fonctionnelle.

Introduction
Défini comme l’association étroite de l’environnement abiotique et d’un groupe d’organismes vivants, un écosystème est caractérisé par un grand nombre de facteurs physico-chimiques et biologiques, tous des entités qui interagissent les unes avec les autres. La multiplicité ainsi que la diversité de ces interactions, et la participation d’une vaste gamme de niveaux d’organisation et d’un large spectre d’échelles spatiales et temporelles permettent de justifier l’expression de la « complexité écosystémique ».

De plus, les écosystèmes, qu’ils soient naturels, gérés ou artificiels, sont soumis à des « perturbations » (par exemple, les catastrophes naturelles ou les stress biotiques et abiotiques) et fournissent de nombreux produits et « services » commerciaux et non commerciaux. Afin de tenir compte de la complexité des écosystèmes, de comprendre la résilience des processus écologiques et d’espérer l’ouverture vers une possible gestion des écosystèmes, nous avons besoin d’articuler les différentes stratégies pour la reconstruction de la dynamique spatiale et temporelle à partir d’observations et d’expériences de plus en plus instrumentalisées pour identifier les mécanismes rétroactifs et les phénomènes émergents ainsi que pour modéliser et valider ces modèles.

Grands défis

  • Développer des systèmes d’observation et d’expérimentation pour la reconstruction des dynamiques à long terme des écosystèmes
  • Modéliser les relations entre biodiversité, fonction et dynamiques des écosystèmes
  • Associer la biologie intégrative et l’écologie pour décoder les mécanismes évolutifs
  • Simuler des paysages virtuels (intégration et couplage des modèles biogéochimiques et écologiques aux maquettes de paysages dynamiques)
  • Concevoir des systèmes d’aide à la prise de décision pour des écosystèmes multi-fonctionnels

 


2.4.1. Développer des systèmes d’observation et d’expérimentation pour la reconstruction des dynamiques à long terme des écosystèmes

Le développement rapide des dispositifs de mesure in situ (par métrologie et par capteurs) permet aujourd’hui d’intégrer les données collectées à partir des réseaux d’observation (stratégies d’échantillonnage spatial et temporel, observatoires de recherche environnementale) ou d’expérimentation (microcosmes, mésocosmes) dans les modèles d’écosystèmes. Les systèmes d’information fondés d’une part sur la modélisation conceptuelle d’écosystèmes étudiés et, d’autre part, sur les outils d’analyses multidimensionnelles des données issues de sources différentes (« métaanalyses »), doivent en revanche être améliorés.


2.4.2. Modéliser les relations entre biodiversité, fonction et dynamiques des écosystèmes

Ces relations, qui jouent un rôle central dans le vaste domaine des études sur la biodiversité, décrivent des fonctions très variées (production, transfert de matière et d’énergie, résistance et résilience aux perturbations, etc.) couvrant différentes échelles d’espace (stations, paysages, zones, continents) et de temps. Les chercheurs ont toujours abordé l’étude de ces relations soit en s’interrogeant sur la manière dont l’environnement et le fonctionnement des organismes vivants et leurs interactions déterminent le regroupement d’espèces, soit, plus récemment, et réciproquement, en étudiant le rôle de la richesse et de la diversité spécifique sur le fonctionnement d’un écosystème.


2.4.3. Associer la biologie intégrative et l’écologie pour décoder les mécanismes évolutifs

Pour comprendre et modéliser la réponse des communautés écologiques (dans leur structure, leur fonctionnement et leurs dynamiques) aux changements de leur environnement (changements climatiques, pollution, invasions biologiques, etc.), nous devons mieux appréhender leurs mécanismes d’adaptation. Aujourd’hui, ce travail peut être accompli grâce aux avancées conceptuelles, méthodologiques et technologiques de la biologie intégrative (calcul des fonctions génomiques, biologie moléculaire, génétique, physiologique et écophysiologie) et à la convergence des approches de la génétique des populations, la génétique moléculaire et la génétique quantitative.


2.4.4. Simuler des paysages virtuels (intégration et couplage des modèles biogéochimiques et écologiques aux maquettes de paysages dynamiques)

Le concept de maquette virtuelle, fondé sur la représentation catégorielle d’une mosaïque de paysages, pourrait servir à construire une typologie des paysages représentatifs (bocage, champs ouverts, paysages mixtes, forêts, zones périurbaines, etc.). La première étape consiste à modéliser le fonctionnement du paysage (c’est-à-dire les cycles biogéochimiques, les transferts et échanges : transport particulaire aérien, déterminisme du microclimat, transport hydrique et de polluants associés dans le sol et la nappe phréatique). Les sorties concernent la production de relations fonctionnelles entre topologie du paysage et structure des échanges. Ensuite, il est également important de modéliser les dynamiques du paysage (l’évolution de son organisation spatiale) sous l’effet de l’activité humaine et de certains processus écologiques (la colonisation de l’espace par la végétation, par exemple). Un tel outil pourrait constituer un support déterminant pour des recherches en agronomie, en écologie ou en épidémiologie, notamment pour la gestion locale des terres et leur exploitation.


2.4.5. Concevoir des systèmes d’aide à la prise de décision pour des écosystèmes multi-fonctionnels

Toute prise de décision concernant la gestion des écosystèmes serait grandement facilitée par la qualification et la quantification des produits et services fournis par les écosystèmes, et par l’intégration de ces produits et services dans les systèmes d’indicateurs relatifs aux politiques pertinentes (tableau de bord, outils d’aide à la prise de décision, analyses du cycle de vie et analyses d’écobilan, etc.). La formulation et la mise en œuvre de ces politiques exigent en outre des modélisations et des quantifications bien plus sophistiquées des pratiques et techniques humaines, ou des systèmes de gestion des écosystèmes, ainsi que des modèles entièrement intégrés prenant en compte les composantes stochastiques (intrinsèques ou liées au manque de connaissance des éléments de ces systèmes, de leurs interactions, et les facteurs extrinsèques susceptibles de les perturber).

Fonctions physiologiques

Fonctions physiologiques

Contributeurs : Catherine Christophe (INRA), Christophe Lecerf (École des Mines Alès), Nadine Peyrieras (Institut de neurobiologie CNRS), Jean Sallantin (CNRS LIRMM).

Mots clés : outils d’observation et de mesure in vivo, observations spatio-temporelles multi-échelles, fonctions subcellulaires et supracellulaires, interaction organisme/environnement, ontogenèse, perturbations physiologiques.

Introduction

Les fonctions physiologiques découlent de l’intégration des propriétés cellulaires, tissulaires et organiques dans le contexte de l’organisme entier en interaction avec son environnement. L’étude des fonctions physiologiques, en tant qu’approche des systèmes complexes, implique de concevoir et de mettre en œuvre une stratégie de va-et-vient entre mesures et expérimentation, modélisation et simulation. Un tel objectif exige la conception d’outils d’investigation multimodaux pour réaliser l’enregistrement simultané in vivo de paramètres utiles à différentes échelles spatio-temporelles, et pour développer des méthodes théoriques ainsi que des outils permettant une modélisation et une simulation par ordinateur appropriées.

Les résultats attendus sont la conception de nouveaux outils de recherche et de méthodes théoriques pour observer, modéliser, comprendre et éventuellement contrôler les fonctions physiologiques.

Grands défis

  • Intégration de modalités d’observation d’activités physiologiques à différentes échelles spatio-temporelles
  • Caractérisation du contexte déterminant l’apparition d’une fonction physiologique, ou sa stabilité et sa modulation
  • Étude des relations entre l’ontogenèse d’une fonction physiologique et ses éventuels dysfonctionnements

 


2.3.1. Intégration de modalités d’observation d’activités physiologiques à différentes échelles spatio-temporelles

Une vision intégrée des mécanismes subcellulaires et supracellulaires implique :
(i) soit de replacer dans un même cadre de référence spatio-temporel des données hétérogènes obtenues à partir d’un même organisme à différents moments,
(ii) soit de concevoir de nouveaux outils permettant d’enregistrer simultanément des données multimodales.

Le premier objectif peut être atteint par des méthodes disponibles allant de la mise en correspondance spatio-temporelle à la fusion d’informations. Ces méthodes sont toutefois limitées par les problèmes et les erreurs de recalage (rigide ou élastique) qu’elles peuvent induire.

La seconde option représenterait une percée décisive et fournirait une instrumentation de nouvelle génération en offrant un accès immédiat aux observations des principales variables structurelles et dynamiques (chimiques, électriques, mécaniques, etc.) à toutes les échelles spatio-temporelles pertinentes. Une telle démarche a été entreprise en imagerie médicale au niveau d’observations macroscopiques avec les techniques optiques-PET et PET-CT et, pour les variables physiologiques vivantes, avec des capteurs intégrés ambulatoires permettant des observations de patients en temps réel et dans un environnement naturel. Dans le domaine végétal, des plates-formes phénotypiques permettent le suivi de flux d’éléments entre racines et feuilles à différentes échelles temporelles. L’intégration de telles observations synchrones et multimodales aux modèles pertinents devrait fournir une base solide pour la reconstruction des fonctions physiologiques.


2.3.2. Caractérisation du contexte déterminant l’apparition d’une fonction physiologique, ou sa stabilité et sa modulation

L’objectif est ici l’étude de la fonction vue comme une intégration de sous-fonctions dans différents contextes ou à travers deux approches, l’approche perturbative et l’approche comparative. Différents facteurs ou conditions, de type repos/mouvement, diète/nutrition, entraînement, peuvent influencer le système et lui faire adopter de nouveaux modes de fonctionnement. La physiologie comparée offre un moyen d’étudier la préservation ou l’adaptation des fonctions physiologiques. Cette approche est pertinente pour l’étude de la respiration et de la locomotion chez les animaux (règne animal) comme pour l’étude de la maturation des fruits (règne végétal).

Les fonctions physiologiques devraient être caractérisées par l’extraction de variables de haut niveau, appelées « variables thermodynamiques » ou à travers les notions d’allométrie (conservation de caractéristiques malgré les variations de taille). De manière générale, nous devrions être capables de définir des invariants (ou des relations invariantes) liés aux fonctions physiologiques et aux conditions nécessaires à leur conservation.


2.3.3. Étude des relations entre l’ontogenèse d’une fonction physiologique et ses éventuels dysfonctionnements

Les fonctions physiologiques doivent être étudiées dans le cadre de l’ontogenèse, depuis leur maturation jusqu’à leur dégradation, en passant par leur fonctionnement normal à l’état adulte. Le comportement dynamique des fonctions physiologiques doit également être étudié dans les différentes pathologies.

Exemples :

  • Embryologie du cœur : formation progressive de structures anatomiques et de modèles fonctionnels avec problèmes pathologiques associés à des observations partielles à notre disposition (l’interpolation d’objets présentant de fortes variations structurelles du point de vue de l’architecture anatomique, l’installation des fonctions du tissu nodal ou de la fonction électrophysiologique sinusale, etc.).
  • Schizophrénie : effets aux niveaux cognitifs les plus élevés des modifications induites par la pathologie à des étages fonctionnels neurologiques élémentaires.

Des molécules aux organismes

Des molécules aux organismes

Rapporteur : Christophe Lavelle (IHES).

Contributeurs : Pierre Baudot (ISC-PIF), Hugues Berry (INRIA, Saclay), Guillaume Beslon (IXXI-LIRIS, Lyon), Yves Burnod (INSERM, Paris), Jean-Louis Giavitto (IBISC, Evry), Francesco Ginelli (CEA, Saclay), Zoi Kapoula (CNRS, Paris), Christophe Lavelle (IHES, Bures sur Yvette), André Le Bivic (CNRS SDV, Marseille), Nadine Peyrieras (CNRS, Gif s/Yvette), Ovidiu Radulescu (IRMAR, Rennes), Adrien Six (UPMC, Paris).

Mots clés : biologie des systèmes et biologie intégrative, stabilité, fluctuation, bruit et robustesse, physiopathologie, réseaux biologiques, biologie computationnelle, approches multi-échelles dans les systèmes biologiques.

Introduction
La recherche biologique produit des connaissances supposées, à un certain point, être transférées en recherche clinique et traduites en avancées médicales pour le traitement des physiopathologies humaines. On espère ainsi trouver, si possible, des remèdes aux maladies, ou du moins mieux les comprendre. Il est pourtant de plus en plus évident qu’une meilleure compréhension ne peut émerger que d’une vision plus holistique ou intégrative des systèmes biologiques. Il nous faut donc développer une meilleure compréhension des systèmes biologiques en tant que systèmes complexes et transférer cette compréhension à la recherche clinique. Cela exige une approche fortement interdisciplinaire et devrait fournir de nouvelles connaissances en physiologie et en pathologie.

Après une brève présentation des objectifs généraux et des concepts abordés dans cette section, nous verrons de manière plus détaillée quatre défis majeurs. Comment les recherches devraient être motivées en biologie est sujet à débat. Doivent-elles être fondées sur des données, des objets ou des hypothèses ? Sommes-nous au moins d’accord sur l’objectif de déchiffrage des chaînes causales qui sous-tendent les processus biologiques ? Attendons-nous des modèles qu’ils apportent des informations et des connaissances sur le comportement des systèmes biologiques et qu’ils nous permettent d’élaborer des prédictions précises ?

Les avancées récentes en génomique fonctionnelle et dans l’étude des maladies complexes telles que le cancer, les maladies auto-immunes ou infectieuses, les maladies mitochondriales ou les syndromes métaboliques, ont montré la nécessité d’une autre approche de la biologie, une vision selon laquelle la pathologie et la physiologie sont le résultat des interactions de nombreux processus à différentes échelles. La nouvelle discipline scientifique de la biologie des systèmes est née de ce point de vue ; elle est axée sur l’étude des gènes, des protéines, des réseaux de réactions biochimiques et de la dynamique des populations cellulaires, considérés comme des systèmes dynamiques. Elle étudie les propriétés biologiques résultant de l’interaction de nombreux composants, en examinant les processus à différentes échelles et leur intégration systémique générale. La science des systèmes complexes fournit un cadre conceptuel et des outils efficaces pour tenter de comprendre les caractéristiques émergentes et immergentes, des molécules aux organismes et inversement. Le terme d’« immergence » implique que certaines contraintes à macro-niveau s’écoulent en cascade, de manière causale, vers des micro-niveaux. Les propriétés émergentes et immergentes doivent être pensées à partir de la reconstruction multi-échelles des données enregistrées aux échelles spatio-temporelles appropriées. Nous nous attendons à trouver des processus génériques (modèles de conception pour l’informatique) qui s’appliquent des niveaux supérieurs aux niveaux inférieurs d’organisation, et vice versa, et qui permettent leur couplage ; par exemple la synchronisation, le renforcement, l’amplification, l’inhibition, obtenus au moyen de processus de base tels que la signalisation par les interactions moléculaires, la diffusion, le transport vésiculaire, le transport ionique, le couplage électrique, le couplage biomécanique et la régulation des caractéristiques des molécules et des macromolécules (y compris leurs concentrations).

Les systèmes complexes impliquent presque toujours une large gamme d’échelles temporelles (en général des femtosecondes pour les réactions chimiques, des secondes pour les processus métaboliques, des jours ou des mois pour les cellules et des années pour les organismes vivants) et spatiales (en général des nanomètres pour les structures moléculaires, des micromètres pour les ensembles supramoléculaires, les organelles et les cellules, des centimètres pour les tissus et les organes, et des mètres pour les organismes). Déterminer l’échelle spatio-temporelle pertinente pour l’expérimentation et la modélisation est un enjeu majeur. Les approches classiques (biochimie, biologie cellulaire et moléculaire, études cognitives et comportementales, etc.) utilisent généralement une échelle « de préférence » déterminée par défaut, essentiellement en raison des protocoles et expériences fondamentaux conçus pour ne fonctionner qu’à une échelle spécifique. Les interactions entre les différentes échelles dans les observations, expérimentations, modèles et simulations deviennent un défi transdisciplinaire passionnant.

Les variations des systèmes biologiques soulèvent la question d’un comportement moyen, caractéristique ou représentatif. Déterminer leurs quantités, et savoir si elles sont scientifiquement utiles, exige de caractériser et de mesurer la variabilité et les fluctuations aux niveaux de la molécule, de la cellule, de la population de cellules et au niveau physiologique. L’origine et la signification fonctionnelle des fluctuations dans les systèmes biologiques, même aux échelles spatio-temporelles où elles se produisent, demeurent largement inconnues. Leur signification fonctionnelle pourrait être abordée à travers leur transmission multi-échelles et leur éventuelle amplification, réduction/amortissement ou leur rôle dans la médiation des bifurcations.

De toute évidence, la compréhension ne résultera pas d’une description individuelle ou d’une modélisation d’organismes (cellule virtuelle, organisme virtuel), mais plutôt de l’identification des composants pertinents pour un problème donné et de la reconstruction de modèles axés sur les mécanismes impliqués. Une telle reconstruction doit utiliser des outils mathématiques et physiques empruntés, entre autres, à la thermodynamique hors équilibre et aux systèmes dynamiques. De nouveaux outils seront également nécessaires pour répondre à des questions spécifiques de la biologie. Enfin, introduire une vision systémique et utiliser des principes et un cadre conceptuel des systèmes complexes pour une meilleure compréhension de la physiopathologie humaine pourrait conduire à un nouveau diagnostic différentiel et améliorer les soins médicaux.

Grands défis

  • Fluctuations et bruit dans les systèmes biologiques
  • La stabilité en biologie
  • Approches multi-échelles
  • Physiopathologie humaine

 


2.2.1. Fluctuations et bruit dans les systèmes biologiques

Au cours de son développement, la biologie moderne a eu souvent recours aux notions de comportements moyens et d’individus moyens. Mais ce cadre conceptuel a été récemment remis en question par l’observation empirique. Des mesures quantitatives de cellules vivantes individuelles, ou à l’intérieur de ces cellules, ont révélé la grande variabilité et la fluctuation de la dynamique cellulaire entre différentes cellules ou différents moments dans la même cellule. Ces observations ouvrent un nouveau cadre conceptuel en biologie, où le bruit doit être pleinement pris en considération si nous voulons comprendre les systèmes biologiques ; cette vision s’écarte du cadre classique qui considère que le bruit et les fluctuations sont une erreur de mesure ou de « simples » fluctuations thermodynamiques qui devraient être supprimées par les cellules.

Ce nouveau point de vue soulève de nombreuses questions, ainsi que les deux problèmes théorique et pratique susceptibles de modifier profondément notre compréhension des systèmes biologiques. Pour aborder ces questions, nous devons toutefois développer un programme complet de recherche scientifique allant des mesures précises à l’analyse de l’origine et du rôle fonctionnel de la stochasticité dans les systèmes biologiques. Pour réaliser de telles avancées, nous devons, entre autres :

  • Améliorer la technologie pour les mesures quantitatives du bruit et des fluctuations dans la cellule, les populations de cellules, les tissus, les organes et les individus. Il faudra en particulier identifier les moments caractéristiques à chaque niveau d’organisation et les indicateurs expérimentaux les plus appropriés.
  • Identifier les mécanismes produisant le bruit et les fluctuations dans les systèmes biologiques et répondre en particulier aux questions suivantes : quelles sont les modalités de transmission multi-échelles des fluctuations ? Les fluctuations sont-elles amplifiées ou réduites/amorties en passant d’une échelle aux autres ? Sont-elles importantes par rapport aux bifurcations dans le destin de l’organisme ou de la cellule ?
  • Comprendre la signification fonctionnelle des fluctuations dans différents systèmes biologiques. Il a par exemple été suggéré que les fluctuations pourraient améliorer la robustesse des êtres vivants. D’autres processus peuvent toutefois être envisagés (résonance stochastique, augmentation des taux de signalisation, différenciation cellulaire, évolution, etc.). Cette signification fonctionnelle implique que les systèmes biologiques sont capables de contrôler le niveau de bruit.
  • Définir les éventuels mécanismes par lesquels les systèmes biologiques peuvent contrôler leur niveau de fluctuation (boucles de rétroaction négative/positive dans les réseaux biochimiques, adaptation neuronale dans les réseaux corticaux, mutations adaptatives et mutation ponctuelle, régulations et réseaux dans le système immunitaire).
  • Remettre en question le sens des processus habituels d’établissement de moyennes dans la biologie expérimentale. Dans le cas des réseaux biochimiques, les données collectées sur les populations de cellules peuvent-elles être utilisées pour déduire le réseau réel dans une cellule individuelle donnée ? Des questions similaires se posent dans le cas des structures de connexion des réseaux corticaux et de la reconstruction des lignées cellulaires.

Ces questions peuvent être abordées dans divers systèmes biologiques tels que (et non exhaustivement) :

  • Les réseaux de transcription et de régulation : il est à présent clair que l’activité transcriptionnelle de la cellule est hautement stochastique. Certaines des causes moléculaires de cette stochasticité ont été identifiées, mais son origine précise et ses mécanismes de régulation restent à découvrir. Cela exigera tout d’abord le développement de méthodologies de mesure appropriées pour permettre de quantifier ces fluctuations à différentes échelles temporelles dans la cellule.
  • Les neurones et les réseaux neuronaux : l’activité « continue » au sein des circuits corticaux est une activité spontanée générée par le caractère récurrent de ces réseaux. Elle a longtemps été considérée comme un simple bruit ajouté aux signaux environnementaux. Des études récentes ont toutefois attribué un véritable rôle fonctionnel à cette activité continue qui pourrait faciliter la propagation du signal et être impliquée dans les processus d’adaptation. Il a été démontré que des effets inhibiteurs réduisent la variabilité au niveau de la cellule individuelle comme de la population de cellules.
  • La diversité du système immunitaire : le système immunitaire se caractérise par sa diversité à différents niveaux ; diversité des récepteurs des lymphocytes, populations d’effecteurs et de régulateurs, dynamique des populations de cellules, sélection et compétition des cellules et migration à travers tout l’organisme sont le résultat de mécanismes stochastiques ou de sélection dont l’impact sur l’efficacité générale du système doit encore être décrit.
  • La variabilité incontrôlée est souvent considérée comme une source de perturbations majeures pour le destin des organismes. Nous pouvons en trouver des exemples dans le processus de vieillissement, le cancer, les maladies auto-immunes, les infections ou les maladies dégénératives. Toutefois, le débat sur l’influence concrète du bruit reste ouvert. Un point en particulier reste à déterminer : dans quelle mesure les processus dégénératifs sont-ils une conséquence de l’accumulation de bruit, une variation des propriétés du bruit ou d’événements stochastiques exceptionnels.
  • La variabilité au niveau génétique est le premier moteur de l’évolution et peut être indirectement régulée en fonction des caractéristiques spatio-temporelles de l’environnement (sélection pour la robustesse, par exemple, ou pour l’évolutivité). En outre, les individus clonaux peuvent être très différents les uns des autres en raison de la variabilité phénotypique intrinsèque et extrinsèque. Les mécanismes par lesquels la variabilité héréditaire et non héréditaire est régulée doivent encore être décrits et leur influence sur le processus d’évolution est largement méconnue.

En ce qui concerne la modélisation des fluctuations, il existe plusieurs outils mathématiques et physiques, mais ils doivent être améliorés :

  • Les modèles stochastiques sont largement utilisés en biologie des systèmes moléculaires. Les algorithmes de simulation (algorithme de Gillespie) utilisent la représentation Delbrück Bartholomay Rényi de la cinétique biochimique comme processus markovien de sauts. Pour améliorer les résultats de ces méthodes (coûteuses en termes de temps) plusieurs systèmes approximatifs ont été proposés, par exemple l’approximation des variables de Poisson par les variables gaussiennes ("tau-leaping"). Les approximations hybrides sont plus appropriées aux processus multi-échelles et elles pourraient être développées en associant moyenne et loi des grands nombres. Dans certains cas simples, l’équation maîtresse peut être résolue.
  • Il est également intéressant de transférer des concepts de la physique à la biologie. Les théorèmes de fluctuation, par exemple, relatifs à l’apparition de fluctuations hors équilibre dans les échanges de chaleur avec le milieu ambiant, et les théorèmes de travail relatifs aux fluctuations thermodynamiques dans les petits systèmes proches de l’équilibre pourraient être appliqués pour décrire les fluctuations dans les réseaux de gènes, les processus de transcription d’ADN et le depliement/repliement des biomolécules.

2.2.2. La stabilité en biologie

Nous trouvons différentes définitions de la stabilité selon le phénomène, le modèle ou la communauté proposant le concept. Les concepts les plus fréquemment évoqués sont l’homéostasie pour le contrôle métabolique, le concept de la Reine Rouge, en biologie évolutive, décrivant un développement permanent permettant de maintenir la stabilité des conditions dans un environnement changeant, la robustesse dans la biologie des systèmes par rapport à l’insensibilité aux perturbations ou la canalisation et les attracteurs dans la biologie du développement et l’écologie.

Les principaux défis sont :

1) Pour chercher à comprendre la stabilité des systèmes biologiques, continuellement soumis à des perturbations intrinsèques et extrinsèques, nous devons développer la notion de situation d’équilibre, ou, plus généralement, la notion d’attracteur. Nous avons besoin de nouveaux concepts mathématiques pour saisir les subtilités de la stabilité biologique.

  • La stabilité en temps fini est un concept qui peut servir à définir la stabilité lorsque l’on sait que le système exploite ou maintient sa structure inchangée dans un temps fini. Les conditions dans lesquelles les variables du système demeurent dans des limites finies nous intéressent particulièrement. Pouvons-nous étendre ce formalisme à d’autres propriétés (oscillations, production optimale de biomasse, etc.) ?
  • La stabilité en temps fini dépend de l’existence de sous-systèmes présentant différents temps de relaxation. Il est donc important de développer des méthodes permettant d’estimer le temps de relaxation le plus long des sous-systèmes. Pour les systèmes composés, comment pouvons-nous relier les temps de relaxation des éléments à ceux du système ?
  • La notion de résilience est également une généralisation de la notion de stabilité, particulièrement intéressante dans ce contexte. Elle met en effet l’accent sur la capacité à restaurer ou maintenir des fonctions majeures soumises à des perturbations. Les formalisations de ce concept, fondé sur les propriétés des systèmes dynamiques (mesure de la taille des bassins d’attraction), voire sur la théorie de la viabilité (coût du retour dans un noyau de viabilité), devraient devenir plus opérationnelles pour favoriser une plus large diffusion.

2) Le fonctionnement des organismes multicellulaires s’opère au niveau de la population cellulaire et non au niveau de la cellule individuelle. Par ailleurs, la stabilité d’une population cellulaire (tissu) est généralement différente de celle de la cellule individuelle. Les cellules extraites de tumeurs, par exemple, peuvent revenir à une activité normale lorsqu’elles sont injectées dans un tissu sain. Dans ce contexte, comment pouvons-nous définir et étudier la stabilité d’une population par rapport à la stabilité des individus ? De plus, nous devons considérer le même rapport dans le contexte d’un organisme en évolution, en tenant compte de la différenciation et de l’organogenèse. Ces processus constituent des exemples de rupture de symétrie, et nous aimerions déterminer si des arguments de symétrie peuvent être utilisés pour l’étude des propriétés de stabilité.

3) La biologie des systèmes étudie la robustesse comme principe d’organisation fondamental des systèmes biologiques. Comme l’a souligné H. Kitano, le cancer est un système robuste comportant quelques points faibles. La découverte de traitements et de remèdes aux maladies peut donc passer par la détermination des points faibles d’un système robuste. Pour répondre à ces questions, nous avons besoin de modèles pertinents, de nouvelles théories mathématiques et d’outils informatiques pour analyser les propriétés des modèles, et de nouvelles techniques expérimentales pour quantifier la robustesse.

4) Complexité et stabilité. Dans le processus de modélisation, nous devons être en mesure de basculer entre divers niveaux de complexité. Les propriétés stables du système pourraient être les propriétés communes à plusieurs niveaux de complexité. Plus généralement, y a-t-il un lien entre stabilité et complexité ?


2.2.3. Approches multi-échelles

Les processus biologiques mettent en jeu des événements et des processus qui se produisent à différentes échelles spatio-temporelles. Une relation hiérarchique entre ces échelles n’entre dans notre description que parce qu’elle correspond à notre point de vue subjectif, généralement fondé sur notre accès expérimental limité au système. Des approches multi-échelles empruntées à la physique théorique ont été essentiellement développées d’une manière unidirectionnelle (de bas en haut), pour intégrer des paramètres et des mécanismes à une échelle donnée à des descriptions réelles – et que nous espérons réduites – à plus grande échelle. Toutefois, les propriétés à échelle réduite sont directement associées aux propriétés à des échelles supérieures (par exemple, la distribution 3D du chromosome dans le noyau régit partiellement l’expression des gènes, qui participe elle-même à l’architecture du noyau). La complexité même des systèmes vivants et des fonctions biologiques repose en partie sur la présence de ces rétroactions bidirectionnelles entre échelles inférieures et supérieures établies au cours de l’évolution. Des approches auto-cohérentes ou itératives multi-échelles doivent donc être introduites pour prendre en compte les fortes interconnexions entre les différents niveaux et les schémas de causalité circulaires qui en découlent.

2.2.3.1. Multi-échelle vs. auto-échelle
Pour bien rendre compte du comportement d’un système biologique, une approche multi-échelles doit aborder conjointement toutes les échelles, sans omettre aucun détail microscopique ni aucun ensemble macroscopique. De toute évidence, cette modélisation atteindrait rapidement un important degré de complexité et finirait par être ingérable. Une telle limitation des descriptions multi-échelles constitue donc un défi radical pour le paradigme qui sous-tend la modélisation des systèmes biologiques.

Pour réduire le niveau de complexité, il a été proposé (Lavelle, Benecke, Lesne) de concevoir des modèles en prenant comme point de départ et ligne directrice la fonction biologique pour orienter la modélisation intégrée et utiliser l’analyse supervisée des données parallèlement à la logique biologique. L’analyse est réalisée en découpant sa logique et son application en processus fondamentaux impliquant des caractéristiques à différentes échelles, déjà intégrés dans leur formulation. Plus généralement, ce découpage permet d’obtenir des modules fonctionnels « auto-échelonnés », indépendants d’une description arbitraire ou de l’échelle de l’observation. Comme les représentations dépendantes de la fonction sont intrinsèquement multi-échelles à l’état naturel et que la fonction ne peut pas être discontinue, ce paradigme de transition requiert un modèle à échelle permanente. Les descriptions à échelle continue peuvent à première vue sembler trop complexes et non réalistes ; néanmoins, lorsqu’un tel modèle à échelle continue est élaboré dans le contexte d’une représentation dépendante de la fonction, la dimension de la variable du vecteur à considérer s’effondre.

2.2.3.2. Émergence contre immergence
La modélisation des systèmes biologiques requiert de nouveaux formalismes mathématiques capables de refléter la dynamique complexe d’un système en intégrant ses nombreux niveaux. Cela peut être réalisé en définissant des fonctions « micro vers macro » (émergence) et « macro vers micro » (immergence, micro-émergence ou causalité vers le bas) et en intégrant des couplages intra-niveau (horizontal) et inter-niveaux (vertical). La définition des variables pertinentes à chaque niveau d’organisation et une description de leurs relations est nécessaire pour obtenir des fonctions d’émergence (ou d’immergence) permettant à l’analyse de sauter du niveau microscopique (ou macroscopique) au niveau macroscopique (ou microscopique). Les phénomènes d’émergence et d’immergence sont bien connus en biologie, tout comme les liens entre la topologie de la structure des tissus et le comportement des cellules. Mais ces relations de cause à effet sont difficiles à déchiffrer, essentiellement parce que les échelles auxquelles elles se produisent ne sont pas nécessairement celles auxquelles les chercheurs effectuent leurs observations et leurs expériences.

  • Comment devons-nous procéder pour choisir les échelles spatio-temporelles pertinentes pour nos expériences, modèles et théories (auto-échelonnage plutôt que échelonnage multiple exhaustif) ?
  • Comment pouvons-nous effectuer des reconstructions multi-échelles à partir des données enregistrées à différentes échelles ? À quelles échelles spatio-temporelles le modèle ou la simulation obtenus seront-ils valables ?

2.2.4. Physiopathologie humaine

La physiopathologie humaine crée des incertitudes en raison des frontières constamment mouvantes entre les champs de disciplines telles que la neurologie, les neurosciences, la psychiatrie, l’immunologie, la cardiologie, l’endocrinologie et l’étude du métabolisme. Elle se caractérise par le dysfonctionnement et la détérioration progressifs des processus agissant sur plusieurs échelles spatio-temporelles avec des interactions non linéaires entre fonctions physiologiques et biologiques, cognition, émotions et conséquences sociales. Les problèmes peuvent d’abord résulter d’un conflit local entre des signaux internes et externes (les vertiges, par exemple), mais ce conflit peut s’étendre, se diffuser et créer de nouvelles boucles de causalité présentant de nombreuses interactions pathogènes réciproques. Les problèmes fonctionnels peuvent être primaires ou résulter d’effets secondaires de mécanismes spontanés d’adaptation visant à lutter contre une lésion ou une dysfonction primaire. Il est donc important de les dissocier.
Deux défis majeurs sont :

  • Appliquer les principes et les cadres théoriques des systèmes complexes à la conception d’études expérimentales et à l’analyse des données à différentes échelles (neurologique, physiologique, comportementale, neuropsychologique, immunologique) relatives à des individus ou à un vaste groupe de patients.
  • Découvrir des corrélations croisées et des interactions pour ouvrir de nouvelles perspectives sur les mécanismes pathogènes primaires ou secondaires. Cela pourrait permettre d’obtenir de nouveaux outils de diagnostic différentiel plus sensibles, mais aussi d’améliorer les soins médicaux ou les méthodes de réadaptation fonctionnelle. Nous devons dépasser une pluridisciplinarité limitée aux différentes approches parallèles et utiliser les outils des systèmes complexes pour associer les données de différents domaines et acquérir une meilleure connaissance.

Cette question concerne l’ensemble de la médecine interne et générale, l’immunologie, les neurosciences, la psychiatrie, la gériatrie, la pédiatrie, la rééducation fonctionnelle, la santé publique et la science des systèmes complexes. Des exemples de problèmes fonctionnels, dont certains n’ont aucune origine organique mesurable, comprennent le vertige – vertiges et troubles de l’équilibre, peur de tomber chez les personnes âgées, perte d’audition isolée, acouphènes, difficultés d’apprentissage – la dyslexie, mais également les maladies neuro-dégénératives, les différentes démences, la démence à corps de Lewy et la maladie d’Alzheimer. Quelles sont les causes du passage du bruit acoustique physiologique au signal perçu indésirable dans le cas des acouphènes en l’absence de résultats neuro-ontologiques ?

Les principales questions comprennent l’importance des fluctuations instantanées des mesures (physiologiques, comportementales, dans le cas de la démence, par exemple) par rapport à la physiopathologie et à la dégénérescence progressive des circuits corticaux et sous-corticaux. Nous pourrions citer d’autres exemples en immunologie : l’analyse des fonctions du système immunitaire dans les maladies physiologiques (de l’ontogénie au vieillissement, la gestation) et pathologiques (cancer, maladies auto-immunes, infections), et des interactions avec d’autres systèmes biologiques comme le système nerveux, endocrinien ou métabolique. Cela est fondé sur l’analyse dynamique des populations de cellules du fluide lymphatique, la quantification et l’identification du phénotype et des fonctions, des répertoires, de la génomique et de la protéomique.

La matière complexe

La matière complexe

Rapporteur : François Daviaud (CEA).

Contributeurs : Giulio Biroli (CEA), Daniel Bonamy (CEA), Elisabeth Bouchaud (CEA), Olivier Dauchot (CEA, Commissariat à l’energie atomique), François Daviaud (CEA), Marc Dubois (CEA SPEC), Berengère Dubrulle (CEA), François Ladieu (CEA), Denis L’Hôte (CEA).

Mots clés : dynamiques vitreuses, relaxations lentes, frustration et désordre, comportements collectifs, systèmes hors équilibre et non linéaires, auto-organisation, turbulence, effet dynamo, fracture.
Introduction
Le domaine des systèmes complexes et hors équilibre est actuellement enrichi par un grand nombre de nouvelles expériences et concepts théoriques dans diverses branches de la physique, de la physique de la matière condensée à la physique des gaz atomiques ultra-froids, et de la biologie. Au-delà de leur diversité apparente, ces systèmes partagent une même caractéristique : l’émergence de comportements collectifs complexes à partir de l’interaction de composants élémentaires. Les dynamiques vitreuses, les systèmes hors équilibre, l’émergence de structures auto-organisées ou auto-assemblées, la criticité, les systèmes de percolation, la propagation des parois de domaines et l’épinglage des parois élastiques, les systèmes non linéaires, la propagation des turbulences et des ruptures sont quelques-uns des sujets relatifs à l’étude de la matière complexe qui ne peuvent être abordés qu’au moyen des outils développés pour l’étude des systèmes complexes. La compréhension de ces phénomènes requiert également le développement de nouvelles méthodes théoriques en physique statistique et la conception de nouveaux types d’expériences.

Grands défis

 


2.1.1. Physique statistique hors équilibre

L’intérêt ancien durable pour les phénomènes hors équilibre a récemment connu un regain notable, ce qui s’explique par le développement de nouveaux concepts théoriques (en particulier sur les symétries des fluctuations de non-équilibre) et de nouveaux domaines d’application, de la physique de la matière condensée à d’autres branches de la physique (collisions d’ions lourds, Univers primordial), et de la biologie (manipulation de molécules uniques). Les phénomènes de non-équilibre jouent également un rôle important dans de nombreuses applications interdisciplinaires de la physique statistique (modélisation du comportement collectif des animaux ou des agents économiques et sociaux).

Un système physique peut être hors équilibre pour l’une des deux raisons suivantes :

  • Dynamiques lentes. Les dynamiques microscopiques du système sont réversibles, de sorte que le système possède une véritable situation d’équilibre. Les dynamiques de certains degrés de liberté sont néanmoins trop lentes pour que ces variables s’équilibrent au cours de l’expérience. Le système est donc dans un état de non-équilibre évoluant lentement pendant une très longue période (à l’infini dans certains systèmes modèles). Les traits caractéristiques de ce régime de relaxation de non-équilibre, y compris la violation du théorème fluctuation-dissipation, ont fait l’objet d’une intense recherche au cours de la dernière décennie. Ces phénomènes sont appelés phénomènes de « vieillissement » (voir section sur les dynamiques vitreuses).
  • Dynamiques forcées. Les dynamiques du système ne sont pas réversibles, généralement en raison de forces macroscopiques dues à des forces extérieures. Par exemple, un champ électrique induit un courant non nul dans tout le système, anéantissant la réversibilité des dynamiques stochastiques sous-jacentes. Le système atteint un état stationnaire de non-équilibre permanent. Il existe aussi des systèmes (du moins des systèmes modèles) où l’absence de réversibilité se situe exclusivement au niveau microscopique et ne dépend pas de forces macroscopiques extérieures. Le paradigme de ce type de situation est le célèbre modèle de l’électeur.

L’un des progrès les plus marquants de la dernière décennie a été la découverte de toute une série de résultats généraux concernant les symétries des fluctuations spontanées des états de non-équilibre. Ces théorèmes associés à des noms tels que Gallavotti, Cohen, Evans et Jarzynski, ont été appliqués ou testés dans de nombreuses circonstances, dans la théorie comme dans l’expérimentation.

La plupart des efforts récents dans ce domaine ont été consacrés à l’interaction des systèmes de particules. Cette vaste catégorie de systèmes stochastiques est couramment utilisée pour modéliser un large éventail de phénomènes de non-équilibre (réactions chimiques, conduction ionique, transport dans les systèmes biologiques, circulations et écoulements granulaires). Les méthodes analytiques sont un moyen efficace pour étudier un grand nombre de systèmes de particules en interaction ; elles ont déjà permis de résoudre certaines questions concernant ces systèmes.

Si le formalisme habituel de la physique statistique à l’équilibre ne s’applique pas aux systèmes hors équilibre, nous savons à présent que la plupart des outils développés pour les systèmes à l’équilibre peuvent également être utilisés pour les systèmes hors équilibre. C’est notamment le cas dans le cadre de comportements critiques, où des concepts tels que l’invariance d’échelle et l’échelonnage de taille finie ont fourni des preuves (essentiellement numériques) de l’universalité des systèmes de non-équilibre. Il est possible d’étudier des systèmes dans lesquels le caractère de non-équilibre ne provient pas de la présence de gradients imposés, par exemple, par des réservoirs de limites mais de la rupture de la microréversibilité – c’est-à-dire l’invariance de réversibilité temporelle – au niveau des dynamiques microscopiques dans la masse.

Une grande partie de la recherche sur la physique statistique hors équilibre est également axée sur les différentes transitions de phase observées dans de nombreux contextes. En effet, beaucoup de situations de non-équilibre peuvent être en interrelation, révélant un degré d’universalité qui dépasse largement les limites d’un domaine particulier : il a été démontré, par exemple, que la criticité auto-organisée du tas de sable (jeu) est équivalente au dépiégeage de l’interface linéaire en milieu aléatoire, comme à une façon particulière d’absorber les transitions de phase dans les modèles de réaction-diffusion. Un autre exemple frappant est la transition de jamming qui relie les domaines des milieux granulaires et des matériaux vitreux. Cela a été étudié expérimentalement par une expérience modèle consistant à découper une couche de disques métalliques. La synchronisation et l’échelonnage dynamique sont également des phénomènes très généraux qui peuvent être reliés entre eux ainsi qu’au problème général de la compréhension de l’universalité des systèmes hors d’équilibre.


2.1.2. Endommagement et rupture des matériaux hétérogènes

Comprendre l’interrelation entre les microstructures et les propriétés mécaniques a été l’un des principaux objectifs de la science des matériaux durant les dernières décennies. Les modèles prédictifs quantitatifs sont encore plus nécessaires pour l’étude de conditions extrêmes – température, environnement ou irradiation, par exemple – ou de comportement à long terme. Si certaines propriétés, comme les coefficients d’élasticité, se rapprochent bien de la moyenne des propriétés des divers composants microstructurels, aucune des propriétés liées à la rupture – élongation, contrainte jusqu’à défaillance, résistance à la rupture – ne suit cette simple règle, principalement : (i) en raison du gradient élevé de contrainte au voisinage d’une fissure et (ii) parce que, comme les éléments les plus fragiles de la microstructure se brisent en premier, nous avons affaire à des statistiques extrêmes. En conséquence, il est impossible de remplacer un matériau par un milieu « équivalent efficace » au voisinage d’une fissure. Cela a plusieurs conséquences importantes.

2.1.2.1. Effets de taille sur la défaillance des matériaux
Dans les matériaux fragiles, par exemple, les fissures partent des éléments les plus faibles des microstructures. En conséquence, la résistance et la durée de vie présentent des statistiques extrêmes (loi de Weibull, loi de Gumbel), dont la compréhension exige des approches fondées sur la physique non linéaire et statistique (théorie de la percolation, modèle du fusible aléatoire, etc.).

2.1.2.2 Propagation des fissures dans les matériaux hétérogènes
La propagation des fissures est le mécanisme fondamental conduisant à la défaillance des matériaux. Si la théorie du continuum élastique permet de décrire avec une grande précision la propagation des fissures dans les matériaux fragiles homogènes, nous sommes encore loin de comprendre ce phénomène en milieu hétérogène. Dans ces matériaux, la propagation des fissures présente souvent une dynamique saccadée, par sauts brusques qui s’étendent sur une vaste gamme de longueurs d’échelles. C’est également ce que suggère l’émission acoustique qui accompagne la rupture de différents matériaux et, à une bien plus grande échelle, l’activité sismique associée aux tremblements de terre. Cette dynamique de « craquement » intermittent ne peut être saisie par la théorie du continuum standard. De plus, la propagation des fissures crée une structure qui lui est propre. Cette apparition de rugosité a permis de démontrer qu’il existait des caractéristiques morphologiques universelles, indépendantes du matériau, comme des conditions de charge, rappelant les problèmes de croissance d’interfaces. Ceci suggère que des approches issues de la physique statistique peuvent permettre de décrire la défaillance des matériaux hétérogènes. Ajoutons enfin que les mécanismes deviennent bien plus complexes lorsque la vitesse de propagation des fissures augmente et se rapproche de celle du son, comme dans les problèmes d’impact ou de fragmentation, par exemple.

2.1.2.3. Déformation plastique des matériaux vitreux
En raison de l’intensification de la contrainte aux extrémités de la fissure, la rupture s’accompagne généralement de déformations irréversibles, même dans les matériaux amorphes les plus fragiles. Si l’origine physique de ces déformations irréversibles est désormais bien connue pour les matériaux métalliques, elle n’est toujours pas expliquée pour les matériaux amorphes tels que les verres d’oxyde, les céramiques ou les polymères, où les dislocations ne peuvent être définies.


2.1.3. Dynamiques vitreuses : verres, verres de spin et milieux granulaires

2.1.3.1. Verres
La physique des verres ne concerne pas uniquement les verres utilisés dans la vie quotidienne (silicates), mais un ensemble de systèmes physiques tels que les verres moléculaires, polymères, colloïdes, émulsions, mousses, verres de Coulomb, matériaux granulaires, etc. Comprendre la formation de ces systèmes amorphes, la transition vitreuse, et leur comportement hors équilibre est un défi qui a résisté à l’important effort de recherche en physique de la matière condensée au cours des dernières décennies. Ce problème concerne plusieurs domaines, de la mécanique statistique et la matière molle aux sciences des matériaux, en passant par la biophysique. Plusieurs questions ouvertes sont posées : le blocage est-il dû à une réelle transition de phase sous-jacente ou s’agit-il d’un simple croisement avec une partie de l’universalité du mécanisme de forçage ? Quel est le mécanisme physique responsable du ralentissement de la dynamique et de la vitrosité ? Quelle est l’origine des effets de vieillissement, de rajeunissement et de mémoire ? Quels sont les concepts communs qui émergent pour décrire les différents systèmes évoqués ci-dessus et qui demeurent spécifiques à chacun d’eux ?

Il est toutefois intéressant de noter qu’il a récemment été établi que le ralentissement visqueux des liquides en surfusion et autres systèmes amorphes pourrait être lié à l’existence de véritables transitions de phase d’une nature très particulière. Contrairement aux transitions de phase habituelles, la dynamique des vitrifiants ralentit considérablement, alors que leurs propriétés structurelles ne changent presque pas. Nous commençons seulement à comprendre la nature de l’ordre amorphe à longue distance qui apparaît à la transition vitreuse, les analogies avec les verres de spin et leurs conséquences physiques observables. L’une des conséquences les plus intéressantes est l’existence d’hétérogénéités dynamiques (HD) : il a été découvert qu’elles étaient (dans le domaine spatio-temporel) l’équivalent de fluctuations critiques dans les transitions de phase standard. Intuitivement, à mesure que l’on approche de la transition vitreuse, des régions de plus en plus importantes de la matière doivent se déplacer simultanément pour permettre l’écoulement, ce qui produit des dynamiques intermittentes, dans l’espace et le temps. L’existence d’une transition de phase sous-jacente et d’hétérogénéités dynamiques devrait influer sensiblement les comportements rhéologiques et de vieillissement de ces matériaux, qui sont en effet très différents des comportements des simples liquides et solides. En conséquence, les progrès dans la compréhension des dynamiques vitreuses devraient donner lieu à plusieurs avancées technologiques. Les propriétés particulières des verres sont technologiquement utilisées, par exemple, pour l’entreposage des déchets nucléaires.

D’un point de vue expérimental, les principaux défis ont changé, non seulement parce que les progrès dans ce domaine ont donné lieu à des questions radicalement nouvelles, mais aussi parce que de nouvelles techniques expérimentales permettent à présent aux chercheurs d’étudier les systèmes physiques à l’échelle microscopique. Les nouveaux défis pour les années à venir sont : i) étudier les propriétés dynamiques locales pour découvrir les changements dans la manière dont les molécules évoluent et interagissent pour rendre la dynamique vitreuse, et en particulier la raison pour laquelle le temps de relaxation de liquides en surfusion augmente de plus de 14 ordres de grandeur dans une fenêtre étroite de température ; ii) apporter une preuve directe et quantitative que la dynamique vitreuse est ou n’est pas liée à une transition de phase sous-jacente ; iii) étudier la nature des hétérogénéités dynamiques (corrélation entre leur taille et leur temps d’évolution, dimensions fractales, etc.) ; iv) étudier la nature des propriétés hors équilibre des verres, comme la violation du théorème de fluctuation-dissipation, l’intermittence, etc.

D’un point de vue théorique, le plus grand défi est d’élaborer et de développer une théorie appropriée de la dynamique vitreuse à l’échelle microscopique. Il s’agira de révéler les mécanismes physiques sous-jacents qui provoquent le ralentissement et la dynamique vitreuse, et d’élaborer une théorie quantitative pouvant être confrontée aux expériences. L’objectif principal sera à nouveau axé sur les propriétés dynamiques locales, leur longueur d’échelle associée et leur relation avec les échelles de temps croissantes et les propriétés générales de la dynamique vitreuse.

2.1.3.2. Verres de spin
L’expression « verres de spin » a été inventée pour décrire certains alliages de métaux non magnétiques comportant un petit nombre d’impuretés magnétiques, disposées de manière aléatoire, où la preuve expérimentale pour une phase à basse température a démontré un gel non périodique des moments magnétiques avec une réponse aux perturbations extérieures très lente et dépendante de l’histoire du matériau. Les états fondamentaux des verres de spin sont le désordre et la frustration. La frustration exprime le fait que l’énergie de tous les couples de spins ne peut pas être simultanément réduite. L’analyse théorique des verres de spin conduit au fameux modèle Edwards Anderson : spins classiques sur réseaux hypercubiques avec interactions aléatoires entre plus proches voisins. Cela a conduit à de nombreux développements au fil des ans, et les concepts élaborés pour résoudre ce problème ont trouvé des applications dans de nombreux domaines, des verres structuraux et des milieux granulaires aux problèmes informatiques (codes de correction d’erreurs, optimisation stochastique, réseaux de neurones, etc.).

Le programme de développement d’une théorie du champ des verres de spin est extrêmement compliqué, et ses avancées sont régulières et lentes. Les méthodes théoriques ne permettent pas encore d’établir des prédictions précises en trois dimensions. Les simulations numériques rencontrent plusieurs obstacles : nous ne pouvons pas équilibrer les échantillons de plus de quelques milliers de spins, la simulation doit être reproduite pour un grand nombre d’échantillons de désordres (en raison du non-auto-moyennage), et les corrections de taille finie diminuent très lentement.

Les verres de spin constituent en outre un cadre d’expérimentation particulièrement adapté pour la recherche sur la dynamique vitreuse. La dépendance de leur réponse dynamique par rapport au temps d’attente (effet de vieillissement) est un phénomène courant observé dans des systèmes physiques très différents tels que les polymères et les verres structuraux, les diélectriques désordonnés, les gels et les colloïdes, les mousses, les contacts de frottement, etc.

2.1.3.3. Milieux granulaires au voisinage de la transition de jamming
L’expérience commune montre que si la fraction volumique de grains durs augmente au-delà d’un certain point, le système se bloque, cesse de s’écouler et devient capable de supporter des contraintes mécaniques. Le comportement dynamique des milieux granulaires à proximité de la transition de jamming est très semblable à celui des liquides à proximité de la transition vitreuse. En effet, les milieux granulaires à proximité de la transition de jamming présentent un même ralentissement considérable de la dynamique ainsi que d’autres caractéristiques vitreuses telles que les effets de vieillissement et de mémoire. L’une des principales caractéristiques de la dynamique dans les systèmes de vitrification est ce que l’on appelle généralement l’effet de cage, qui explique les différents mécanismes de relaxation : à court terme, toute particule est piégée dans une zone confinée par ses voisines, qui constituent la cage, et provoque une dynamique lente ; après une période suffisamment longue, la particule parvient à échapper à sa cage, de sorte qu’elle peut diffuser à travers l’échantillon par changements de cage successifs, ce qui accélère la relaxation. Contrairement au ralentissement critique standard, cette dynamique vitreuse lente ne semble pas liée à un accroissement de l’ordre statique local. Pour les vitrifiants, il a plutôt été suggéré que la relaxation devient fortement hétérogène et que les corrélations dynamiques augmentent à proximité de la transition vitreuse. L’existence de cette corrélation dynamique croissante est très importante, car elle révèle une sorte de criticité associée à la transition vitreuse.

On peut étudier, par exemple, la dynamique d’une monocouche bidisperse de disques sous deux forçages mécaniques différents, c’est-à-dire de cisaillement cyclique et de vibrations horizontales. Dans le premier cas, une confirmation de la similarité évoquée ci-dessous a été obtenue au niveau microscopique, et le second cas peut apporter la preuve expérimentale d’une divergence simultanée d’échelles de longueur et de temps précisément à la fraction volumique pour laquelle le système perd sa rigidité (transition de jamming).


2.1.4. Bifurcations dans les milieux turbulents : de l’effet dynamo aux dynamiques lentes

2.1.4.1. Effet dynamo
L’effet dynamo est l’émergence d’un champ magnétique à travers le mouvement d’un fluide conducteur électrique. On pense que cet effet est à l’origine des champs magnétiques des planètes et de la plupart des objets astrophysiques. L’une des caractéristiques les plus frappantes de l’effet dynamo terrestre, révélé par les études paléomagnétiques, est l’observation de renversements irréguliers de la polarité de son champ dipolaire. De nombreux travaux ont été consacrés à ce problème, par la théorie et par numérisation, mais l’ensemble des paramètres pertinents pour les objets naturels dépasse les possibilités des simulations numériques pour de nombreuses années encore, notamment en raison des turbulences. Pour les dynamos industrielles, le trajet des courants électriques et la géométrie des rotors (solides) sont entièrement définis. Comme cela ne peut être le cas pour l’intérieur des planètes ou des étoiles, des expériences visant à étudier des dynamos en laboratoire ont évolué vers l’assouplissement de ces contraintes. Les expériences menées à Riga et à Karlsruhe en 2000 ont montré que les fluides dynamos peuvent être générés par l’organisation de fluides de sodium favorables, mais les champs dynamos n’ont qu’une dynamique temporelle. La recherche de dynamiques plus complexes, telles que celles des objets naturels, a encouragé la plupart des équipes travaillant sur le problème de l’effet dynamo à concevoir des expériences avec des fluides moins contraints et un niveau de turbulence supérieur. En 2006, l’expérience Von Kármán Sodium (VKS) a été la première à montrer des régimes où une dynamo statistiquement stationnaire apparaît spontanément dans un fluide turbulent. Elle a ensuite montré pour la première fois d’autres régimes dynamiques, tels que les renversements irréguliers comme ceux de la Terre, et les oscillations périodiques, comme celles du Soleil.

Ces régimes complexes, impliquant un puissant couplage entre hydrodynamiques et MHD, doivent être étudiés en détail. Ils révèlent en particulier que si le champ magnétique dynamo est généré par les fluctuations turbulentes, il se comporte comme un système dynamique présentant peu de degrés de liberté.

Les prédictions théoriques concernant l’influence de la turbulence sur le seuil dynamo du fluide moyen sont rares. De faibles fluctuations de vitesse produisent un faible impact sur le seuil dynamo. Des prédictions pour des amplitudes de fluctuations aléatoires peuvent être obtenues si l’on considère la dynamo turbulente comme une instabilité forcée par le fluide moyen) en présence d’un bruit multiplicatif (fluctuations turbulentes). Dans ce contexte, les fluctuations peuvent favoriser ou entraver la croissance du champ magnétique en fonction de leur intensité ou du temps de corrélation. Les méthodes de simulation directe et de simulation numérique stochastique des équations de magnétohydrodynamique (MHD) peuvent être utilisées pour étudier l’influence de la turbulence sur le seuil dynamo.

2.1.4.2. Bifurcations en milieu turbulent
À des nombres de Reynolds élevés, certains systèmes sont soumis à une bifurcation turbulente entre différentes topologies moyennes. De plus, cette bifurcation turbulente peut conserver la mémoire de l’histoire du système. Ces aspects de la bifurcation turbulente rappellent les propriétés classiques des bifurcations dans les systèmes de petite dimension, mais la dynamique de bifurcation est réellement différente, probablement en raison de la présence de fluctuations turbulentes très importantes. Les études à venir porteront sur la pertinence universelle du concept de multistabilité moyenne pour les états de systèmes à fortes fluctuations et les transitions entre ces états (inversions magnétiques de polarité terrestre, changements climatiques entre les cycles glaciaires et interglaciaires, par exemple). La dynamique lente des systèmes turbulents, dans les cas où des échanges de stabilité peuvent être observés pour des quantités globales ou des propriétés moyennes du fluide, devrait également être étudiée, et des modèles non linéaires ou stochastiques de ces transitions devraient être élaborés.

Dans le cas des fluides turbulents à symétrie, il est également possible d’élaborer une mécanique statistique et de développer une approche thermodynamique des états à l’équilibre des fluides axisymétriques à une échelle donnée de macrogranularité. Cela permet de définir une entropie de mélange et des états de dérivation de Gibbs du problème par une procédure de maximisation de l’entropie de mélange sous contrainte de conservation des quantités totales. À partir de l’état de Gibbs, on peut définir des identités générales déterminant les états à l’équilibre, ainsi que les relations entre les états à l’équilibre et leurs fluctuations. Cette thermodynamique doit être testée sur des fluides turbulents, le fluide Von Kármán, par exemple. Les températures réelles peuvent être mesurées et les résultats préliminaires montrent qu’ils dépendent de la variable prise en compte, comme dans d’autres systèmes hors équilibre (verre). Enfin, nous pouvons déduire une paramétrisation du mélange non visqueux pour décrire la dynamique du système à une échelle de macrogranularité. Les équations correspondantes ont été appliquées numériquement et peuvent être utilisées comme modèle de turbulence à une nouvelle échelle sous-maille.