contrôle et prédiction

  • Mots-clés : qualité, apprentissage, validation, domaine de validité, analyse de sensibilité, incertitude, propagation d’erreur, agrégation, désagrégation, valeurs extrêmes, événements rares, prescription, gouvernance, réflexivité, viabilité, non-linéarités, prédiction en probabilité, recommandation, incertitudes, aide à la décision, machine learning, IA, retroactions (positives/négative), ingénierie sociale

Prédiction des dynamiques multi-échelles

Les prédictions des modèles de dynamiques multi-échelles peuvent être multiples, quantitatives, qualitatives, probabilistes…selon l’objectif assigné au modèle. Quel que soit le type de prédiction il est indispensable de qualifier cette prédiction. L’évaluation des poids respectifs des différentes sources d’erreur et d’incertitudes identifiées dans la qualité de prédiction est un préalable à l’utilisation pertinente du modèle. Dans la conception des modèles, des hypothèses parfois fortes sont faites pour passer d’une échelle à l’autre (agrégation / désagrégation). Elles ont des répercussions sur les prédictions, et notamment sur les changements de régime (bifurcation) et les événements rares ou extrêmes. Inversement, la détection à partir des valeurs prédites des changements de régimes et de leurs transitions, qu’ils soient attendus ou non, est un autre défi.
In fine, l’usage qui est fait des prédictions peut, en particulier dans les modèles sociaux, avoir une influence sur le domaine de validité des prédictions. La question de savoir s’il faut revenir sur la conception du modèle dynamique ou bien élaborer séparément un modèle d’usage renvoie à l’étude des relations entre prédictions, prescription, gouvernance et coûts.

  • Mots-clés : qualité, apprentissage, validation, domaine de validité, analyse de sensibilité, incertitude, propagation d’erreur, agrégation, désagrégation, valeurs extrêmes, événements rares, prescription, gouvernance, réflexivité

 

  • Les grands défis :
    • Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles
    • Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs extrêmes ou rares.
    • Détecter l’apparition des différents « régimes » et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sa répercussion sur les événements rares ou extrêmes.
    • Quelles relations entre prédiction, prescription, gouvernance et coûts ?

Grands Défis

  • Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles
  • Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs
  • Détecter l’apparition des différents ” régimes ” et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sur les événements rares ou extr
  • Quelles relations entre prédiction, prescription, gouvernance et coûts?

1. Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles

L’expérience montre que si les biologistes / modélisateurs consacrent beaucoup de temps et d’énergie à l’écriture conceptuelle et informatique de leurs modèles, ils en réservent trop peu à l’analyse de leurs propriétés. Dans le cas de modèles multi-échelles, on s’attaque à des processus pour lesquels l’étude analytique de leurs propriétés est de plus en plus délicate voire impossible à réaliser. Cependant, il est nécessaire d’évaluer la qualité de prédiction de ces modèles ou au moins de caractériser la précision de leurs prédictions. L’étude de la sensibilité du modèle aux différentes sources de variation, souvent corrélées, et de leur contribution sur la qualité de la prédiction est un défi en soi.

Un corollaire de la complexité croissante de ces modèles est que leurs sorties sont elles-mêmes plus complexes. Là où un modèle calculait quelques variables d’état à valeurs scalaires dans le temps, il produit aujourd’hui communément des variables d’état plus nombreuses, et de plus en plus souvent sous forme de vecteurs ou de matrices multidimensionnelles mélangeant variables qualitatives et quantitatives. Résumer les énormes quantités de données produites par les modèles actuels, et traiter des données non scalaires, en entrée comme en sortie des modèles doit donc également faire partie d’une telle analyse.

Cependant, comme il est souvent impossible de pouvoir disposer de toutes les données nécessaires à l’évaluation propre de la qualité de prédiction du modèle, une stratégie est souvent d’utiliser des scénarios sur lesquels la prédiction est faite et d’en déduire par exemple des intervalles de confiance. Or, dans les systèmes complexes ces scénarios sont souvent établis sur un corpus d’hypothèses souvent non disjoint de celui du modèle. Par exemple, les recherches sur les modes économiques permettant de réduire les quantités de CO2 émises dans l’atmosphère afin de réduire leur impact sur les changements climatiques sont faites sur la base des séquences climatiques fournies par les modèles de changements globaux établis eux-mêmes à partir de scénarios économiques.

Dans ce contexte de modèles multi-échelles (spatiales et/ou temporelles et/ou niveaux d’organisation ; où il existe un opérateur d’agrégation ou moyennage), l’analyse des incertitudes du modèle peut se décliner par l’analyse du conditionnement du modèle d’une boite (d’un niveau d’organisation ou d’échelle) par rapport à la boite d’un niveau supérieur (utilisation de variables exogènes ; forçage ; scénario), et ensuite par l évaluation de la qualité de la prédiction notamment en conditionnant l’erreur d’une boite par rapport à l’erreur d’une boite d’un autre niveau (analyse et propagation d’erreur, incertitude, prise en compte du caractère stochastique).


2. Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs extrêmes ou rares.

Dans les systèmes multi-échelles, il existe souvent des ” effets de transition ” brutaux, qui peuvent aussi être le phénomène que l’on souhaite prédire. La prédiction de ces phénomènes rend la modélisation d’autant plus difficile qu’il y a superposition et interaction de dynamiques à des échelles spatiales ou temporelles et des niveaux d’organisation différents.
La communication entre ces différents niveaux ou échelles se fait souvent par le biais de processus d’agrégation et de désagrégation et des hypothèses sont souvent faites pour procéder à ces changements d’échelle ou faire communiquer les différents niveaux d’organisation. Cependant leur aptitude à pouvoir rendre compte d’événements rares ou extrêmes est souvent négligée au profit de l’aptitude du modèle à prédire les comportements globaux.

Le défi est donc d’analyser les répercussions des hypothèses formulées pour faire communiquer les différents niveaux d’organisation ou réaliser les changements d’échelle sur les prédictions.

Exemple : vagues déferlantes gommées au profit d’une dissipation moyenne.


3. Détecter l’apparition des différents ” régimes ” et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sur les événements rares ou extrêmes.

Les phénomènes multi-échelles sont caractérisés par la superposition de dynamiques multiples. Cette caractérisation des régimes et de leur causalité étant essentielle à la prédiction, il est nécessaire de pouvoir identifier les dynamiques lentes pour anticiper les changements de régimes (bifurcation), décorréler les phénomènes à dynamiques rapides des transitions et analyser l’impact des changements de régime sur l’apparition d’événements extrêmes.

Exemple : inversion du champ magnétique, tsunami, émergence d’algues toxiques


4. Quelles relations entre prédiction, prescription, gouvernance et coûts ?

Dans le contexte multi-échelles et plus particulièrement dès lors que des acteurs peuvent intervenir sur le système, il est très difficile de pouvoir évaluer la qualité de prédiction des modèles. D’autant plus que bien souvent, plusieurs modèles sont en jeu, développés souvent indépendamment, à des échelles différentes avec des finalités parfois contradictoires.
Sur la base de sa finalité (ou des finalités du niveau supérieur), chaque échelle émet une prescription (stratégie optimale sur la base du modèle pour atteindre la finalité) en fonction des coûts donnés (coûts d’événements, couts d’action et coûts d’erreur de prédiction).
Comment l’anticipation par chaque échelle de l’interprétation de sa prescription par les autres échelles, doit-elle infléchir sa prescription ? Egalement, la connaissance par les acteurs des prédictions d’un modèle modifie son comportement ce qui induit un changement des conditions de validité des prédictions : l’observateur modifie le système observé. Quelle doit être la bonne prescription et que doit-on évaluer sachant qu’une prescription peut être interpréter de manière très variée ?

Exemple : comment valider les prédictions de Bison futé
Exemple : comment le scientifique doit parler au politique sachant que le politique a parfois des objectifs antagonistes

 

 

 

Théorie et mesure des réseaux

Théorie et mesure des réseaux

Edition 2017

Contributeurs : Cyril Bertelle, Jean-Philippe Cointet, Jean-Pierre Gaudin, Damien Olivier, Jean-Baptiste Rouquier

Mots-clefs : Réseau complexe, graphe de terrain, grand réseau d’interaction, graphe, hiérarchie, clustering, communautés, dynamique, robustesse, données partielles, données contextuelles

Introduction

La technologie actuelle produit des données à un rythme toujours plus rapide, et une partie de ces données peut être modélisée par des graphes. Dans de nombreux domaines, le point de vue graphe apporte un éclairage complémentaires aux analyses spécialisées propres au domaine. Cela permet notamment d’orienter les recherches vers les voies les plus prometteuses, d’appréhender la structure d’une grande masse de données. L’approche réseau est un moyen de travailler l’articulation multi-échelle qui caractérise la plupart des systèmes complexes.

Pour tenter de dessiner les contours du domaine des réseaux complexes, nous proposons les trois critères suivants : il s’agit de graphes qui sont

  • construits à partir de données d’observation
  • suffisamment grands pour permettre des statistiques et une approche agglomérative
  • évoluant essentiellement par des mécanismes locaux

Quels sont les verrous actuels de l’étude des réseaux ? Quelles sont les problématiques communes à plusieurs disciplines ? Au fil des pages de la feuille de route, les réseaux sont mentionnés plusieurs fois. Le but est ici d’identifier les problématiques communes, qui appellent des méthodes communes.

Défis

  • Structure et hiérarchie, classification (translation of this section at the end)
  • Classification

Recueil et formalisation des données

A. Incomplétude des données

La non-exhaustivité des données peut provenir de différents facteurs : coût de rassemblement, soucis de confidentialité, stratégie de rétention des possesseurs de données (capitalisation de l’information). Une partie de ce défi peut être aujourd’hui surmontée par des protocoles innovants de collecte de données. Notamment, l’obstacle des coûts ou de faisabilité peut être réduit par le recours à des protocoles qui s’appuient sur des dispositifs d’information embarqués, comme les téléphone portables, les dispositifs munis de puces RFID (type navigo/oyster), des logiciels proposés à l’utilisateur, etc.

Ces difficultés sont encore augmentées lorsque l’on souhaite faire un recueil longitudinal (encore appelé dynamique, ou diachronique) de données. La dynamique est par exemple cruciale pour étudier un réseau de déplacement de population (qui montre des cycles journaliers et saisonniers) et sa réaction aux incidents, ou bien l’infrastructure internet (le réseau de routeurs et serveurs) dont la dynamique est plus rapide que le processus de mesure.

Ces difficultés de collecte peuvent induire une description lacunaire des réseaux. Pour travailler avec des données lacunaires, il y a principalement deux voies :

  • utiliser des modèles artificiels pour compléter les trous ;
  • s’appuyer sur d’autres sources pour combler les manques (par exemple, utiliser des données statistiques et démographiques pour estimer les données manquantes)
  • prendre en compte, dès la mesure, un indicateur de confiance sur toutes les données (par exemple la probabilité qu’un lien dans les données existe réellement dans le système mesuré, ou bien un intervalle de confiance sur le poids d’un nœud). Puis adapter les méthodes à ce type de données.

 

B. Enrichissement du formalisme réseau

Le formalisme de base des réseaux s’appuie sur une approche relationnelle stricte (et homogène en termes de nœuds) qu’il s’agit ensuite de remettre en situation de plusieurs manières :

1. Introduire d’autres contextes

Il s’agit notamment d’approches géographiques : utiliser le contexte physico-spatial. D’autres contextes sont la démographie, l’économie et la politique. Par exemple, comment travailler sur des données concernant la préparation d’un projet, les présents aux réunions, comment mesurer l’implication des partenaires ?
Leur prise en compte appelle à un enrichissement de l’analyse des structures relationnelles, et vice-versa : l’approche réseau éclaire ces contextes.
L’art du modélisateur prend toute sa mesure sur ces problèmes, pour contrôler quelle information est perdue lors de la modélisation (par exemple en approximant l’économie d’une ville par sa population et quelques flux tels que eau et argent), nécessairement schématique. L’information entrée dans le modèle peut être largement améliorée.

2. Donner du relief

Les réseaux dont les relations sont purement binaires décrivent des situations décontextualisées. Il s’agit donc de développer des procédures à même de prendre en compte plus d’informations :

  • un cas en cours est celui des réseaux orientés(ou dirigés) et/ou pondérés(ou valués: les nœuds et liens ont un poids)
  • la superposition de réseau (multi-réseau)
  • la sémantique des liens (par exemple, contenu textuel attaché à un échange d’emails)
  • des nœuds hétérogènes (s’il y a deux types de nœud, c’est un réseau biparti, mais il peut y en avoir plus)
  • hyper-réseaux : formalisation d’un tissu relationnel qui se constitue autour d’événements, d’enjeux et de co-production qui engagent un ensemble d’agents.

 

Dynamique

La prise en compte de la dynamique dans les grands réseaux est essentielle pour leur approche dans le cadre de l’étude des systèmes complexes. Trois aspects sont à considérer et sont développés dans la suite : la caractérisation de ces dynamiques, la mesure des dynamiques elles-mêmes et les propriétés induites.

1. Caractérisation des dynamiques

La dynamique peut s’exprimer de différentes façons non nécessairement exclusives :

  • la dynamique dans le réseau telle que la variation des flux portés par la connectivité du réseau,
  • la dynamique du réseau lui-même, correspondant à la variation de la topologie/structure du réseau.

De plus, ces deux dynamiques sont amenées à interagir et il est nécessaire alors d’étudier leurs pro-actions et rétro-actions.

2. Mesure de la dynamique

Il s’agit ici de pouvoir étudier et qualifier la trajectoire de l’évolution du réseau, avec la mise en évidence de certains comportements caractéristiques tels que des dynamiques lentes ou rapides ou encore des phénomènes de bifurcations.

L’inscription de cette dynamique dans le réseau conduit à des constructions morphologiques. L’étude de ce phénomène peut s’effectuer sous différents angles :

  • la genèse de l’apparition de ces formes (aspect stigmergique du processus : lien important entre la forme en construction et la dynamique),
  • la détection de formes localisées dans le réseau (réseaux sociaux, …) et la dynamique des processus d’auto-organisation qui en sont à l’origine,
  • l’influence du réseau global sur les processus émergents locaux.

Ces différents éléments amènent des questions telles que :

  • le réseau conserve-t-il les mêmes caractéristiques au cours de sa constitution ?
  • existe-t-il des étapes structurelles au cours de sa dynamique ?

 

3. Propriétés et maîtrise du réseau dans sa dynamique

La manipulation des grands réseaux en tant qu’outils de modélisation appelle à identifier des propriétés et des méthodes de contrôle ou de régulation.

On peut s’intéresser à l’expression de lois de conservation sur les réseaux en tant que structures discrètes et notamment transposer ces lois de manière opératoire sur des très grands réseaux. A l’opposé, on peut être amené à modéliser des effets dissipatifs.

Étudier la dynamique, c’est implicitement étudier la robustesse et la résilience. Comment des perturbations introduites sur le réseau modifient les trajectoires ?

Enfin, un problème important est celui du contrôle des trajectoires par des actions locales sur le réseau, et des dynamique multi-échelle. Comment une modification à un niveau d’échelle donné (par exemple au niveau méso : application d’une politique publique) se répercute sur les autres niveaux d’échelles ?


Structure et hiérarchie, classification

La hiérarchie peut signifier simplement un ordre d’importance entre les nœuds. Ordonner les nœuds permet de diriger les efforts vers les entités les plus importantes : les protéger (vaccination, sécurité, renforcement), les contrôler et surveiller, leur allouer plus d’effort pour les mesurer…

Mais de façon plus importante, parler de hiérarchie c’est parler de structures telle que dendrogrammes ou communautés hiérarchiques. Comprendre cette organisation multi-échelles est crucial pour comprendre à la fois comment les structures à grande échelle émergent d’interactions locales (de bas en haut) et réciproquement comment (de haut en bas) comment la structure globales (par exemple des institutions) influe sur les entités locales. Il faut bien sûr combiner ces deux approches, ce qui donnera une vision de l’échelle mésoscopique.

Beaucoup de méthodes fructueuses pour trouver de la structure dans un réseau ont été publiées : petit mondes et navigabilité, mesures de centralité, détection de communautés (cf. “Community detection in graphs”, Santo Fortunato, 2010)…
Il existe également des modèles de génération de réseau : attachement préférentiel, block model (voir “A Survey of Statistical Network Models”, Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, 2009). Une régression entre un tel modèle et des données permet de préciser sa structure.
Peut-on espérer une théorie plus unifiée ou un modèle intégré pour décrire la structure d’un réseau, adaptable à de nombreux cas particuliers ?

D’un point de vue technique, il manque toujours un logiciel générique pour analyser et visualiser les réseaux, bien qu’il existe des projets prometteurs (GePhi, Tulip…).


Classification

Il est classique de distinguer les réseaux naturels des réseaux artificiels. Les premiers on tendance à être assortatifs (ce que l’on appelle homophilie), leurs liens résultent d’affinités, tandis que les seconds font souvent preuve de l’effet inverse et des contraintes externes ont une influence (par exemple, des politiques publiques sur les réseaux commerciaux). Mais cette distinction sur l’origine des données a des limites dans ses capacités opératoires, il nous faut chercher d’autres classifications.

Il est aussi nécessaire d’avoir des approches différentes pour les petits et les grands réseaux : dans le premier cas on peut s’attacher à l’exhaustivité et apporter une attention à chaque nœud, tandis que le second exige une vision globale, un résumé du réseau.

Beaucoup de paramètres mesurables ont été définis (“Characterization of Complex Networks: A Survey of measurements”, L. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas). Nous avons maintenant besoin d’une vision globale sur les invariants et propriétés pertinentes pour classifier les réseaux. Nous avons besoin de façons de comparer les réseaux entre disciplines, pour faciliter le portage de méthodes, pour obtenir des idées précises et des intuitions de tous les domaines.

 

 

Groupe 4 – Formation, consolidation, diffusion et valorisation

Rapporteurs : Luc Foubert, Claire Lesieur
Contributeurs : François Dubois, Mathieu Leclaire, Claire Lesieur, David Vandergucht, Micks  Morvan, Bertrand Jouve, Valentina Lanza, Luc Foubert.

Mots-clés

formation, logiciels, données, banc d’essais, partage de méthodes, mise en commun d’outils, diffusion grand public, vulgarisation, conseil, startup, partenariats socio-économiques.

 

Introduction

Les dernières itérations des feuilles de route ont permis de dégager les grandes idées, fédérer la communauté et spécifier les grandes questions et les grands thèmes. La mission initiale du RNSC (Réseau National des Systèmes Complexes) était d’essaimer en créant des instituts des Systèmes Complexes sur le territoire français. Nous pouvons estimer aujourd’hui que cette mission est un succès, avec la création de 6 instituts : ISC-PIF (Paris), XSYS (Toulouse), IXXI (Lyon),  ISCN (Le Havre),  MISC (Orléans – Tours), Strasbourg, une action internationale (Campus Numérique des Systèmes Complexes), et des Réseaux Thématiques.

Il s’agit maintenant de consolider le réseau, diffuser la connaissance et les outils, et le valoriser auprès des acteurs publics et du monde économique. Les interactions diffuses et continues entre ces différents modes d’échange à l’intérieur comme avec l’extérieur de la communauté des système complexes nous ont conduit à segmenter les actions à mener selon 3 grands champs en fonction principalement du public auquel ils s’adressent et de leur temporalité. Ces 3 champs sont 1/ l’enseignement académique, 2/ les événements de consolidations et 3/ les partenariats de valorisation avec le monde socio-économique, étant entendu que ces modes d’interaction agissent de concert et en synergie. Il nous a semblé pertinent d’associer les actions de diffusion, de vulgarisation et de communication avec le grand public, avec les sessions de consolidations afin qu’elles puissent bénéficier du caractère événementiel et informel associé à la délivrance et la mise en commun d’outils ou de méthodes partagés par la communauté.

Nous proposons ainsi les orientations suivantes pour mettre en œuvre ces objectifs:

  • l’enseignement académique, par la formation initiale et continue vers l’intérieur et l’extérieur de la communauté SC.
  • la consolidation, par la mise en commun entre les ISC et les partenaires, d’outils, de méthodes, de services, d’infra-structures, et leur diffusion auprès d’un plus large public (vulgarisation et animations socio-culturelles associées aux temps forts des événements de consolidation).
  • la valorisation, grâce à la mise en œuvre de formation continue, de prestations de conseils, de partenariats contractuels ou encore de la création de “start-up”s vers et avec la sphère socio-économique.

Formation(s)

Nous avons considéré le mot “formation” en un sens très large : introduction aux concepts fondamentaux, aux problématiques, aux méthodes et aux outils via l’enseignement initial traditionnel et la formation continue.

État des lieux

Enseignement existant

Formation continue

Les JEDI sont des sessions courtes (une journée maximum) pour former aux outils développés en interne par l’ISC-PIF ou à des outils utiles à la communauté SC.

Les écoles d’été MAPS regroupe pendant une semaine des apprentis modélisateurs et les sensibilise à la modélisation multi-agent.

École de physique des Houches Complex Networks Thematic School

Défis

Enseignement

Nécessité de la mise en œuvre de parcours d’enseignement académique afin d’avoir des étudiants se distinguant par leur formation des autres disciplines. C’est une étape nécessaire vers l’ouverture de formation académique spécifique en systèmes complexes pour favoriser l’interdisciplinarité autour des thématiques couvertes par les SC.

Niveaux ciblés: licence, IUT, école d’ingénieur, master, PhD

Les deux questions majeures sont: à quel niveau académique et quel syllabus?

Quel syllabus? Un enseignement systèmes complexes ou un enseignement interdisciplinaire? Au niveau actuel il est difficile d’imaginer un enseignement purement systèmes complexes. Donc, pour le moment on pourrait commencer avec un enseignement interdisciplinaire: on partirait d’un problème nécessitant une intervention de plusieurs disciplines et on sensibiliserait les étudiants aux données et à la connaissance des données, puis on présenterait les outils pour modéliser, analyser et simuler ces données. On traiterait plusieurs problèmes issues de différentes interdisciplines pour créer une ouverture d’esprit.

Par exemple: chaque année on travaille sur des outils issue d’une discipline “dure” (physique, mathématique, informatique) appliqués à des exercices et des données issues de disciplines “molles”.

On propose en parallèle un enseignement plus généraliste donné par des spécialistes en  philosophie, histoire des sciences, linguistique, episthemiologie.

Quel niveau académique? Le manque d’expérience d’enseignement purement systèmes complexes nous amène à proposer une entrée académique mineur-majeur avec une intervention soit au niveau licence  soit au niveau master. En première année l’enseignement généraliste serait proposé, à partir de la deuxième on traite des problèmes interdisciplinaires en fonction des outils et des connaissances traités respectivement dans les majeures. De coup, les étudiants sont obligés de travailler en groupe interdisciplinaire parce que individuellement ils n’ont pas la vision globale nécessaire pour traiter le problème. Ils vont donc apprendre leur discipline par les enseignements et des notions d’autres disciplines par le travail de groupe au sein de l’enseignement proposé dans la mineure interdisciplinaire.

Programme: interdisciplinarité, travaux communs et thématiques croisées autour des données, analyse de données et modélisation/simulation.

Implémentation: à la carte, package horaire proposé par les ISC individuellement ou ensemble. (à clarifier?)

Étudiants concernés: toutes les disciplines

Pérennisation: stockage des cours, mise à disposition sur les sites ISC, école doctorale des systèmes complexes?

Exemple: “Prospective Study Program National University of Singapore”
Les étudiants de différentes disciplines niveau licence et master y suivent sous forme de ‘mineur’, un programme interdisciplinaire offert par des intervenants de différents départements. Le programme repose sur des liants entre disciplines (maths appliquées, physique appliquée, biologie des systèmes,) ou un enseignement décliné en gestion de données, analyse de données, modélisation et simulation.

Formation continue

Cibles:

  • ISC
  • Académiques
  • Partenaires: Industries et organismes publics

Échelle de temps:

  • au fil de l’eau: Jedi, formation CNRS, journées IXXI
  • Ritualiser: école d’été, de printemps

Type d’actions:

  • Workshop: techniques/utilisation d’outils (logiciel, traitement de données, représentation, etc.)
  • Meeting: thématiques croisées
  • Groupe de travail: traitement d’un problème spécifique.

Par exemple pour une formation Industrie/Académique:
Service aux entreprises: soumettre aux étudiants une question/un problème issue du monde économique et industriel pour tester et valoriser leurs expertises auprès des industries/institutions/public, en s’inspirant aux Semaines d’Etude Maths-Entreprises organisées par l’AMIES.

Moyens:

  • Intégration des écoles d’été dans les formations offertes par les grands organismes (EMBO, FEBS, etc.)
  • Écoles doctorales
  • Labellisation: les ISC pourraient envisager de demander un label européen pour valoriser la formation en systèmes complexes. Cette labellisation permet d’accéder à des soutiens financiers, une visibilité européenne et introduit une notion de qualité des formations.

Consolidation

Les différents instituts ont orienté leurs recherches et ont créé au cours de leur développement des outils pour mettre en œuvre des méthodes innovantes dans ces directions de recherches. Nous faisons ici un tour d’horizon des réalisations mutualisées de ces Instituts et nous proposons des axes de consolidations plus forts.

Après l’effort de l’essaimage des Instituts des Systèmes Complexes, doit venir le temps de la cohérence et de la mutualisation. Cette mise en commun doit être un médium pour définir les Systèmes Complexes, référencer les outils existants, mettre en commun les ressources de calcul et les ressources humaines. Au fil des années, les ISC ont développé des outils permettant de mieux observer, modéliser, simuler des systèmes complexes. Ils ont été pensés pour être génériques et transdisciplinaires.

État des lieux

Systèmes complexes à l’international

Complex system Society (http://cssociety.org/home)
Young Researchers Network on complex system (http://yrncs.cssociety.org/)

Outils mutualisés

Les expérimentations systèmes complexes mettent en jeu des simulations lourdes en temps de calcul. Un effort de mutualisation des ressources de calcul a été initié dès 2008 avec l’acquisition de machines pour le calcul sur grille de calcul ( EGI ) par l’ISC-PIF. Des investissements logiciels pour permettre l’utilisation automatisé de ces ressources ont été mis en place (OpenMOLE). Cette mutualisation répond bien au type de simulations réalisées dans la communauté: des batchs de simulations très importants sont réalisés en pic, laissant ensuite les infrastructures disponibles pour le reste de la communauté On observe depuis 10 ans une montée en charge de l’utilisation de ces ressources sans encore arriver à une adoption massive. Cette adoption massive est étroitement liée à l’adoption des outils de calculs distribués. L’un n’ira pas sans l’autre.

Pour le moment, la mise en commun des outils et des méthodes se fait se fait depuis chaque ISC vers ses propres partenaires.

Liste des plateformes de calcul

Bioemergences

Bioemergences est une plateforme regroupant des outils d’observation multiéchelles et multi-modales dans le cadre d’une modélisation de processus biologiques. USR3695 / ISCPIF

Gama

La plateforme Gama est une plateforme de modélisation agent permettant de décrire des règles d’interactions, de simuler et de visualiser des modèles multiagents. Gama est développée de concert par 5 entités université de Rouen, université de Toulouse, université d’Hanoi, université Paris Sud, université de Can Tho

GarganText

GarganText est une plateforme de data mining qui permet de rechercher des cooccurrences de termes dans un corpus de textes et de générer une carte interactive de proximités des termes. Elle permet par exemple de générer un état de l’art en quelques secondes selon une base d’articles. Son développement a été impulsé et financé par l’ISC-PIF

Graphstream

Graphstream est une librairie Java pour la modélisation et l’analyse de graphes dynamiques. Elle a été développée par l’Université du Havre en collaboration avec l’Institut des Systèmes Complexes en Normandie

LinkrBrain

LinkrBrain est un outil en ligne pour l’exploration et la visualisation de données neurologiques.

Multivac

est une plateforme permettant d’accéder à de grandes quantités de données sous la forme d’API. Elle met à disposition des outils de traitement parallèle de ces données de manière polymorphe (Hadoop, Spark, etc). Elle a permis de générer des applications pour étudier le climat, les élections présidentielles 2017, etc. Son développement a été impulsé et financé par l’ISC-PIF

OpenMOLE

OpenMOLE est une plateforme d’exploration des modèles numériques. Initialement développée pour l’étude des modèles de systèmes complexes stochastiques, elle permet une approche générique pour explorer, optimiser et réaliser des analyses de sensibilité sur les modèles. OpenMOLE permet aussi de distribuer la charge de calcul des expériences numériques sur une grande variété d’architectures de calcul haute performance (serveur, cluster, grille de calcul, cloud, etc.). Son développement a été impulsé et financé par l’Institut des Systèmes Complexes Paris Ile de France (ISC-PIF)

A part les infrastructures logiciel, des lieux  de travail mutualisés permettent des échanges entre les chercheurs du domaine. Par exemple,   l’ISC-PIF  permet la réservation de salles de réunion, salles de séminaires (jusqu’à 60 personnes) et auditorium pour conférences (130 personnes).

Vulgarisation / communication

Des manifestations mettant en évidence le lien entre l’approche systèmes complexes et des problèmes de la vie quotidienne permettront , de sensibiliser le grand public à nos travaux et susciter des nouvelles vocations d’une part, et de mettre en évidence l’apport d’une démarche pluridisciplinaire de l’autre.  On pourrait s’inspirer de la “Caravane des Sciences” animé au Maroc par le  Réseau international de recherche en théorie des systèmes  regroupant neuf centres de recherche de huit Universités marocaines
et de nombreux centres de recherche dans le monde (http://www.theoriedessystemes.net
). 

La communauté SC participe deja à:

  • Fête de la Science
  • Articles de presse, journal télévisé (intervention sur TF1 deux jours avant le second tour de l’élection présidentielle) autour de l’outil politoscope (https://politoscope.org/press/).

Défis

La mise en commun des outils maison et des outils préconisés devrait être renforcée entre les ISCs à l’échelle nationale. L’objectif est double: nous connaître mieux nous-mêmes: que font les autres dans la communauté ? et également mieux orienter les personnes s’intéressant aux SC en leur donnant des points d’entrée cohérents avec leurs centres d’intérêt.

Promouvoir les outils

Nous avons une connaissance partielle des outils développés par les autres instituts. Nous en avons fait une liste non exhaustive dans le paragraphe précédent. Nous préconisons cependant la création d’un point d’entrée dynamique recensant ces outils. Un site web mutualisé semble indiqué. Il pourrait permettre également de recommander des technologies. Citons de manière non exhaustive:

  • Netlogo: Plateforme de modélisation multiagent permettant de faire prototyper rapidement un modèle multiagent par des non-informaticiens
  • Gephi pour la visualisation des graphes complexes.
  • Spark: framework de calcul distribué pour l’exploration de données massives.

Faire apparaître et mettre à jour ces recommandations dans une vitrine mutualisée permettrait d’avoir une vue à jour.

Promouvoir des pratiques

Un outil pour la communauté : une base de documents “hal”
Permettre le dépôt avant publication de documents de recherche juste terminée sur une sous-section de la base de données “HyperArchives en ligne” du Cnrs. Ceci permettrait de renforcer l’identité de la communauté des Systèmes Complexes.

Réaliser et publier des datasets

Rôle des ISC: encourager et accompagner les partenaires dans la réalisation des datasets.
Cet accompagnement peut se traduire par:

  • une aide méthodologique: quelles sont les informations à fournir pour bien documenter la production du dataset ?
  • une aide thématique: quels sont les datasets d’autres communautés qui peuvent servir un autre cas d’usage ? Peut-on s’en inspirer ?
  • une aide technique: Proposer des solutions d’hébergement des données, des solutions de présentation et d’accès aux données.
Produire des données / du code pour le bien commun:

La réalisation de jeux de données à un coût. Il faut trouver un mode de rémunération qui permet de gratifier le producteur de données tout en garantissant que la donnée produite reste libre et gratuite. La gratification ne doit aller qu’au producteur de la donnée pour éviter le problème récurent des rentiers de la donnée. Les avancées en termes de cryptoéconomie (blockchain) laissent entrevoir un large champ d’investigation en ce domaine: des producteurs de données pourraient répondre à un appel à production de données via une certification contractuelle dans la blockchain servant de tiers de confiance. Le producteur serait rémunéré après validation pour sa production seule.

L’objectif ici est de traiter la donnée comme faisant partie prenante d’un ensemble de composants contribuant à la démarche scientifique, et doit donc être disponible pour permettre à la science d’être reproduite.

Pour faciliter le croisement des communautés, les données comme les programmes doivent être ouverts, mais cet aspect va parfois à l’encontre des politiques internes des partenaires. Une offre de conseil et d’accompagnement peut s’avérer nécessaire afin de présenter des modes opératoires rendant compatible la mise à disposition ouverte des données ou des codes tout en garantissant une viabilité économique (conseil, expertise ?)

Piloter la réalisation de benchmarks

La maîtrise d’une base de données permet ensuite une confrontation aux modèles issus d’autres communautés. À la façon de la communauté de traitement d’images, une base de données a un intérêt pour quelqu’un qui développe un nouvel outil et a besoin de le confronter au réel existant. Il lui suffit de contacter le responsable de la base de données (supposé bien connu !) afin d’avoir en retour la performance de son simulateur. Ce type d’intervention peut donner lieu à une rémunération à définir.
Proposer des plateformes d’évaluation comparée des algorithmes sur un jeu de donnée connu et partagé. Les ISC peuvent fournir l’infrastructure nécessaire à l’évaluation (automatique) des codes soumis sur des datasets privés, la publication des résultats. Example: Kitti, Pascal VOC

Un défi : renforcer le réseau européen

Aux États-Unis, la biologie des réseaux, est fortement intégrée à la discipline “Science des Réseaux”, ce qui lui donne de fait une reconnaissance claire dans la communauté des biologistes. Ce n’est pas aussi évidemment dans la communauté française. Le réseau des systèmes complexes peut-il être amené à jouer un tel rôle vis-à-vis des équipes de recherche qui participent de ses travaux ?

Mise en commun d’infrastructures

En matière d’infrastructure technique, élargir l’offre pour mieux répondre à la diversité des besoins et prendre en compte que bien souvent, il n’y a pas chez les partenaires de moyens humains pour faire l’installation et la maintenance de “couches informatiques” nécessaires à, mais pas centrales dans le cadre des travaux de recherche. Exemple: Grille de calcul – > outil intégré de calcul distribué. Cloud: outil d’infrastructure, sur lequel tout est à bâtir. Il manque des niveaux intermédiaires (en s’inspirant des grands fournisseurs de service cloud): PAAS, Plateform as a Service et SAAS, Software as a Service.

Vulgarisation / communication

La définition des termes liée aux systèmes complexes fait souvent débat. Il est pourtant nécessaire de s’accorder sur une vision que la communauté veut donner de ces termes. La communication autour de ces définitions doit donc pouvoir prendre plusieurs formes afin d’adresser ces différentes perspectives, échelles et niveaux de difficulté.

Au-delà de l’aspect formation en enseignement, la communication autour des systèmes complexes doit être l’objet d’un travail de vulgarisation, travail qui doit exploiter le multimédia (textes, dessins, vidéos) et les références multiples à des domaines d’applications divers (différentes “recettes” ou cas d’usage mettant en oeuvre une même méthode).

Cet effort de vulgarisation devrait être pris en charge par l’ensemble des instituts, à la fois sur le plan financier et en termes de production scientifique.

Valorisation

État des lieux

On remarque qu’il y a une dissymétrie entre la production académique (codes, outils, données…) et le réel transfert aux partenaires. Il est donc le temps de réfléchir aux moyens de promotion de ce transfert.

Dans la Section Consolidation on a mis en avant des bonnes pratiques à promouvoir pour augmenter la visibilité de la production au sein de la communauté SC et donc, à partir de ce travail et de l’inventaire des besoins des partenaires, on pourra optimiser la valorisation et le transfert vers les partenaires.

Défis

Un défi de service : l’audit complexité

Est-ce qu’on peut déterminer des critères qui permettent de définir la complexité pour que les partenaires sachent quand faire appel à la communauté  des systèmes complexes? Ici on fait une analogie à l’audit qualité.

Une dynamique de transfert, pour arriver à se placer sur le marché

Les réseaux des Systèmes Complexes jouent-ils vis-à-vis de la recherche scientifique le rôle d’une direction de programme dans l’industrie ? On sait que ces grands comptes chargés de développer des systèmes artificiels “compliqués” comme une automobile ou un avion s’organisent sous une forme matricielle. D’une part, les directions de spécialités comme l’automatique, la mécanique, l’électromagnétisme, etc.) et d’autre part les directions de programme : un programme est associé au développement d’un produit commercialisé par l’entreprise ; il s’appuie sur les compétences existantes, suscite aussi des améliorations des compétences et a une durée de vie finie par nature. Avec un changement d’échelle qu’il conviendrait de définir, on peut se poser la question de savoir si des structures comme les ISC (ou l’INRIA qui a mis en place depuis longtemps une structure de recherche par projet) jouent le rôle d’une direction de programme dans le monde industriel. Ceci se caractérise par le fait d’admettre qu’un chercheur dans un laboratoire de Systèmes Complexes n’est pas le meilleur expert d’une discipline comme l’analyse des modèles, la statistique, l’optimisation ou la mise en œuvre informatique (il peut aller chercher l’information dans les laboratoires de spécialité) mais est capable de prendre en charge une question posée par un acteur social (monde politique, économique et social) et d’apporter des réponses qui peuvent se traduire par des “break through” économiques.

De plus, suite au succès d’un projet et à la demande d’utilisateurs issus du monde économique et administratif, est-ce qu’on peut arriver à la création de “start-up”s, sur le modèle des sociétés de service issues de l’INRIA?  Même si les données sont publiques et les outils de simulation sont dans le domaine public, le savoir-faire acquis au cours des exploitations permet de gagner un temps indispensable pour des utilisations ultérieures. Si on prend comme référence les niveaux de maturité technologique ou “Technology Readiness Level”, il s’agit de passer typiquement du niveau 3-4 (le prototype qui fonctionne) au niveau 5-6 (participation à un futur produit qui sera commercialisé). La mise en place de structures commerciales est naturelle dans cette perspective.

 Valoriser les logiciels

Le développement d’outils comme Gargentext ou OpenMOLE est typiquement le résultat de cinq années de travail pour une équipe de deux ou trois chercheurs et ingénieurs. Le passage du développement à l’exploitation au service de nouvelles demandes peut induire un changement dans la façon de travailler. En particulier, le transfert de l’outil logiciel de son concepteur initial à une équipe chargée de l’entretenir, ou même commercialiser son utilisation. Bien entendu, ce type d’action demande des moyens humains spécifiques à mettre en place.
D’un point de vue humain, l’industrialisation ou même la simple consolidation d’un code de recherche par une équipe tierce peut être mal vécue (égo, dépossession de son travail) et peut être source de frictions. Le partage d’expérience, et les exemples inter communautaire peuvent aider ce processus nécessaire.

Valoriser les bases de données

Savoir passer d’une base de données gérée au niveau personnel à un outil partagé par une communauté. Le développement d’une base de connaissances est toujours un travail de longue haleine. La tentation pour une équipe qui a créé une telle base est grande de la conserver pour elle. On peut s’inspirer ici de l’expérience des biologistes et dépasser les réticences. Les expériences de rayons X afin de déterminer la structure des protéines demandent un effort expérimental très important. Comment partager ces données en rendant justice aux équipes qui les ont produites ? Une solution proposée par les biologistes (référence ?) est la suivante : la base de données devient publique, mais si elle est utilisée pour des travaux ultérieurs, l’utilisateur se doit de citer les travaux de ceux qui ont transmis leurs données. Un type de création de Bien Commun qui doit pouvoir être transposé aux Systèmes Complexes.

Conclusion

Une instance interinstitut, le RNSC par exemple, doit pouvoir fédérer les efforts de mutualisation et de vulgarisation afin de rendre plus lisible et cohérente notre vision de la discipline. Les objectifs sont multiples: i) mieux nous connaître entre instituts (nos forces, nos faiblesses, nos redondances), ii) mieux communiquer sur ce que nous sommes collectivement capables de proposer.

Nous préconisons donc la création d’un site web, coordonné par le haut, mais alimenté par les instituts. Il devrait y figurer la liste des instituts avec un lien vers leurs sites respectifs, des définitions communes des termes systèmes complexes (idéalement illustrés par des textes, dessins ou success-stories), une liste dynamique des outils mutualisés avec un renvoi pour leur apprentissage, une liste dynamique des formations à venir dans les différents instituts (où idéalement la localisation des formations sont croisées), la possibilité pour chaque laboratoire satellite d’écrire une page pour décrire sa contribution ou sa success-story SC, la liste dynamique des publications scientifiques système complexe, cette présente feuille de route. Cette liste n’est pas limitative.

 

Groupe 8 – Connaissances et systèmes complexes: conception de modèles

Auteurs par ordre alphabétique: Guillaume Chérel, Claire Lesieur, Maud Loireau, Maël Montévil, Micks Morvan, Jean-Louis Rouet, Véronique Thomas-Vaslin,  Alain Trubuil, Roger Waldeck, Romain Yvinec

Formaliser un système complexe sert à en construire une représentation partagée, à le décrire pour réduire les ambiguïtés, à tester des hypothèses et à comprendre son comportement. Il s’agit de formaliser au mieux les connaissances du moment pour résoudre certaines questions. Concevoir, représenter ou modéliser formellement un système complexe aide à expliciter le raisonnement à son sujet, rendre ce raisonnement rigoureux et le communiquer en réduisant les ambiguïtés. Ce travail nécessite des simplifications et approximations qui restreignent et idéalisent la complexité des phénomènes. Le cas particulier de la traduction sous forme informatique pour la simulation prend une place croissante dans de nombreuses communautés scientifiques. Ce type de représentation soulève des questions sur le sens que l’on donne à ces modèles dans le travail scientifique, sur les connaissances que l’on s’autorise à tirer d’expériences numériques ou de raisonnement mathématiques et logiques. Ces questions sont abordées dans la première partie de ce chapitre.  La construction de modèle idéalise toujours son objet, mais elle respecte aussi des critères théoriques plus généraux, propres aux disciplines (telle que la conservation de l’énergie en physique). Nous pointons dans une seconde partie plusieurs aspects qui nous semble nécessiter ce genre de développements théoriques dans le contexte de certains systèmes complexes.

La conception et la validation d’un modèle font intervenir un certain nombre de notions qu’il convient d’expliciter étant donné la diversité des pratiques et des situations. Dans les sciences naturelles, il convient de distinguer les relations heuristiques des modèles causaux. Les relations heuristiques imitent le comportement de l’objet d’étude sans viser à réellement comprendre ce comportement. Par contraste, les modèles stricto sensu visent à rendre compte de relations d’ordre causal dont le modélisateur fait l’hypothèse. C’est en ce sens que le modèle permet de comprendre le phénomène.  Dans les sciences sociales comme en biologie,  la modélisation à visée  conceptuelle est à distinguer de celle à visée empirique.   Le modèle à visée conceptuelle soulève la question de sa validité empirique et le modèle à visée empirique celui de sa généralisation théorique. Le choix d’une approche ou de l’autre va dépendre des objectifs de la modélisation, des connaissances générales disponibles, voire des possibilités du dispositif expérimental associé, le cas échéant. De nombreux modèles combinent ces approches, les relations heuristiques servant notamment lorsque les connaissances sont insuffisantes. De plus, nous voulons insister sur l’importance des cadres théoriques pour guider la conception de modèles. Ainsi, les principes de Newton facilitent la conception des modèles en mécanique classique tout en justifiant la forme qu’ils prennent. Enfin et bien évidemment, les résultats de l’analyse d’un modèle sont cruciaux pour sa validation et sa confrontation empirique. Pourtant il  est aussi  nécessaire de conceptualiser des modèles hors de la physique de Newton en particulier en biologie car la complexité dépasse les approches de la physique classique. Certains modèles se sont alors pas calculables ni simulables du  fait de la complexité sous-jacente.

Défis% A supprimer?

exploitation des outils de modélisation de connaissances dans le cas des systèmes complexe / faciliter l’actualisation  des modèles numériques à partir de l’enrichissement du modèle de connaissance

cf. KADS

Validation de modèles et adéquation avec l’objet d’étude

Introduction générale et enjeux :

Faire un modèle formel d’un système, c’est l’interpréter dans un langage qui fait apparaître aussi explicitement que possible tout ce qu’on y représente. L’interprétation peut être mathématique, informatique, ou algorithmique. Cette interprétation est contrainte par les règles du langage formel que l’on utilise et par les concepts que l’on est capable de représenter dans ce langage. Si cette interprétation particulière est intéressante, c’est parce que les langages formels nous donnent accès à des outils théoriques et techniques qui jettent une nouvelle lumière sur le système. Par exemple, lorsqu’un langage formel est traduisible sous forme algorithmique, on peut utiliser des ordinateurs pour effectuer des calculs très rapidement. On peut alors observer et faire des expériences avec cette interprétation particulière du système, en simulation.

Cette représentation formelle, simulée sur un ordinateur, produit des résultats que l’on peut l’observer, analyser et tester, avec le niveau de détail souhaité, ce qui n’est pas toujours réalisable avec l’objet d’origine. Pour les systèmes complexes, ceci veut dire que l’on peut:

  • observer les parties sans intervenir sur le système (sans être invasif, sans perturber son fonctionnement),
  • observer simultanément de nombreuses entités,
  • observer leurs interactions,
  • avoir simultanément un compte rendu à différents niveaux d’observation du système pour établir une correspondance entre comportement des parties et du tout, à différentes échelles spatiales et temporelles

Il se pose alors la question de l’adéquation entre cette représentation formelle étudiée en simulation et les phénomènes que l’on représente. Quelle rôle peut-elle jouer dans leur étude scientifique?

Il existe deux classes de conception de modèles, les modèles top-down et les modèles bottom-up. Dans le premier cas, la conception part de la connaissance des données pour arriver à leur simulation avec comme but une prédiction sur les données ou leur comportement, une tendance. Ces modèles portent souvent une responsabilité décisionnaire, ils sont donc support de discussion au sein d’une large communauté, et ont une visée exploratoire. Ce sont souvent des modèles avec des analyses statistiques supervisées ou  non.

Dans le deuxième cas, les connaissances ne sont pas considérées dans leur ensemble mais découpées en sous problèmes qui sont modélisés individuellement. Il s’agit de répondre à une question mécaniste visant à augmenter la compréhension d’un phénomène. Le travail est autour de l’architecture des connaissances plutôt que leur prédiction. Cependant ces modèles mécanistiquespeuvent aussi  servir à  des simulations et des prédictions permettant d’évaluer des paramètres quantificatifs.

Les deux conceptions partagent les mêmes règles de conduite: test et challenge du modèle pour validation et itération. Les données servent à construire le modèle et les simulations servent à comprendre les données et réadapter le modèle.

En sciences sociales, deux méthodologies sont souvent citées  :  l’individualisme méthodologique et le holisme.  Celles-ci influent aussi le rapport des modélisateurs aux données. Une approche fondée sur les données crée des heuristiques comportementales  et pose la question de leurs liens avec les raisons d’agir  des individus. Les règles comportementales spécifiées peuvent elles-mêmes être considérées comme potentiellement évolutives et donc se posent la question de la définition de méta-heuristiques.  L’individu “cognitiviste ” est plus proche d’une approche en termes d’individualisme méthodologique.  Quelle forme de rationalité  doit-on supposer pour les individus et quels liens peut-on faire entre modèles cognitifs, données observées et heuristiques comportementales?  L’économie expérimentale et la neuro-économie s’appliquent à comprendre l’individu dans un contexte d’interactions  sociales. La simple agrégation des  comportements observés en laboratoire pour comprendre un phénomène collectif ne va pas de soi par l’importance des interactions qui crée autant de contexte particulier dans lequel se prennent les décisions. En retour,  les observations au  niveau des individus dans des contextes hautement contrôlés  posent la question de  leur généralisation à des contextes réels et complexes.

Dans les modèles top-down un des enjeux est d’avoir une conception servant de support de discussion et de communication au sein de communautés diverses. La communication est une difficulté permanente dans les travaux interdisciplinaires, il existe des solutions pour y remédier qui dépendent de la perception et formation de chacun. Différentes spécifications plus ou moins précises peuvent être mise en œuvre,  elles vont de la spécification des entités et de leurs principales relations d’interdépendance, à l’usage de formalisme mathématiques, déterministe, probabilistes, stochastiques. Ainsi, les langages graphiques permettent un haut niveau d’abstraction pour les modèles, et facilitent la communication entre disciplines, sans nécessairement aller jusqu’à la simulation du système complexe modélisé.  Ils permettent une interopérabilité entre modèle par exemple continus et discrets, et l’exécution de processus en parallèle. Les formalismes mathématiques et informatiques permettent de spécifier formellement les dépendances entre les entités et donc d’aller jusqu’à la simulation  (Efroni et al 2005).

Succès:

La refactorisation de différents modèles continu ou  discret (ODE, agents) avec des processus parallèles, sous langage de haut niveaux exécutable,  et générant également les équations mathématiques  et state machine du  modèle (McEwan  et al. 2011,  Bersini et al.  2012, Thomas-Vaslin et al. 2013).

Enjeux sociétaux%?

Un exemple d’analyse computationnelle des modèles comme boîtes noires

Prendre le modèle comme une boîte noire, ici, c’est le voir comme une fonction qui prend des entrées et renvoie des valeurs de sorties, et étudier celles-ci sans regarder la manière dont elle est écrite. L’intérêt de l’approche boîte noire est de développer des méthodes génériques car indépendantes de l’implémentation particulière du modèle. En suivant cette approche, on peut aborder plusieurs questions qui se posent au cours d’un travail de recherche qui fait intervenir un modèle, et qui se ramènent à un problème d’exploration d’espace de paramètres.

Une première question est l’étalonnage (ou la calibration) du modèle: on estime les valeurs de paramètres avec lesquels le modèle reproduit une observation qu’on a fait par ailleurs sur le système d’origine. 

Dire qu’un modèle reproduit des données récoltées par ailleurs sur des phénomènes ne permet pas a priori de généraliser à d’autres phénomènes. Pour accroître la confiance en un modèle, on peut le mettre à l’épreuve en recherchant les différentes valeurs de sortie qu’il peut produire, et ainsi voir s’il en existe qui sont en contradiction avec les observations du système d’origine ou des connaissances théoriques. Ces valeurs de sortie inattendues donnent au modélisateur l’occasion de revenir sur son modèle et de se demander si les hypothèses qu’il y a inscrites sont justes.

Succès

Depuis 2008, la plateforme OpenMOLE est développée en collaboration avec des chercheurs de différentes disciplines pour piloter des expériences avec des modèles en simulation. Elle a été utilisée dans la production de plusieurs résultats scientifiques, pour:

  • étalonner un modèle de système de ville (Shmitt et al. 2015)
  • étudier le rôle de chaque paramètre d’un modèle pour reproduire des données (Reuillon et al 2015)
  • étudier la diversité des sorties d’un modèle de système de ville (Chérel et al 2015)
  • Et d’autres travaux… (TODO lien publications openmole)

Encadrer les modèles par des principes théoriques

La validité d’un modèle ne dépend pas que de son comportement en termes de boite noire. Une approche complémentaire consiste à baser l’écriture et l’interprétation de la formalisation des modèles sur des principes théoriques explicites, possédant une certaine généralité. Cette approche a plusieurs avantages. Elle facilite l’interdisciplinarité au sens où la discussion critique de ces principes est souvent plus aisée que celle de la formalisation mathématique de ces modèles. De plus, elle permet dans une certaine mesure de standardiser la manière d’élaborer les modèles, ou dans le cas contraire de comparer les hypothèses de modèles ayant des prémisses différentes.

Succès:

  • Comportement des cellules

Un exemple d’application est la manière dont est modélisé le comportement de cellules dans un contexte tissulaire. Ainsi, on peut supposer que l’état par défaut des cellules est la prolifération, auquel cas, l’écriture d’un modèle se focalisera sur l’explicitation des causes contraignant cet état par défaut, et pouvant conduire, dans certains cas à la quiescence (Montévil et al 2016). Cette voie nous semble mériter une attention particulière pour la modélisation dans des disciplines ne possédant pas de théorie générale encadrant la modélisation (biologie des organismes, systèmes sociaux).

Remplacer des relations heuristiques par des relations causales

L’élaboration de modèles s’intéressant à des objets nouveaux est souvent confronté à une connaissance insuffisante de la situation empirique. Il est alors souvent plus fructueux de proposer néanmoins des modèles en utilisant des relations heuristiques le cas échéant, puis des les élucider expérimentalement.

Succès:

  • Modélisation de la dynamique des lymphocytes du système immunitaire (Thomas-Vaslin 2015)

La conceptualisation de modèles expérimentaux et la modélisation et simulation de la dynamique de prolifération et sélection des lymphocytes T ont été proposées avec des approches de biologie de systèmes (Thomas-Vaslin, et al 2013a). Ces approches ont déjà permis de montrer que la dynamique de systèmes biologiques complexes comme le système immunitaire est très variable selon le contexte, et hétérogène  selon les type cellulaires, et sous l’influence des niveaux inférieurs et supérieur d’organisation. La conceptualisation initiale de cette dynamique des lymphocytes a été réalisée avec des boîtes “noires “ (Thomas-Vaslin et al 2008, Thomas-Vaslin et al. 2012). Puis des boites “blanches”, sous forme de diagramme de transition et les simulations validées sur des observations expérimentales ont été menées. Quand on augmente la granularité de l’observation et que l’on explore le temps (âge de l’organisme et les stades de différenciation des cellules), l’espace (les cellules évoluent et migrent dans différents tissus) et l’origine génétique des organismes, on découvre alors l’hétérogénéité et complexité du comportement des lymphocytes (Vibert et al 2017).

Des modèles pour la communication

L’utilisation de langage graphiques

Succès:

En biologie des systèmes, ce langage graphique a déjà permis une interopérabilité de modèles ODE (Ordinary Differential Equation) continus et déterministes, par exemple permettant de modéliser des populations, et des modèles discret, stochastiques, tels des automates cellulaires, avec des agents.

Par exemple, la différenciation, la sélection et la régulation des lymphocytes peut ainsi être modélisée à l’aide de diagramme de transition. Cela a permis aussi la refactorisation de modèles hétérogènes déjà publiés (McEwan et al 2011, Bersini et al 2012,Thomas-Vaslin et al 2013) mais aussi  l’exécution à  partir du  code sous jacent et des simulations dans différents contextes.

Défis:

  • La génération du code automatiquement à partir des graphes de haut niveau permettrait de proposer des interfaces afin que les biologistes puissent plus directement spécifier leur modèles et leur environnement.
  • L’intégration de substances et de processus depuis des ontologies ou bases de connaissances permettrait de faciliter la standardisation et l’articulation de modèles à différents niveaux. Par exemple en biologie on pourrait s’appuyer sur des ontologies décrivant le contexte physio-pathologique d’un organisme, le contexte anatomique, les types de cellules, les gènes et protéines comme cela est déjà utilisé dans le text mining pour l’extraction automatique de connaissance de la littérature (Bedhiafi et al) mais aussi les processus qui permettent les interactions entre ces entités.

Le problème des boîtes noires:

Lorsqu’un modèle est un succès se traduisant par un grand nombre d’utilisateurs, il conduit souvent à un problème d’opacité. Les mécanisme du modèles, ses hypothèses ne sont plus disponibles et accessibles aux utilisateurs, il devient une “boite noire”. Les conséquences des “boites noires” sont diverses et sont un grand enjeux des prochaines années. TEXTE MAUD.

  • Utilisation
  • Transfert à d’autres objets (territoires, type cellulaire, etc..)
  • Adaptation du modèle aux nouvelles connaissances

Le problème de la reproductibilité

L’utilisation de l’ordinateur concerne maintenant tous les domaines scientifiques. Les développements de modèles de plus en plus complexes (prises en comptes des interactions non linéaire entre agents), l’utilisation de logiciels ou progiciels dédiés ou non, le traitement de bases de données hétérogènes posent la question de la reproductibilité des résultats obtenus. Dans le domaine des sciences économiques, des études pointent la difficulté de reproduire des résultats publiés (William et al 1986, McCullough 2006). Cette constatation dépasse probablement ce seul cadre. La rapidité du développement des codes de calcul accroît les erreurs logiques ou numériques. Pour répondre à cette question et lever les doutes quant aux résultats publiés, des initiatives ont été prises. C’est le cas de Run My Code, site compagnon de revues qui permet aux auteurs de déposer leur codes et jeux de données afin qu’ils puissent être rejouées à la demande, ou encore la création de la revue ReScience qui encourage la réplications de résultats déjà publiés. Récemment, l’UMS Cascad, Agence de certification des publications scientifiques propose que les résultats de publications soient certifiées à un moment du processus d’évaluation des articles.

La question de la reproductibilité est aussi liée à celle de la résilience des codes dans le temps. Ces questions ou pratiques, si elles sont transversales, concernent évidemment aussi les résultats des modèles portant sur les systèmes complexes.

Défis

  • Les modèles devraient être validés sur des set de données indépendantes et d’observation expérimentales bien contextualisées, ou extraites automatiquement de la littérature selon leur contexte. Ceci nécessite un couplage du text mining et data mining et la définition du contexte précis, pour alimenter les modèles dynamiques.

Commentaires : Il est sans doute important de faire une distinction entre des modèles complexes destinés à être réutilisés pour de la prédiction   et des modèles supportant une hypothèse de recherche mais n’ayant pas vocation à réutilisés de manière intensive. Dans le premier cas, il est évident que des moyens sur le long terme doivent être mis pour faciliter la mise à jour du modèle, sa maintenance opérationnelle et son évolution par des tiers (accès pour une communauté). Dans le second cas même si cela serait souhaitable il semble difficile de garantir la reproductibilité sur le long terme et vérifier la reproductibilité dans un délai raisonnable autour de la publication du modèle semble plus réaliste.

Les questions qui se posent me semblent être :

Qu’est-ce qui serait utile pour faciliter la maintenance opérationnelle des codes, leur actualisation. Que pourrait proposer les ISC dans ce cadre?

Défis théoriques pour la modélisation

Commentaire:  je pense que toute cette partie (organisation, historicité, rapport tout partie,  émergence etc…) devrait être en tout premier, avant les modèles numériques et la validation: la théorie et la conceptualisation de modèles de systèmes complexes et de leurs caractéristiques devrait être en amont de la modélisation graphique, mathématique ou informatique qui  sont des formalismes d’exécution.

La problématique de l’organisation (auto-organisation) des systèmes vivants doit être abordée de façon théorique, notamment afin d’encadrer les modélisations. Questionner la forme et les caractères majeurs d’une organisation, quelle que soit ses échelles, doit permettre de mieux comprendre le comportement de telles organisations. Les organisations biologiques sont caractérisés par une historicité et une relation à leur extérieur qui sont problématiques. Interroger la variation, l’ordre, le désordre, la robustesse, la résilience, la stabilité toute relative, la fragilité, le passage d’un niveau à l’autre et l’émergence permettrait de concevoir aussi la désorganisation et le vieillissement au cours du temps, les points de rupture, l’effondrement et la disparition de ces systèmes ouverts, dissipatifs d’énergie.

La proposition de cadres théoriques mais aussi de modèles mathématiques et/ou informatiques permettant de rendre compte des changements de telles organisations pourrait être proposés.

Comprendre l’historicité dans les systèmes complexes

Les objets biologiques sont le produit d’une histoire évolutive et développementale. L’historicité de l’objet d’étude concerne aussi les sciences sociales, par exemple l’étude de paysages en géographie ou le développement technologique des biens échangés en économie. L’historicité existe dans certains modèles mathématiques sous la forme d’une dépendance au chemin parcouru.  Cependant, un certain nombre d’auteurs défendent l’idée suivant laquelle l’historicité des domaines sus-nommés requiert un traitement mathématique et théorique particulier (Kauffman 2002, 2016, Montévil 2016). Les conséquences de l’historicité en biologie apparaissent suivant deux plans. i) les objets vivants actuels sont le résultat d’une histoire longue de sorte que ses parties ne sont pas quelconques mais ont au contraire souvent des comportements très particuliers, fonctionnels. En particulier, ces objets historiques “intériorisent” les contextes qu’ils rencontrent au cours de leurs histoires et ces contextes sont alors décisifs pour comprendre leurs structures. Il s’agira alors de saisir toutes les conséquences de cette situation. Il s’ensuit une diversité qualitative des objets. ii) les changements de ces objets incluent l’apparition de nouveauté qualitative, pouvant typiquement nécessiter des changements d’espaces de descriptions et de règles les régissant. Cette question est précisément celle de l’apparition de nouveauté dans les systèmes biologiques, notion centrale en évolution et durant l’ontogénie. Elle est aussi pertinente pour l’économie, par exemple, comme innovation technologique. Le cadre épistémologique, théorique et mathématique nécessaire pour comprendre ce genre de phénomènes demande à être développé.

Défis:

  • Investiguer les conséquences de l’historicité des systèmes complexes où cet aspect est pertinent (systèmes sociaux, systèmes biologiques, écosystèmes…).

Rapports tout-partie

Claude Bernard note que “si l’on décompose l’organisme vivant en isolant ses diverses parties, ce n’est que pour la facilité de l’analyse expérimentale, et non point pour les concevoir séparément. En effet, quand on veut donner à une propriété physiologique sa valeur et sa véritable signification, il faut toujours la rapporter à l’ensemble et ne tirer de conclusion définitive que relativement à ses effets dans cet ensemble” (Bernard 1865). Cet impératif théorique ne se retrouve que très peu dans la modélisation mathématique des parties d’organismes. Elle a par contre été l’objet de plusieurs développements en biologie théorique, et correspond toujours à une interdépendance particulière entre les parties d’un être organisé tel qu’un organisme ou une cellule. Elle apparaît par exemple comme systèmes métabolisme/réparation (M, R) chez Rosen (1991), autopoièse chez Maturana et Varela (1974), et ensembles autocatalytiques et cycles travail/contrainte chez Kauffman (2012). Elle a été reformulée récemment comme clôture entre contrainte (la clôture, en référence à Piaget, correspondant à une circularité et allant toujours de pair avec l’ouverture thermodynamique du système, Montévil et al 2015, Moreno et al 2015, Mossio et al 2016). Ces approches pourraient ainsi permettre d’implémenter la remarque théorique de Claude Bernard dans la méthodologie de modélisation en biologie. Elles sont aussi essentielles pour comprendre l’émergence de la vie.  De manière générale, rendre ces approches opérationnelles pour la modélisation « de tous les jours » en biologie est un enjeux théorique majeur.

Articulation de modèles à différents niveaux, émergence

La modélisation devrait pouvoir intégrer différents niveaux d’organisation du vivant, des cellules aux organismes, aux écosystèmes et systèmes sociaux. Par exemple on cherchera à intégrer des modèles moléculaires, cellulaires, de comportement de populations de cellules ou d’organismes dans des écosystèmes. Dans le domaine de la modélisation des socio-écosystèmes, le dialogue interdisciplinaire a aussi été promu à l’aide de ces modèles qui vont permettre une intégration de la théorie à la programmation et simulation (Duboz et al 2013).

Défis:

Le défi est maintenant d’intégrer différents niveaux [ lien roadmap multiniveaux] et pouvoir simuler la percolation entre les échelles de temps et d’espace dans de tels modèles qui permettent de modéliser l’émergence de liens complexes, de comportement collectifs et des propriétés émergentes ou  immergentes.

Par exemple, dans le système immunitaire on voudrait pouvoir intégrer les modèles et simulations dans une plate forme,  car des niveaux différents sont concernés:

  • Des comportements collectifs et liens complexes émergents qui apparaissent pour rendre compte de la mémoire dynamique ou de la tolérance dominante qui sont des phénomènes supraclonaux (Coutinho 2000).
  • Ces hypothèses de régulation de systèmes biologiques par des boucles de régulation positives et négatives ont récemment été développées pour simuler la régulation de la réponse immunitaire (Almeida et al 2012).
  • Simuler des perturbations telles que le vieillissement, des maladies auto-immunes, inflammatoires de plus en plus fréquentes.
  • Cela permettrait de simuler des traitements tels que proposés précédemment (Cohen et al 2014). De tels traitements régulateurs permettent de re-connecter ce réseau dynamique complexe (Klatzmann, D., & Abbas, A. K. (2015), plutôt que de le détruire comme avec les traitements immunosuppresseurs de chimiothérapie ou anti-inflammatoires, encore classiquement utilisés dans des pathologies (Thomas-Vaslin et al. 2015) et la construction des répertoires immunitaires (Thomas-Vaslin et al 2014).

Cette perspective permettrait de prévenir des pathologies ou de proposer de nouvelles thérapies permettant d’augmenter la résilience aux perturbations et au vieillissement.

Commentaires : Pour la compréhension mais aussi la prédiction, il peut être nécessaire de coupler des modélisations opérant à différentes échelles ou niveaux d’organisation. Il en va ainsi dans la modélisation du vivant, de l’infra-cellulaire à la population cellulaire, d’écosystèmes ou encore de systèmes de production intégrant risques épidémiologiques et comportements économiques.

Peut-etre une reference :

Moslonka-Lefebvre, Mathieu, et al. “Epidemics in markets with trade friction and imperfect transactions.” Journal of theoretical biology 374 (2015): 165-178.

 

Defis : Amplifier les efforts consentis pour croiser les niveaux de modélisation, partager les savoir-faire et expériences

Pour ce qui est de l’exemple en immunologie, homogénéiser les items, montrer plus clairement les niveaux croisés.

Peut-etre une reference appropriée?
Go, Natacha, et al. “Integrative model of the immune response to a pulmonary macrophage infection: what determines the infection duration?.” PloS one 9.9 (2014): e107818.

Application : les systèmes organisés face aux perturbations, le défi d’une évaluation globale.

Le monde actuel voit le nombre et la puissance des techniques, en particulier industrielles, croître de telle manière qu’un changement qualitatif radical est nécessaire dans l’évaluation des effets systémiques de ces techniques. La méthode analytique classique, qui analyse les interactions locales entre objets simplifiés dans une relation causale linéaire n’est pas adéquate pour prédire le comportement de systèmes complexes (comme un écosystème, la biosphère, un système vivant…) en réponse à des perturbations multiples et simultanées. Or, il s’avère que nous sommes maintenant en train de perturber des systèmes qui permettent notre existence et donc de compromettre notre existence. Dans le cadre d’une approche tenant compte de la complexité des objets naturels, l’objectif n’est pas de prédire la “réponse” d’un système naturel à une perturbation, mais de chercher à savoir si cette perturbation (ou cet ensemble de perturbations) peut entraîner la désorganisation (ou le changement d’organisation) du système. C’est ce qui a été appelé “évaluation globale”, en réponse à un appel à projets de l’État français (programme “EvaGlo”). Parmi les pistes retenues, l’une, particulièrement fondamentale, concerne le concept d’organisation, que nous considérons dans le contexte d’auto-organisation ou d’autopoïèse. Un certain nombre de caractères concernant une forme, une organisation (abstraites) doivent faire l’objet de revues bibliographiques et d’enrichissements théoriques, via des approches formelles (modélisation notamment) mais aussi philosophiques. On peut déjà citer: la relation au hasard (une organisation se distingue essentiellement d’un assemblage aléatoire équiprobable, tout en étant issue du hasard et en s’en nourrissant), les principes fondamentaux de la restriction des possibles et de la permissivité systémique, l’historicité des objets complexes, … il s’agit aussi d’investiguer les propriétés des organisations existantes telles que les notions d’ordre/désordre, robustesse, stabilité, résilience, vulnérabilité, percolation, émergence, niveaux d’organisation et modes de franchissement (ou non) de ces niveaux (dépendance ou indépendance de ces niveaux). Ce champ de recherche devrait permettre une première reconstruction des problématiques d’évolution et de vieillissement des systèmes, de leur effondrement, des points de rupture qui les caractérisent ainsi que des signes annonciateurs permettant de prédire la disparition d’une organisation donnée.

Références

Almeida, A. R., Amado, I. F., Reynolds, J., Berges, J., Lythe, G., Molina-Paris, C., & Freitas, A. A. (2012). Quorum-Sensing in CD4(+) T Cell Homeostasis: A Hypothesis and a Model. Front Immunol, 3, 125. doi:10.3389/fimmu.2012.00125

Bedhiafi, W., Thomas-Vaslin, V., Benammar Elgaaied, A., & Six, A. (submitted). OntoContext, a new python package for gene contextualisation based on the annotation of biomedical texts.

Bernard, C. (1865). Introduction à l’étude de la médecine expérimentale. Paris : Baillière
Kauffman, S. (2002). Investigations. Oxford University Press, USA

Bersini, H., Klatzmann, D., Six, A., & Thomas-Vaslin, V. (2012). State-transition diagrams for biologists. PLoS ONE, 7(7), e41165. doi:10.1371/journal.pone.0041165

Chérel, G, Cottineau, C, Reuillon, R (2015) Beyond Corroboration: Strengthening Model Validation by Looking for Unexpected Patterns. PLoS ONE 10(9): e0138212. https://doi.org/10.1371/journal.pone.0138212

Cohen, I. R. (2014). Activation of benign autoimmunity as both tumor and autoimmune disease immunotherapy: A comprehensive review. J Autoimmun. doi:10.1016/j.jaut.2014.05.00

Coutinho, A. (2000). Germ-line selection ensures embryonic autoreactivity and a positive discrimination of self mediated by supraclonal mechanisms. Semin Immunol, 12(3), 205-213; discussion 257-344.

Dewald, W., Thursby, J. and Anderson, R., 1986, The American Economic Review, 76(4), pp. 587-603;

Duboz R., Müller J.P.. 2013. In : Eds. Franck Varenne & Marc Silberstein. Modéliser & simuler : épistémologies et pratiques de la modélisation et de la simulation. (Tome 1, volume 2). Paris : Editions Matériologiques, p. 865-896. (Sciences &, Philosophie).

Efroni, S., Harel, D., & Cohen, I. R. (2005). Reactive animation: Realistic modeling of complex dynamic systems. Computer, 38(1), 38–4)

Kauffman, S. (2002). Investigations. Oxford University Press, USA

Kauffman, S. A. (2016). Humanity in a Creative Universe. Oxford University Press

Klatzmann, D., & Abbas, A. K. (2015). The promise of low-dose interleukin-2 therapy for autoimmune and inflammatory diseases. Nat Rev Immunol, 15(5), 283-294. doi:10.1038/nri3823

McCullough, B., McGreary, K. and Harrison, T., 2006, “Lessons from the JMCB Archive,” Journal of Credit and Banking, 38(4),pp. 1093-1108

McEwan, C., Bersini, H., Klatzmann, D., Thomas-Vaslin, V., & Six, A. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems: Luniver press. ISBN.

Montévil, M. & M. Mossio (2015). « Biological organisation as closure of constraints ». In : Journal of Theoretical Biology 372, p. 179–191.

Montévil, M., Speroni, L., Sonnenschein, C., Soto, A.. « Modeling mammary organogenesis from biological first principles : Cells and their physical constraints ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 58–69. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.004

Montévil, M., Mossio, M., Pocheville, A., Longo, G. « Theoretical principles for biology : Variation ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 36–50. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.005

Moreno, A., & Mossio, M. (2015). Biological autonomy. History, Philosophy and Theory.

Mossio, M., M. Montévil & G. Longo (2016). « Theoretical principles for biology : Organization ». In : Progress in Biophysics and Molecular Biology 122.1. p. 24–35. issn : 0079-6107. doi :
10.1016/j.pbiomolbio.2016.07.005

Reuillon, R., Schmitt, C., De Aldama, R. and Mouret, J.-B. (2015) ‘A New Method to Evaluate Simulation Models: The Calibration Profile (CP) Algorithm’ Journal of Artificial Societies and Social Simulation 18 (1) 12. doi: 10.18564/jasss.2675

Rosen, R. (1991). Life itself : a comprehensive inquiry into the nature, origin, and fabrication of life. Columbia U. P. (cf. p. 8, 16).

Schmitt, C., Rey-Coyrehourcq, S., Reuillon, R., Pumain, D.. Half a billion simulations: evolutionary algorithms and distributed computing for calibrating the SimpopLocal geographical model. 2015. <hal-01118918>

Thomas-Vaslin, V., Altes, H. K., de Boer, R. J., & Klatzmann, D. (2008). Comprehensive assessment and mathematical modeling of T cell population dynamics and homeostasis. J Immunol, 180(4), 2240-2250.

Thomas-Vaslin, V., Six, A., Pham, H. P., Dansokho, C., Chaara, W., Gouritin, B., . . . Klatzmann, D. (2012). Immunodepression & Immunosuppression during aging. In M. B. Portela (Ed.), Immunosuppression (pp. 125-146). Brazil: InTech open acces publisher

Thomas-Vaslin, V., Six, A., Ganascia, J. G., & Bersini, H. (2013a). Dynamical and Mechanistic Reconstructive Approaches of T Lymphocyte Dynamics: Using Visual Modeling Languages to Bridge the Gap between Immunologists, Theoreticians, and Programmers. Front Immunol, 4, 300. doi:10.3389/fimmu.2013.00300

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013b). Lymphocyte Dynamics and Repertoires, Biological Methods, Modeling. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 1145-1149): Springer New York.)

Thomas-Vaslin, V. (2014). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Varela, F., Maturana, H., & Uribe, R. (1974). Autopoiesis: The organization of living systems, its characterization and a model. Biosystems, 5, 187 – 196. doi:10.1016/0303-2647(74)90031-8.

Vibert, J., & Thomas-Vaslin, V. (2017). Modelling T Cell Proliferation: Dynamics Heterogeneity, Depending on Cell Differentiation, Age, and Genetic Background. PLoS Comput Biol, 13 (3), e1005417. doi:10.1371

 

 

 

 

Systèmes multi-échelles, multi-niveaux ou multi-vues

Mots clés : échelle caractéristique, changement d’échelle, intégration, dynamiques lentes/rapides, dynamiques enchevêtrées, possibilité ou pas de réductionnisme, apparition de nouvelles propriétés, rôle de l’observateur

 

Systèmes multi-échelles, multi-niveaux ou multi-vues

Contributeurs : Ivan Dornic, Robert Faivre, Richard Fournier, Robin Lamarche-Perrin, Jean-Pierre Muller, Véronique Thomas-Vaslin, Guillaume Guimbretière, Alberto Tonda, Roger Waldeck, Dominique Pastor

Remarque générale : bien distinguer les deux approches multi-niveaux et multi-échelles qui aboutissent à des résultats et perspectives différents.

Note à l’intention des rédacteurs de la première session : Les relectures de ce chapitre et les discussions qui ont suivies (en groupe, puis collectives), ont mise en avant la nécessité de délimiter les définitions et problèmes liés aux concepts d’échelle, niveau d’organisation et vue disciplinaire. A côté de ce décalage thématique du chapitre, nous avons également remarqué que les problématiques de la partie 3 liées à la méthodologie sont couvertes par une partie du chapitre “Big data”. La partie 3 est alors recentrée sur les questions d’émergence et propagation de l’incertitude qui sont inévitable lors d’un traitement multi-échelle. 

1- Introduction

Dès l’origine, les systèmes complexes ont été concernés par le problème de l’émergence, à savoir de l’irréductibilité des comportements globaux des systèmes aux comportements locaux de leurs composants. La thermodynamique hors équilibre et plus largement l’ensemble de la physique statistique ont été jusqu’ici des outils privilégiés pour aborder cette problématique. Aujourd’hui les objets que nous abordons nécessitent de sonder les dynamiques des processus en oeuvre à de multiples échelles (l’espace et le temps étant les plus communes), prendre en compte des niveaux d’organisation structurant et structurés par ces processus, et d’articuler des vues disciplinaires différentes et complémentaires.

2 – Exemples thématiques

Cette partie présentes des exemples thématiques destinées à introduire la discussion sur les concepts en discussion (part. 3).

Urbanisme, énergie, mobilité : Au même titre qu’une centrale solaire thermique ou photovoltaïque, la ville est aujourd’hui conçue et dimensionnée comme un système énergétique de grande dimension. Son optimisation nécessite cependant de couvrir une très grande diversité d’échelles spatiales et temporelles :

  • aux petites échelles, on peut être intéressé par les vues du comportement individuel, de l’intermittence à la minute du rayonnement solaire, de la réponse capacitive d’un isolant thermique, de la fluctuation du trafic routier, etc.,
  • aux grandes échelles, on peut être intéressé par les vues du ressenti et du bien-être de l’ensemble d’une population, de l’efficience des réseaux, du bilan énergétique intégré sur une durée de vie de l’ordre de 100 ans dans un contexte de changement climatique, etc.,

le tout en intégrant les phases transitoires associées aux stratégies d’aménagement, d’extension, de rénovation.

Dynamics of multilevel networks for cooperation among competitors in trade fairs (voir chap. Structure et dynamique des réseaux complexes)

Analyse multi-échelle en géographie quantitative et sciences de la communication : étude des relations internationales à travers la distribution territoriale et temporelle des flux d’information médiatique (articles de presse) en couplant échelles temporelles (événements ponctuels, événements dans le temps long) et échelles spatiales (niveau d’organisation national, régional et mondial). Rédaction à poursuivre (Robin) …

Eco-evolutionary Model of Rapid Phenotypic Diversification in Species-Rich Communities (P.V. Martin et al., PLOS Comput Biol 2016) : Evolutionary and ecosystem dynamics are often treated as different processes –operating at separate timescales– even if evidence reveals that rapid evolutionary changes can feed back into ecological interactions. A recent long-term field experiment has explicitly shown that communities of competing plant species can experience very fast phenotypic diversification, and that this gives rise to enhanced complementarity in resource exploitation and to enlarged ecosystem-level productivity. A community of organisms of different but similar species is modelled evolving in time through mechanisms of birth, competition, sexual reproduction, descent with modification, and death. This simple model provides a rationalization for the emergence of rapid phenotypic diversification in species-rich communities, and also leads to non-trivial predictions about long-term phenotypic change and ecological interactions. The presence of highly specialized, non-competing species leads to very stable communities and reveals that phenotypically equivalent species occupying the same niche may emerge and coexist for very long times.

Des poissons et des mares : (voir chap. Structure et dynamique des réseaux complexes )

Exploration multi-échelles et multi-vues des phénomènes éruptifs volcaniques : L’évolution dans l’environnement d’un panache volcanique est un sujet d’étude mobilisant des moyens instrumentaux et numériques permettant l’exploration des dynamiques de l’échelle moléculaire à l’échelle régionale. Intrinsèquement interdisciplinaire, l’étude des processus de formation, dissipation des panaches volcaniques implique également une analyse des données multi-vue dans le sens où l’objectif scientifique peut-être l’obtention d’informations volcanologiques ou bien l’estimation d’impacts sanitaires, environnementaux, ou bien climatiques (White paper for the GDRE MIST – Modeling, Imaging, Sensing, and Tracing of emissions and volcanic plumes 2017).

Prediction of Grape Berry Maturity (Perrot et al., 2015, PLoS ONE): Grape berry maturation relies on complex and coupled physicochemical and biochemical reactions which are climate dependent. Moreover one experiment represents one year and the climate variability could not be covered exclusively by the experiments. Consequently, harvest mostly relies on expert predictions. Taking into account data from the field and codified expert knowledge, it’s possible to build a model able to link weather phenomena (macro scale) to the average content of sugar inside grapes (micro scale), through time, thus providing experts with a decision-support system for choosing the best time for harvest.

Les objets biologiques : La feuille de route précédente avait permis d’aborder l’intégration multi-échelles comme défi pour des objets biologiques, en particulier la problématique de multi-scaling ou autoscaling préalablement défini dans (C. Lavelle et al., From molecules to organisms: towards multiscale integrated models of biological systems. Theoretical Biology Insights, 1, 13-22 (2008)). « Reconstructing multiscale dynamics » était aussi une session du CS-DC 2015.

Différents exemples en biologie soulignent que les défis restent majeurs pour la visualisation, la modélisation et la simulation de phénomènes multi-échelles et de l’émergence qui peut apparaître aux niveaux supérieurs:

Meier-Schellersheim, M., et al. (2009). Multiscale modeling for biologists. Wiley Interdiscip Rev Syst Biol Med, 1(1), 4-14. doi:10.1002/wsbm.33.

Qu, Z., et al. (2011). Multi-scale modeling in biology: How to bridge the gaps between scales? Prog. Biophys. Mol. Biol., 107(1), 21 – 31 %U http://www.ncbi.nlm.nih.gov/pubmed/19279999.

McEwan, C. H., et al. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems. Paper presented at the COSMOS workshop ECAL 2011 Conference, Paris.

de Bono, B., et al. (2012). ApiNATOMY: A novel toolkit for visualizing multiscale anatomy schematics with phenotype-related information. Human Mutation, 33(5), 837-848. doi:10.1002/humu.22065

voir aussi:  CS-DC  2015 Molecules to Organisms and Ecosystems http://cs-dc-15.org/e-tracks/organisms/

Notamment, dans le domaine du système immunitaire nous avons souligné l’importance de considérer ces niveaux et échelles pour mieux comprendre la complexité de ce système cognitif: Thomas-Vaslin, V. (2015). Multi-scale complexity of the immune system : Evolution, from chaos to fractals. In A. S. Nicolas Glade (Ed.), Le vivant critique et chaotique (pp. 333-402).

Le défi est de pouvoir modéliser et simuler les multi-niveaux fonctionnels, avec différentes catégories fonctionnelles (par exemple d’entités vivantes telles que des cellules, des organismes ou d’autres éléments) et de réaliser des observations dynamiques des systèmes permettant du  transfert d’information d’un niveau à  un autre. Si on se place à la même échelle il est possible de modéliser en plus le chemin de l’information entre les objets de même échelle, comme communication/interactions entre des cellules de différentes catégories (de différents lignages ou ayant différentes fonctions…)

3- Concepts en discussion

Comme introduit plus haut l’étude des systèmes complexes implique de travailler sur l’articulation entre les concepts généraux d’Echelle, de Niveau d’organisation et de Vue. Ces concepts clefs sont débattus et doivent être discutés et affinés. Egalement, des méthodologies spécifiques doivent être en mesure de rendre compte des phénomènes d’émergence et de propagation de l’information et de l’incertitude. Un jeu de données permettant d’explorer la complexité multi-échelle, multi-niveau d’organisation et multi-vue d’un système, partage les caractéristiques et défis des big data. Les problématiques liées à l’existence de cette structure de données fait l’objet d’un chapitre dédié.

Il s’agira donc de préciser tout d’abord pour un public interdisciplinaire hétérogène, de scientifiques ce que les expert entendent par Echelle et Niveau d’organisation dans un modèle avec des variable et des paramètres, qui répond également à des définitions assez hétérogènes selon les domaines: pour débuter la discussion, on pourra, par exemple, se référer à: « Modéliser et simuler » éd matériologiques Varenne, F. (2009). Models and Simulations in the Historical Emergence of the Science of Complexity From system complexity to emergent properties (pp. 3–21 %U http://link.springer.com/chapter/10.1007/1978-1003-1642-02199-02192_02191): Springer.

 

figure 1 :Illustration de l’articulation entre les concepts d’Echelle, de Niveau d’organisation et de Vue

3.1 L’Echelle

L’Echelle est liée à l’observation et quantifiable, une échelle étant définie par une étendue et une granularité (communément spatiale ou temporelle). Le besoin de penser une multiplicité d’échelles n’est donc pas intrinsèquement lié au voisinage de différentes disciplines. La turbulence pose la question d’une quasi-infinité des rapports d’échelle au sein de la seule mécanique des fluides. Pour autant, les disciplines impliquées autour d’un même objet complexe convoquent souvent des échelles très distinctes : faire dialoguer un généticien et un écologue reste un enjeu malgré la multiplicité des configurations où cette association est pertinente. Les enjeux de méthode associés à la gestion d’une multiplicité d’échelles sont maintenant également connectés à la considération de niveaux organisationels et analyse multi-vue. À titre d’illustration, la théorie des hiérarchies en écologie << (…) situe tout phénomène dans son échelle spatio-temporelle propre, en partant du principe qu’il existe une corrélation entre échelle d’espace et échelle de temps, et que ce sont les vitesses de fonctionnement des phénomènes qui définissent les niveaux. >>

3.2 Les Niveaux d’organisation

Un Niveau d’organisation est une délimitation de l’échelle imposée par la structure du système complexe étudié. L’identification d’un niveau d’organisation pose la question, dès l’origine, du pilotage des systèmes dans tous les domaines de la complexité engagés dans des actions de modélisation multi-échelle. Elle a souvent été éludée par manque d’outils numériques et informatiques suffisamment performants pour simuler l’impact de décisions, de perturbations ou de commandes à chaque échelle. Or, il est souvent difficile d’agir à un niveau d’organisation unique (e.g., au niveau global) et la question est souvent d’identifier les niveaux d’organisation actionnables pour obtenir les effets désirés. De plus, l’optimum global n’est pas nécessairement la somme des optima locaux (e.g., la satisfaction individuelle n’est pas nécessairement une condition de la satisfaction collective).

3.3 La Vue

La Vue est une façon de regarder un Niveau d’organisation à une Echelle, et est liée à la culture disciplinaire de l’observateur (voir figure 1). Même si durant longtemps les sciences dites de la complexité se sont évertuées à identifier des objets transdisciplinaires, dans le présent paragraphe la question est celle de l’articulation des disciplines dans leur spécificité. Quelque soit le découpage retenu lors de la modélisation et lors de l’analyse d’un système complexe, les objets et les processus résultants de ce découpage ont le plus souvent un ancrage disciplinaire très fort et l’articulation de ces objets exige un respect de l’histoire et des pratiques de chaque discipline. La prise en compte de notre perception du monde en fonction de notre âge et des domaines et des systèmes et du contexte de l’évolution du  système doit permettre de considérer non seulement une vue analytique catégorique mais aussi  une vue holistique. (Nisbett, R. E. and T. Masuda (2003). “Culture and point of view.” Proc Natl Acad Sci U S A 100(19): 11163-11170.; Nisbett, R. E. and Y. Miyamoto (2005). “The influence of culture: holistic versus analytic perception.” Trends Cogn Sci 9(10): 467-473.)

(Illustration : Les dynamiques paysagères/territoriales illustrées dans \ref{paragraphe Robin} sont caractérisées par une multiplicité de processus intriqués à différents niveaux et échelles qui relèvent d’un ensemble de disciplines pour rendre compte des dynamiques biophysiques et humaines. Les dynamiques sont dites paysagères dans une perspective écologique où l’objet est le réseau d’unités fonctionnelles du point de vue des processus écologiques (avec au moins deux niveaux : les unités fonctionnelles et l’écosystème). Les dynamiques sont dites territoriales dans une perspective SHS dans laquelle un territoire est une portion d’espace appropriée par un groupe social (une multiplicité d’organisations sociales induisant une multiplicité de territoires, éventuellement emboîtés). Le défi est d’articuler ces deux points de vue.)

3.4 L’émergence et l’immergence

Contraindre le phénomène d’émergence et d’immergence  demande de travailler à travers des changements d’échelles et/ou de niveaux d’organisation.

( à developper …).

3.5 La propagation de l’information et de l’incertitude

Une approche multi-échelle et multi-niveau organisationnel combinant de multiple vues pose la question de la gestion du transfert de l’information et de son incertitude obtenues à une échelle/un niveau organisationnel vers une échelle/un niveau supérieur ou inférieur.

Effectivement, le changement d’échelle entraine le plus souvent une redéfinition des unités élémentaires structurant le système à cette échelle, et donc, une modification des paramètres caractérisant ces éléments. La propagation de l’information demande alors de pouvoir définir les paramètres caractéristiques d’une échelle en fonction des paramètres caractéristiques des échelles adjacentes. Egalement, parfois l’existence de propriétés émergentes ne permet pas de transférer directement des propriétés du système identifié à une échelle vers une échelle adjacente. Bien que les entités et les processus et donc les fonctions soient différents d’un niveau d’organisation à  un autre,  on peut essayer de rechercher des caractéristiques communes aux différentes niveaux quant au  comportement des systèmes.

L’effet de cette redéfinition des propriétés caractéristiques d’une échelle a des effets sur les incertitudes: La propagation des incertitudes n’est pas triviale et ne peut se résumer à une simple combinaison linéaire des incertitudes liées à l’échelle inférieure. Dans certains cas, les incertitudes des quantités du modèle à une échelle donnée peuvent être traitées comme des variables aléatoires et donc géré par l’algèbre associé. D’autres voies de reflexions existent et doivent être développées et/ou adaptées à des problématiques spécifiques, comme par exemple dans le cas particulier où le problème traité nécessite l’utilisation de variables déterministes sans incertitudes combinées à des variables stochastiques présentant une incertitude. (Baudrit et al., 2007)

( à developper …).

 

############################################################################

4- On rentre dans les méthodes et quelques encadrés de success-stories (version session 1)

A/ Analyse d’un jeu de données (observations ou résultats de simulation). Identification d’échelle pertinente pour représenter la variabilité du processus ou phénomène observé.

Quoi de neuf dans ces méthodes (en lien avec le multi-échelle) ?

 

  • Agrégation / compression de données, théorie de l’information.
  • Traitement du signal.
  • Les traitements des données restent souvent qualitatifs et les statistiques descriptives à  un niveau  d’échelle ou  un niveau d’organisation à  un temps donné et dans un espace donné.  L’intégration passant par des échelles et niveaux d’organisation différents et à  travers le temps et l’espace,  avec des modélisations  quantitatives et des simulations multi-niveaux non linéaires devraient être proposées et validées par des résultats expérimentaux.

 

B/ Analyse des mécanismes de l’émergence et de la propagation de l’information ou de l’incertitude (entre échelles)

La capacité d’une organisation à détecter efficacement des menaces est critique pour la survie de cette organisation. Cette question peut être abordée comme un processus darwinien et multi-niveaux. Au niveau de l’agent, l’enjeu est de le munir de processus de détection et d’émissions d’alarmes et de diverses fonctionnalités qui  pourront alors être mises en oeuvre et contrôlées par des boucles de régulation. Mais l’optimalité éventuelle de ces processus à l’échelle de l’agent n’induit pas forcément une optimalité au niveau de l’organisation. L’optimalité à l’échelle de l’organisation globale repose aussi sur les dynamiques temporelles d’interactions. L’étude de l’optimalité et de la résilience de la détection de menaces doit être menée à l’échelle de l’organisation, en modélisant (i) les caractéristiques, éventuellement hétérogènes, des agents, (ii) leurs interactions, synchrones ou asynchrones, dans le temps et l’espace et (iii) les processus de sélection les plus appropriés.  Les processus en oeuvre dans les systèmes sociaux et biologiques suggèrent une fertilisation croisée dans l’étude de cette problématique.

 

Quoi de neuf dans ces méthodes ?

 

  • Renormalisation, transition de phase, classes d’universalité.

 

 

 

C/ Implémentation et validation des modèles intégrants des échelles et niveaux multiples.

 

Le modèle étant donné, la simulation reste un enjeu. Les processus, individus ou structures en interactions sont très nombreux, les formalismes très divers (événements discrets, temps continu, …), les rapports d’échelle quasi-infinis, les données d’entrée nombreuses et de natures différents, autant de caractéristiques qui nécessitent de considérer un environnement et une architecture informatique permettant l’intégration de toutes ces caractéristiques.

 

L’exploration numérique de modèles couvre un très large spectre de méthodes allant de la planification d’expérience à l’analyse de sensibilité en passant par la propagation d’incertitude, la calibration, l’optimisation, etc. Due à la complexité croissante des modèles, elle est aujourd’hui devenue un outil indispensable des modélisateurs. Comment explorer un espace de très grande dimension en raison d’un très grand nombre de paramètres ou de paramètres d’entrée fonctionnels (météo, cartes, cellules…), paramètres souvent corrélés ou contraints ?

 

  • De nouveaux outils sont apparus pour simuler numériquement des systèmes caractérisés par une quasi-infinité des rapports d’échelles temporelles et spatiales (Cf “Teapot in the stadium” en synthèse d’image). Ces outils sont statistiques et s’appuient sur les fondements de la méthode de Monte Carlo, notamment sur son aptitude à “passer la dimension infinie”. Si ces vieilles méthodes de la physique statistique sont aujourd’hui devenues praticables dans le contexte de la complexité, ce n’est pas seulement lié au pouvoir théorique de Monte Carlo de gérer une infinité d’échelles emboitées. Il s’agit beaucoup plus du résultat d’un travail théorique face à la gestion des données, qui croissent bien sûr et se diversifient avec la dimension de l’emboitement. Si les images de synthèse actuelles atteignent de tels niveaux de raffinement de la petite échelle dans des scènes de grande dimension, c’est avant tout parce que les algorithmes actuels assurent une orthogonalité donnée-traitement. La connaissance des conditions plus générale de cette orthogonalité, notamment en lien avec la non-linéarité des emboitements, reste un enjeu majeur. Lorsqu’elle est assurée, il devient possible d’intégrer sur 100 ans une phénoménologie à la minute tout en gérant conjointement l’ensemble des échelles spatiales dans des temps de calculs compatibles avec les algorithmes d’optimisation et de contrôle.
  • Intégration des données à des échelles multiples (lié à incertitude).

 

  • Multi-agents
  • Multi-temporel

 

  • Validité du modèle (méthodologie de validation): ayant affaire à une multiplicité de modèles à articuler se pose la question de leur couplage mais aussi de la validation de l’assemblage réalisé. Les méthodologies de modélisation,  mathématiques ou  informatiques,  continues ou  discrètes peuvent apporter des  variations de comportement des simulations qui  devront être discutées par rapport aux situations observées et mesurées afin de calculer des nouvelles valeurs de paramètres qui  ne pourraient être mesurées directement.

 

  • Passage à l’échelle.

####################

ajouts à  faire:

Modèle : peut être théorique, conceptuel, statique, dynamique, probabiliste, formel , exécutable pour réaliser des simulations …

Echelle : c’est un aspect quantitatif, une mesure physique dans l’espace et le temps

Niveau : c’est une abstraction conceptuelle et qualitative des objets, des processus associés et de leur contexte.

C’est tout d’abord la relation entre l’observateur et le niveau de l’entité qui fixe le niveau à étudier: par exemple un niveau macroscopique ou microscopique qui dépend des technologies et de sa discrimination, sa sensibilité dans les mesures pour générer des observations et des données qualitatives et quantitatives.

Variables: quand on modélise il s’agit d’identifier les variables du modèle conceptuel ou formel :c’est le choix de l’observateur dans son cerveau, d’après ses connaissances, puis de caractériser les variables à observer, à mesurer ce qui dépend des outils de mesure à disposition, avec des niveaux et des échelles.

La relation est hiérarchisée entre les variables ou observables dans un modèle multi-niveau ou multi-échelle. Elle peut être décrite sur la base d’ontologies, permettant de connaître le niveau des éléments (entités ou processus) décrits dans le modèle.

Les variables sont des entrées et des sorties du  modèle  (les paramètres aussi  non ?) .

Il existe des variables intensives et extensives sur lesquelles on peut agir ou pas.( à  revoir….)

Paramètre:

Le paramètre est fixe dans un modèle : il représente une contrainte du modèle (par exemple selon les domaines étudiés, la température, la pression, ou un taux de prolifération ou de mortalité etc…Pourtant les taux peuvent varier en fonction du contexte du système comme avec l’âge ou  l’état (physiologique/pathologique/thérapie)

 

 

 

 

 

 

Comportements collectifs dans les systèmes biologiques et sociaux

Comportements collectifs dans les systèmes biologiques et sociaux

Rapporteurs : Guy Theraulaz et Luc Foubert

Contributeurs : Guy Theraulaz (Centre de Recherches sur la Cognition Animale, Centre de Biologie Intégrative, Institute for Advanced Studies in Toulouse) ; Luc Foubert (BioEmergences, Gif sur Yvette); José Halloy (Université Paris Diderot, LIED UMR8236); Véronique Thomas-Vaslin (CNRS, UPMC, réseau ImmunoComplexiT), Laura Hernandez (LPTM,UMR8089 CNRS-Université de Cergy-Pontoise); Valentina Lanza (LMAH, Le Havre)

Mots clés : Comportements collectifs, intelligence collective, modèles individus-centrés, interactions asymétriques, équations aux dérivées partielles stochastiques, techniques de reconstruction, données à haut débit, description mésoscopique, méthode d’inversion, transitions de phase et état critiques, cognition.

NOTE : ajouter des références aux comportements collectifs dans les systèmes sociaux humains.


1. Introduction
Les phénomènes collectifs sont omniprésents dans les dynamiques du vivant. Ainsi, de très nombreuses espèces ont développé des formes de vie collective très élaborées. Les nuées d’étourneaux, les bancs de poissons et les colonies d’insectes « sociaux » (fourmis, termites et certaines espèces d’abeilles et de guêpes) semblent se comporter comme un seul et même individu, une sorte de « super-organisme ». Ces systèmes sont composés de nombreuses unités distinctes qui présentent des comportements collectifs à plusieurs échelles d’espace et de temps. A une autre échelle, on peut observer et caractériser les mouvements des cellules lors de la formation des organes et des tissus et imaginer leurs contrôles dans les perspectives de “tissue engineering” in vitro.

La complexité de ces phénomènes se reflète dans les propriétés non-triviales des dynamiques collectives – qui émergent à l’échelle macroscopique – par rapport aux interactions entre les unités au niveau microscopique.

La méthodologie employée pour étudier ces phénomènes consiste à caractériser et quantifier à la fois et séparément les comportements aux niveaux individuel et collectif et ensuite à relier les deux échelles de phénomènes au moyen de modèles mathématiques (Camazine et al., 2001 ; Weitz et al., 2012). Le travail expérimental permet d’identifier et de quantifier les interactions entre individus ainsi que leurs conséquences sur leur comportement et leur physiologie. Par exemple en termes de probabilité d’exécuter une action en réponse à des informations présentes dans l’environnement. La variabilité individuelle est également un élément important à intégrer dans la reconstruction des interactions et des fonctions de réponse individuelles. Cette variabilité est également souvent produite par les interactions entre les unités ; c’est le cas par exemple des processus d’assignation des tâches conduisant à la division du travail dans certaines sociétés d’insectes (exemple de sociétés parthénogénétiques chez les fourmis). De même, si un environnement homogène (moyen) représente une approximation utile pour l’étude des comportements collectifs, il est assez rare qu’un environnement existant soit homogène, et l’hétérogénéité influence profondément les structures, la dynamique et les formes produites à l’échelle d’un groupe. Les observations et les mesures aux échelles individuelles et collectives doivent par conséquent être réalisées dans des environnements homogènes (en termes de température, humidité, luminosité) pour découpler les effets de gradient et de modulation de ces paramètres environnementaux sur les interactions individuelles. La quantification de ces influences permet dans un second temps d’aborder la question de la variabilité de l’environnement sur les comportements collectifs.

L’analyse quantitative et la modélisation des comportements aux deux échelles (individu et collectif) s’appuient sur des concepts et des outils développés en physique statistique (approche multi-échelles, transition de phase, processus stochastiques, …). Cette analyse permet de caractériser les lois régissant les interactions entre les individus et la structure du réseau d’interactions entre ces derniers. Par ailleurs le caractère décentralisé et dynamique de ces systèmes implique l’utilisation de techniques de modélisation basées sur une architecture répartie de type multi-agents ou sur des systèmes d’équations différentielles partielles. L’obtention de modèles reproduisant les caractéristiques dynamiques des phénomènes étudiés et validés ensuite expérimentalement permet de déterminer le rôle précis joué par chacune des variables comportementales dans les propriétés apparaissant au niveau collectif, mais aussi l’étendue de la zone de paramètres associée à ces variables pour lesquelles apparaissent ces propriétés.

Les modèles permettent également de tester des hypothèses sur la combinaison des interactions à l’échelle individuelle ; typiquement, il s’agit de comprendre quelles sont les interactions avec les voisins qui influencent le comportement d’un individu au sein d’un groupe en déplacement et comment les différentes informations recueillies sur ces voisins sont intégrées pour orienter chaque comportement individuel ? Cette approche des mécanismes impliqués dans les phénomènes collectifs permet la construction de modèles ayant une réelle valeur explicative et ouvre également la possibilité de développer des systèmes artificiels d’intelligence collective permettant le contrôle de la dynamique des interactions au sein de groupes de robots ou d’animaux.

Une collaboration étroite entre physiciens et biologistes spécialisés en analyse non linéaire, scientifiques spécialisés en sciences sociales et experts en informatique s’est révélée essentielle pour permettre à la recherche d’avancer sur ces questions.

2. Grands défis

1. Quelle est l’importance de l’asymétrie des interactions dans les dynamiques collectives observées à l’échelle de groupes d’organismes ?

2. Peut-on prédire certains comportements collectifs chez l’homme ?
3. Dans quelle mesure le contrôle des informations échangées entre individus, peut-il permettre d’accroître les capacités d’intelligence collective de groupes humains (coopération, collaboration, délibération) ?

4. Peut-on contrôler la dynamique de certains déplacements collectifs à l’échelle cellulaire en contrôlant certaines molécules impliquées dans la coordination ?

5. Les systèmes vivants se maintiennent-ils dans des états critiques ?

6. Est-il possible de construire des modèles multi-échelles reliant les processus cognitifs à l’échelle individuelle aux comportements collectifs ?

2.1. Quelle est l’importance de l’asymétrie des interactions dans les dynamiques collectives observées à l’échelle de groupes d’organismes ?
Ces dernières années, les chercheurs ont déployé des efforts considérables pour étudier et caractériser l’émergence des phénomènes collectifs par l’observation, l’expérimentation et la modélisation. La recherche a exploré une gamme étendue de systèmes, des nanostructures aux matières granulaires en passant par les dynamiques neuronales et les dynamiques sociales observées dans de très nombreuses sociétés animales y compris humaines.

Ces phénomènes intrinsèquement non-linéaires présentent de grandes similarités avec certains systèmes physiques (comme les systèmes de spins). Des études ont en effet recensé un certain nombre de passages dynamiques entre différents types de comportement collectifs organisés ayant une forte résonance avec des systèmes rencontrés en physique : synchronisation de phase dans l’interaction des systèmes oscillants, transitions de phase dans des systèmes composés d’agents auto-propulsés (e.g. transition dans les formes de déplacements collectifs dans des bancs de poissons), auto-organisation et formation de structures spatiales bi ou tri-dimensionelles (e.g. réseaux de pistes ou de mycélium, nids d’insectes sociaux).

La compréhension complète des relations entre la dynamique des interactions à l’échelle microscopique et les propriétés macroscopiques est cependant encore loin d’être élucidée. Par exemple, les recherches sur l’émergence des dynamiques logiques non triviales à un niveau général, hors d’oscillateurs microscopiques ouverts qui se caractérisent par des échelles temporelles plus courtes que celles des oscillateurs macroscopiques, ne sont toujours pas dotées d’un cadre théorique. Si certains chercheurs pensent qu’il est possible d’extraire les coefficients de transfert des composants à grande longueur d’onde issus d’analyses linéaires microscopiques (méthode de Lyapunov), cette théorie n’est toujours pas clairement définie. Les systèmes composés d’unités auto-propulsées semblent présenter des fluctuations d’une densité numérique anormalement importante – phénomène inconnu dans le domaine des matériaux à l’équilibre (hors criticalité), mais observé lors d’expérimentations sur des milieux granulaires – un phénomène dont les modèles théoriques actuels ne rendent que partiellement compte.

De nouvelles découvertes sont attendues de la description à l’échelle mésoscopique intermédiaire reliant les niveaux microscopiques et macroscopiques par les quantités de granularité pertinentes à des échelles spatio-temporelles locales appropriées. En raison de l’importance des fluctuations dans les phénomènes hors équilibre, les équations aux dérivées partielles (EDP) qui en découlent devraient produire des conditions stochastiques, souvent multiplicatives, dans les champs de granularité. L’analyse de ces EDP stochastiques est un défi à relever par les physiciens comme par les mathématiciens, d’un point de vue numérique et analytique. Pour cela, de nouvelles techniques très puissantes, comme le groupe de renormalisation non perturbatif, promettent d’apporter un nouvel éclairage sur ce sujet dans un proche avenir.

Si les chercheurs se sont jusqu’à présent concentrés sur des systèmes constitués d’unités en grande partie identiques, de nombreuses questions sont soulevées par des systèmes tels que les organes ou tissus faisant intervenir différents types cellulaires ainsi que la matrice extracellulaire ou les sociétés composées d’unités de différentes sortes (par exemple des castes différents). Un autre élément important caractéristique de certains systèmes biologiques qui les différencie des systèmes physiques, est la présence d’une forte anisotropie de la perception à l’échelle individuelle. Ceci introduit une très forte asymétrie des interactions entre les individus. Ainsi dans un banc de poissons, un individu va interagir très fortement avec d’autres poissons qui sont situés devant lui; alors que ces derniers vont peu interagir avec ceux situés à l’arrière. Cette modulation angulaire du poids des interactions va avoir un impact très important sur les formes de déplacement qui vont émerger à l’échelle du banc.

Par ailleurs, il est bien connu depuis très longtemps que la vie en groupe peut induire des modifications profondes de la physiologie et du comportement des individus qui constituent ces sociétés en particulier quand la densité augmente.

Cet effet de groupe qui est particulièrement spectaculaire chez le criquet pèlerin où l’augmentation de la densité d’individus conduit au passage d’une phase solitaire à une phase grégaire, résulte de l’augmentation du taux de sérotonine dans les ganglions thoraciques sous l’effet des contacts mécaniques entre les criquets. Des phénomènes similaires dans lesquels l’intensité ou la forme des interactions pourraient être modulés par la densité des individus et déterminer des transitions de comportement collectifs sont encore très largement inexplorés.

La compréhension complète de l’émergence des phénomènes collectifs dans de tels systèmes nécessite la prise en compte de l’asymétrie des interactions entre ces éléments et de la modulation des interactions par la densité d’individus. Dans ce contexte il faut savoir si les propriétés émergentes dans ces systèmes sont les mêmes que celles observées dans des systèmes avec interactions homogènes. Dans le cas contraire il faut identifier quelles sont les caractéristiques spécifiques des propriétés collectives  dues à l’asymétrie de l’interaction.

Enfin, il est important de rappeler que l’approche théorique doit être développée conjointement aux observations expérimentales. L’étude des modèles doit fournir des résultats sous une forme permettant de les comparer et de les valider par des expérimentations quantitatives.

Ce sont notamment les techniques de reconstruction spatiale – permettant de mesurer la position et la trajectoire en trois dimensions de chacune des unités au sein d’un grand groupe – qui s’avèrent de plus en plus utiles pour extraire des informations sur les dynamiques à l’échelle microscopique.

2.2. Peut-on prédire certains comportements collectifs chez l’homme ?

Depuis quelques années, l’étude des comportements collectifs chez l’homme connaît un essor particulièrement important lié notamment au développement de nouveaux outils numériques et technologiques. De nombreuses technologies de micro-localisation permettent aujourd’hui la collecte de vastes ensembles de données sur des phénomènes jusqu’alors inaccessibles : la mobilité, les interactions et les décisions individuelles au sein de groupes humains. Ces données sont précieuses pour comprendre les mécanismes qui gouvernent de nombreuses dynamiques de groupes sur de grandes échelles. Ainsi, il est possible d’observer et d’analyser la formation de groupes et de communautés, la structure des réseaux d’interactions au sein de ces groupes, les actions de collaborations, ou bien encore les phénomènes de propagation de rumeurs. Des études récentes ont analysé des données massives et anonymisées sur les déplacements d’utilisateurs de téléphone portables (Song et al., 2010) ; ces études ont montré que contrairement à l’acception commune selon laquelle les actions humaines sont aléatoires et largement imprédictibles, la mobilité humaine suivait des formes de déplacement étonnamment régulière. Ainsi plus de 93 % des déplacements individuels sont réguliers et prédictibles et ne diffèrent pas significativement selon les catégories démographiques, sociales ou linguistiques. Ce type d’approche peut potentiellement être appliqué  à plusieurs autres comportements collectifs chez l’homme comme les choix collectifs.

De plus,  l’étude des comportements collectifs humains en situation de catastrophe, essentielle en matière de préconisations pour réduire la vulnérabilité des sociétés et augmenter leur résilience, est difficile à mener. Les possibilités d’expérimentation in vivo sont très limitées, en raison des coûts induits et des difficultés à reproduire des conditions réalistes. Des méthodes alternatives, basées sur les approches mathématiques et les méthodologies in silico, s’offrent alors aux chercheurs. Sous cet angle de recherche, à savoir la formalisation mathématique des réactions humaines, ces dernières deviennent un objet d’étude partagé entre les Mathématiques, les Sciences Humaines et Sociales, et l’Informatique.

2.3. Dans quelle mesure le contrôle des informations échangées entre individus, peut-il permettre d’accroître les capacités d’intelligence collective de groupes humains (coopération, collaboration, délibération) ?

Le développement d’Internet et des nouveaux outils de communication mobiles permet d’envisager un traitement spécifique de l’information permettant d’accroitre la coopérativité au sein de groupes humains. L’enjeu est de déterminer sous quelles conditions des interactions contrôlées entre les individus d’un groupe peuvent conduire celui-ci à trouver ou à se rapprocher de la bonne solution à un problème.

2.4. Peut-on contrôler la dynamique de certains déplacements collectifs à l’échelle cellulaire en contrôlant certaines molécules impliquées dans la coordination entre cellules?

A une autre échelle, celle de groupes de cellules, l’ingénierie génétique permet aujourd’hui le contrôle des interactions entre cellules à travers l’activation ou l’inactivation de certains gènes qui contrôlent la production de certaines molécules. Ces nouveaux outils permettent un contrôle des mécanismes qui à l’échelle individuelle interviennent dans la genèse de certains phénomènes collectifs, comme par exemple la capacité de groupes de lymphocytes à remonter des gradients de chimiokines. Alors que cela est impossible à réaliser à l’échelle d’un organisme. En effet, les interactions comportementales intègrent de nombreux processus, et il est intéressant de supprimer une interaction spécifique comme l’attraction sans affecter l’alignement car toutes les deux dépendent d’une information visuelle chez les poissons. Notons que certains systèmes sont dotés naturellement de régulations changeant les interactions entre cellules. Ainsi les hormones  (œstrogènes, progestérones, prolactines, …) régulent les interactions produisant la morphogenèse des glandes mammaires et change le résultat de ce processus [Speroni, L., Whitt, G. S., Xylas, J., Quinn, K. P., Jondeau-Cabaton, A., Barnes, C., … & Soto, A. M. (2013). Hormonal regulation of epithelial organization in a three-dimensional breast tissue culture model. Tissue Engineering Part C: Methods, 20(1), 42-51.]. In vitro,  la composition de la matrice extracelullaire, élément crucial médiant certaines interactions entre cellules peut aussi être changée ce qui est décisif pour la morphogenèse [Montévil, M., Speroni, L., Sonnenschein, C., & Soto, A. M. (2016). Modeling mammary organogenesis from biological first principles: cells and their physical constraints. Progress in Biophysics and Molecular Biology, 122(1), 58-69.].

2.5. Les systèmes vivants se maintiennent-ils dans des états critiques ?

La physique statistique,  permet de relier les variables macroscopiques d’un système (sa description thermodynamique) aux interactions entre les constituants du système au niveau microscopique (issues des premiers principes).

On appelle « phase »  un état du système ayant des propriétés macroscopiques mensurables qui lui sont propres, (compressibilité des liquides, très différente de celle des gaz, par exemple). Un diagramme de phase permet d’identifier dans l’espace des paramètres macroscopiques pertinents pour le système (par exemple P,T,V pour un fluide simple), les régions dans lesquelles le système se présente sous différentes phases. Ces régions sont séparées par des régions de dimension inférieur (surfaces ou lignes, par exemple) qui matérialisent la région de transition. Dans certains cas, à la  le système change de phase tout en étant toujours homogène. Pendant ce type de transition, dite  critique, le système se trouve dans une phase critique, homogène aussi (on n’observe pas de coexistence de phases comme dans la transition liquide-solide), bien caractérisée, où la longueur de corrélation devient infinie et la fonction de corrélation a une décroissance en loi de puissance (au lieu d’une décroissance exponentielle dans la phase “normale”), transmettant ainsi les fluctuations à tout le système.

La criticalité auto-organisée est une propriété des systèmes dynamiques qui ont un point critique comme attracteur. C’est le cas des certains systèmes ouverts, hors équilibre. Leur comportement macroscopique présente une invariance d’échelle spatiale et/ou temporelle caractéristique d’un point critique lors d’une transition de phase. A la différence des phénomènes critiques à l’équilibre, pour ce type de système critique auto-organisé, il n’est pas nécessaire de fixer  les paramètres de contrôle à une valeur précise, l’auto-organisation il résulte de la dynamique du système.

Les systèmes vivants montrent, des états stationnaires ordonnés, caractérisés par des dynamiques collectives  qui émergent des comportements et des interactions des éléments individuels: des études sur les systèmes collectifs tels que les nuées d’oiseaux, les bancs de poissons ou encore certains réseaux de neurones, montrent que l’ont peut catégoriser et caractériser leurs dynamiques collectives à partir de leurs interactions individuelles (ref nécessaires).

Une approche de physique statistique appliquée à l’étude de ces systèmes suggère qu’ils se maintiennent dans la zone de criticalité. Dans ce cas, du à l’existence d’une longueur de corrélation ayant la taille du système, on pourrait expliquer comment ils  adaptent rapidement leur comportement collectif en fonction d’une perturbation extérieure (approche d’un prédateur pour un groupe d’animaux, ou stimulation sensorielle pour un réseau de neurones) [Luković, M., Vanni, F., Svenkeson, A., & Grigolini, P. (2014). Transmission of information at criticality. Physica A: Statistical Mechanics and its Applications, 416, 430-438.]. Dans certains systèmes intra-organismes, la structure multi-échelles issue d’un régime critique semble exploitée pour accommoder des hétérogénéités fonctionnelles (tel que les radeaux lipidiques dans la membranes cellulaires) [Machta, B. B., Papanikolaou, S., Sethna, J. P., & Veatch, S. L. (2011). Minimal model of plasma membrane heterogeneity requires coupling cortical actin to criticality. Biophysical journal100(7), 1668-1677.].

Une autre question importante concerne l’influence de l’anisotropie/l’asymétrie des interactions sur la dynamique du groupe:

De façon générale, on peut formaliser la caractériser structurellement chaque système en précisant le bassin d’influence local/distal entre les éléments du système. Dans un système physique (cristal, liquide, gaz), ce sont les interactions fondamentales, leurs symétries et la façon dont elles propagent les perturbations à travers le milieu (qui peut être ou inhomogène ou anisotrope) qui vont induire les corrélations d’activités de proche en proche. Dans le cas d’un réseaux de neurones, ce sont les extensions des champs synaptiques qui caractérisent l’influence locale ou distale, excitatrice ou inhibitrice des cellules voisines sur l’unité considérée et que l’on modélise conventionnellement par un noyau de convolution (du type “différence de gaussiennes” ou “mexican-hat”). Dans le cas des dynamiques collectives d’organismes en mouvement, ce sont la perception et les échanges d’information entre individus (traitements sensori-moteurs pour l’estimation et l’adaptation à la position, la vitesse ou l’alignement des voisins) dont les anisotropies et les asymétries des interactions vont diriger la dynamique collective sur différentes phases.

Plusieurs autres questions restent en suspens:

– comment définir la criticalité d’un système collectif biologique (mesurer des longueurs de corrélation?)

– quelles sont les variables qui permettent aux systèmes de se maintenir dans la zone de criticalité (attracteur de criticalité?)

– quel est l’impact de l’anisotropie/symétrie des interactions sur la dynamique collective et son maintient dans un état quasi-critique.

– comment faire le lien entre la caractérisation des états dynamiques collectifs et les questions de morphogenèse: la caractérisation d’une “forme” émergente à un niveau de description peut elle toujours être caractérisée objectivement par des paramètres du niveau élémentaire sous-jacent, ou participe t-elle de la subjectivité de l’esprit de l’observateur: voir à ce sujet les travaux sur l’émergence des formes visuelles apparentes et sur le “triangle de Kanizsa” par J. Petitot et A. Sarti, et sur les modèles d’hallucinations (P. Breslov et al. 2002). Pour résoudre cette question, il semble pertinent de faire appel aux “méthodes de renormalisation” pour caractériser objectivement l’influence de la dynamique d’un niveau sur l’organisation des niveaux supérieurs (Longo & al. 2012).

Piste méthodologique sur le Groupe de Renormalisation:

Quand la dynamique d’un système s’approche d’un point critique, de large régions d’une nouvelle phase apparaissent de sorte que les corrélations entre les constituants microscopiques s’étendent sur des distance macroscopique. On caractérise cette situation en introduisant une “longueur de corrélation” qui mesure l’étendue de ces corrélations [évaluent la cohérence du système]. Au point critique cette longueur devient infinie et typiquement les corrélations décroissent selon une loi de puissance (non-intégrable, ce qui contraste avec la décroissance exponentielle). Les exposants de ces lois de puissances présentent un remarquable degré d’universalité car les mêmes exposants apparaissent pour des système physiquement différents tels qu’un gaz et une substance ferromagnétique.

Le groupe de renormalisation (GR) est à la fois une façon de caractériser les phénomènes critiques et un outils calculatoire. Il a été introduit pour expliquer les deux aspects mentionnés ci-dessus à savoir l’émergence des lois de puissance et l’universalité des exposants. Son argument qualitatif est le suivant: si les corrélations s’étendent sur des distances macroscopiques, il doit être indifférent de considérer le système comme constitué des objets microscopique originaux ou de blocs contenant un grand nombre de ces constituants. A la limite, où les corrélations s’étendent à l’infini, la taille des blocs ne doit plus avoir d’importance et cela conduit immédiatement à des propriétés d’homogénéité pour les fonctions de corrélation. Si les corrélations sont des fonctions ayant un symétrie d’échelle, le système ne change pas de nature si on le considère comme constitué des objets microscopique originaux ou de blocs contenant un grand nombre de constituants. Le passage d’un échelle à l’autre décrit alors asymptotiquement les symétries d’échelles du système.

3. Success stories

3.1. Décrypter et modéliser les interactions impliquées dans la construction du nid chez les fourmis

La construction collective d’un nid chez les fourmis nécessite une coordination très étroite de l’activité bâtisseuse des individus qui s’opère au moyen d’interactions « stigmergiques » (du grec stigma qui signifie piqûre et ergon qui signifie travail). Ce mécanisme hypothétique, introduit par Pierre-Paul Grassé à la fin des années cinquante permettrait aux insectes de coordonner indirectement leurs activités en utilisant les structures déjà construites (Grassé, 1959). Schématiquement, les traces laissées sur le sol par un insecte lorsqu’il se déplace comme les pistes des phéromones ou les structures qu’il a construites constituent des stimuli qui vont ensuite déclencher d’autres comportements chez les autres insectes de la colonie. L’activité de ces insectes va alors modifier les stimuli qui ont déclenché leurs comportements, conduisant à la formation de nouveaux stimuli. Ces boucles de rétroaction sont à l’origine de la coordination des activités des insectes et donnent ainsi l’illusion que la colonie suit un plan pré défini. Mais la l’existence de type mécanisme de coordination des activités de construction n’a jamais été démontrée expérimentalement et à même parfois été battue en brèche par certains auteurs.

Ces mécanismes de coordination ont récemment été décryptés par des équipes françaises chez la fourmi des jardins Lasius niger (Khuong et al., 2016). Chez cette espèce, le nid est constitué de deux parties : une partie souterraine constituée de chambres creusées dans le sol et reliées par un réseau de galeries ; et un dôme en terre dont la structure interne est constituée d’un grand nombre de chambres en forme de bulles étroitement imbriquées les unes aux autres. Deux principales formes d’interactions avec les structures qu’elles construisent permettent aux fourmis de coordonner leurs activités. Les fourmis déposent préférentiellement du matériau de construction dans les zones où d’autres dépôts ont déjà été réalisés. Ce comportement stigmergique qui produit une « rétroaction positive » (une effet boule de neige) est induit par une phéromone (une substance chimique) ajoutée par les fourmis dans le matériel de construction. L’accumulation de boulettes d’argile aux mêmes endroits conduit à la formation de piliers. Une seconde forme de rétroaction intervient ensuite lorsque les piliers atteignent une hauteur correspondant à la longueur moyenne du corps d’une fourmi. Les ouvrières construisent alors des extensions latérales qui constituent par la suite des « chapiteaux » de forme globulaire. Les fourmis utilisent ainsi leur corps comme un gabarit pour déterminer la hauteur à partir de laquelle elles cessent de construire verticalement et commencent à déposer des boulettes latéralement sur les piliers. La fusion des chapiteaux achève la construction des chambres et de nouveaux piliers sont ensuite érigés au-dessus constituant un nouvel étage dans la structure. Mais ce qui est surtout frappant, c’est le remodelage permanent de la structure. Si la forme globale du nid reste la même au cours du temps, les ouvrières détruisent en permanence certaines parties du nid tout en reconstruisant de nouvelles structures. Ce remodelage permet aux fourmis d’adapter en permanence la structure du nid à la taille de la population et aux conditions environnementales. Enfin la phéromone ajoutée par les fourmis au matériel de construction joue un rôle clé dans la croissance et la forme des nids. La durée de vie de la phéromone est en effet fortement influencée par les conditions de température et d’humidité. Ainsi lorsque la phéromone s’évapore rapidement, le nombre total de piliers construits par les fourmis diminue fortement ; quant aux chapiteaux, ils s’aplatissent et forment des auvents. Grâce à ce mécanisme, lorsque la température augmente, les fourmis construisent des abris adaptés, dont la forme va changer en fonction des conditions de l’environnement, tout en conservant pourtant les mêmes comportements individuels.

3.2. Décrypter et modéliser les interactions entre poissons au sein d’un banc

Plus de la moitié des espèces de poissons sont grégaires, soit environ 10000 espèces. Ces animaux se regroupent en bancs qui se déplacent à l’unisson comme s’ils ne constituaient qu’un seul et même super-organisme. Ils adoptent également une étonnante variété de comportements collectifs qui leur permettent de repérer plus facilement des sources de nourriture, et aussi d’identifier les dangers et échapper aux prédateurs. Comme pour d’autres phénomènes observés chez d’autres espèces grégaires comme les nuées d’oiseaux, ou les troupeaux d’ongulés, ces déplacements collectifs sont auto-organisés. Ils ne sont régis par aucun poisson leader, ni aucune hiérarchie. La coordination résulte d’un ensemble d’interactions entre les individus au cours desquelles ceux-ci échangent des informations et y répondent en adaptant leurs mouvements. On peut aujourd’hui décrypter ces interactions entre poissons, construire des modèles mathématiques fidèles, les simuler sur ordinateur, et ainsi mieux comprendre comment émerge leur intelligence collective. Pour cela, on combine des techniques d’analyse des comportements utilisées en éthologie et des outils développés en physique statistique. Ces travaux ont permis de mettre en évidence deux types d’interactions entre les poissons : l’attraction et l’alignement (Gautrais et al., 2012 ; Calovi et al., 2017). Selon leur force et la façon dont ces deux interactions se combinent, le banc sera sensible à un infime changement de comportement d’un ou plusieurs poissons et il adoptera plusieurs formes de comportements collectifs. Chez les doules à queues rubanées (Kuhlia mugil), une espèce côtière apparentée aux harengs vivant sur les côtes de l’île de la Réunion, les chercheurs ont identifié quatre formes de comportements collectifs (Calovi et al., 2014). La première est semblable à un vol de moucherons, les poissons restant regroupés de manière lâche tout en se déplaçant au hasard sans direction définie: attraction, alignement et vitesse de nage sont alors très faibles. Lorsque la vitesse des poissons augmente (au-delà de 0,2 mètre par seconde), quand ils détectent notamment un prédateur, ils peuvent adopter un mouvement polarisé où l’alignement domine la force d’attraction. Pour d’autres combinaisons des interactions d’attraction et d’alignement, ils forment des structures en vortex et tournent de façon persistante autour d’un axe vide de tout poisson. Enfin lorsque l’attraction est forte mais l’alignement quasi nul, et pour des gammes de vitesses comprises entre 0.8 et 1.2 mètre par seconde, le banc adopte spontanément une formation en ligne sinueuse. On peut ainsi établir un « diagramme de phase » très précis définissant les conditions d’apparition de ces différents comportements collectifs en fonction des paramètres d’attraction et d’alignement des poissons. Les physiciens utilisent de tels diagrammes pour décrire les différents états possibles d’un système. Ceux de l’eau, par exemple : solide, liquide ou gazeuse selon les températures et les pressions considérées. Or, pour une série de combinaisons d’attraction et d’alignement, lorsque la vitesse de nage est importante (supérieure à 0.8 mètre par seconde), les doules se trouvent dans un état qualifié de «métastable » – entre le banc polarisé et la structure en vortex. Lorsqu’un banc se retrouve dans cet état, la plus petite modification du comportement d’un seul des poissons peut faire basculer le banc d’un régime à un autre. Le groupe acquiert ainsi une très grande réactivité et devient sensible à toutes sortes de perturbations survenant dans son environnement (Calovi et al., 2015). Cet état, dans lequel le banc oscille en permanence entre un déplacement dans une direction privilégiée (banc aligné) et un déplacement circulaire (vortex), lui permet d’adopter une réponse qui maximise les chances de survie de chaque poisson lorsque surviennent les attaques de prédateurs.

3.3. Comportements collectifs d’agents cognitifs en biologie:  le système immunitaire

Un système cognitif dynamique reposant sur des comportements collectifs de cellules échangeant des informations à travers des réseaux d’interaction est le système immunitaire qui est un système complexe critique, oscillant et adaptatif. La dynamique des comportements collectifs et réseaux d’interactions entre lymphocytes et immuno-récepteurs diversifiés commence à être expérimenté in vivo et in silico.

Dans l’article de Thomas-Vaslin 2014, les flux, comportements collectifs et réseaux d’interaction des lymphocytes dans un organisme sont schématisés par un réseau d’interaction collectifs via les immuno-récepteurs à la surface des lymphocytes ou ceux qui sont secrétés comme les anticorps qui sont eux mêmes des antigènes.

Challenge: Comment peut on modéliser les comportements collectifs des lymphocytes qui rendent compte de l’émergence de propriétés dynamiques, supra-clonales, dominantes au sein du système immunitaire?

Par exemple comment modéliser

  • l’organisation du système immunitaire et de la sélection des répertoires durant l’ontogénie ?
  • Le maintien de la tolérance dominnate et de la mémoire immunologique pour aboutir à des processus cognitifs adaptatifs.

La prise en compte de ces comportements collectifs, réseaux d’interactions, boucles de régulation positives et négatives, et occurrence dans le temps des événements (historicité), dans des modélisations multi-échelles du système immunitaire devrait permettre de mieux cerner les propriétés et l’architecture évolutive du système : par exemple on souhaiterait pouvoir modéliser les processus d’apprentissage et de sélection des répertoires des lymphocytes diversifiés permettant l’établissement de la tolérance au soi mais aussi la capacité adaptative permettant des réponses immunes efficaces.

En cas de perturbations de ces comportements collectifs par exemple avec des immunisations, infections, ou de perturbation des flux et dynamique des lymphocytes au cours du vieillissement, on voudrait pouvoir modéliser le basculement vers un état d’auto-immunité ou inflammatoire, ou pouvoir manipuler la restauration vers l’état de tolérance dans des protocoles d’immunothérapie.

 

3.4. Réseaux d’oscillateurs et synchronisation: application aux réseaux de neurones.

Les réseaux d’oscillateurs sont depuis toujours un des paradigmes les plus utilisés pour décrire les processus dynamiques qui se produisent dans les systèmes complexes. Les grands réseaux d’oscillateurs couplés avec différents attracteurs périodiques ont été étudiés dans de nombreux domaines de la science et de la technologie, comme, par exemple, la biologie, la physique et l’ingénierie (Kuramoto, Winfree). La caractéristique principale des réseaux oscillants est l’émergence de la synchronisation entre les différents éléments; effectivement, souvent ces éléments changent leur rythme de sorte que beaucoup d’entre eux montrent un comportement corrélé. Il est évident que la compréhension de la manière dont les interactions entre les cellules influent sur l’aspect et les propriétés de ces oscillations est de cruciale importance pour caractériser ces dynamiques complexes.

Dans l’hypothèse d’un couplage faible (que l’on peut retrouver dans certaines applications en neuroscience (Hoppenstead & Izhikevich)), des nombreux résultats ont été obtenus en terme de synchronisation de phase (Kuramoto, Pikovsky et al., Hoppenstead & Izhikevich).

 

REFERENCES

Bak P (1996). How Nature Works: The Science of Self-organized Criticality. New York: Copernicus

Bialek W, Cavagna A, Giardina I, Mora T, Pohl O, Silvestri E, Viale M, Walczak AM (2014) Social interactions dominate speed control in poising natural flocks near criticality. Proceedings of The National Academy of Sciences USA 111: 7212-7217.

Bresslov & al. (2002). Neural Comput. What geometric visual hallucinations tell us about the visual cortex. Neural Computation, 14 : 473–491.

Calovi, D.S., Litchinko, A., Lecheval, V., Lopez, U., Pérez Escudero, A., Chaté, H., Sire, C. & Theraulaz, G. Disentangling and modeling interactions in fish with burst-and-coast swimming (submitted).

Calovi, D.S., Lopez, U., Schuhmacher, P., Sire, C., Chaté, H. & Theraulaz, G. (2015). Collective response to perturbations in a data-driven fish school model. Journal of the Royal Society Interface, 12: 20141362.

Calovi, D.S., Lopez, U., Ngo, S., Sire, C., Chaté, H. & Theraulaz, G. (2014). Swarming, Schooling, Milling: Phase diagram of a data-driven fish school model. New Journal of Physics, 16: 015026.

Camazine, S., Deneubourg, J.L., Franks, N., Sneyd, J., Theraulaz, G. & Bonabeau, E. (2001). Self-Organization in Biological Systems. Princeton University Press.

Dauphiné A., (2003). Les théories de la complexité chez les géographes. Economica, Paris.

Deokjae Lee, Jae-Young Kim, Jeho Lee, and B. Kahng. Forest Fire Model as a Supercritical Dynamic Model in Financial Systems. (2015). Phys. Rev. E 91, 022806.

Gautrais, J., Ginelli, F., Fournier, R., Blanco, S., Soria, M., Chaté, H. & Theraulaz, G. 2012. Deciphering interactions in moving animal groups. Plos Computational Biology, 8: e1002678.

Grassé, P. P. (1959). La reconstruction du nid et les coordinations interindividuelleschez Bellicositermes natalensis et Cubitermes sp. La théorie de la stigmergie: essai d’interpétation du comportement des termites constructeurs. Insectes Sociaux, 6 : 41–83

Hoppensteadt, F. C., & Izhikevich, E. M. (2012). Weakly connected neural networks (Vol. 126). Springer Science & Business Media.

Khuong, A., Gautrais, J., Perna, A., Sbaï, C., Combe, M., Kuntz, P., Jost, C. & Theraulaz, G. 2016. Stigmergic construction and topochemical information shape ant nest architecture. Proceedings of The National Academy of Sciences USA, 113: 1303–1308.

Kuramoto, Y. (2012). Chemical oscillations, waves, and turbulence (Vol. 19). Springer Science & Business Media.

Longo, G & Montevil, M. (2015). Perspectives on organisms: biological time, symetry and singularity. Ed. Springer.

Longo, G., Montevil, M. & Pocheville, A. (2012). From bottom-up approaches to levels of organization and extended critical transitions. Frontiers in Physiology, 3 : 232.

Mora, T. & Bialek, W. 2011. Are Biological Systems Poised at Criticality? J. Stat. Phys. 144: 268-302.

Pikovsky, A., Rosenblum, M., & Kurths, J. (2003). Synchronization: a universal concept in nonlinear sciences (Vol. 12). Cambridge university press.

Song, C., Qu, Z., Blumm, N., & Barabási, A.-L. (2010). Limits of Predictability in Human Mobility. Science, 327 : 1018-1021.

Tkacik et al., (2015). Thermodynamics and signatures of criticality in a network of neurons. Proceedings of The National Academy of Sciences USA, 112 : 11508–11513

Weitz, S., Blanco, S., Fournier, R., Gautrais, J., Jost, C. & Theraulaz, G. 2012. Modeling Collective Animal Behavior with a Cognitive Perspective: A Methodological Framework. Plos One, 7: e38588.

Winfree, A. T. (2001). The geometry of biological time (Vol. 12). Springer Science & Business Media.

 

PISTES ET REFERENCES COMPLEMENTAIRES

Schulz, R., Werner, B., & Behn, U. (2014). Self tolerance in a minimal model of the idiotypic network. Frontiers in Immunology.

Menshikov, I., Beduleva, L., Frolov, M., Abisheva, N., Khramova, T., Stolyarova, E., & Fomina, K. (2015). The idiotypic network in the regulation of autoimmunity: Theoretical and experimental studies. J Theor Biol, 375, 32-39. doi:10.1016/j.jtbi.2014.10.003

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Thomas-Vaslin, V. (2014). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

 

Commentaire général: La description des succès stories citées est bcp trop  longue et déséquilibrée entre les divers cas. L’idée était d’énoncer quelques résultats qui ont vraiment fait changer le domaine, montrer par quelques lignes en quoi ces résultats on fait date,    et donner les réferences concernées. Il serait aussi bien faire ressortir pour toutes  les succèss stories  comment elles s’insèrent dans la description de l’état de l’art sur le domaine faite en introduction.

 

 

Épistémologie formelle : des Big Data aux modèles intégrés

A ajouter : questions ethiques

2017 : Rapporteur : Paul Bourgine. Contributeurs : Paul Bourgine (Complex System Digital Campus CS-DC), Rémy Cazabet (LIP6, Paris), Valérie Gouet-Brunet (IGN/LaSTIG/MATIS, Saint-Mandé), José Halloy (Université Paris Diderot, LIED UMR8236), Bertrand Jouve (XSYS, Toulouse), Robin Lamarche-Perrin (LIP6, ISC-PIF, Paris), Evelyne Lutton (INRA, Grignon), Pierre  Parrend (ECAM, Strasbourg-Europe), Nadine Peyrieras (USR3695 Bioémergences, Gif-sur Yvette, ISC-PIF, CS-DC).

2008 : (Épistémologie formelle, expérimentation, apprentissage automatique) :

Rapporteur : Nicolas Brodu (INRIA – Rennes). Contributeurs : Paul Bourgine (CREA, École polytechnique), Nicolas Brodu (INRIA – Rennes), Guillaume Deffuant (CEMAGREF), Zoi Kapoula (CNRS), Jean-Pierre Müller (CIRAD), Nadine Peyreiras (CNRS).

Mots clés : Big Data dynamique, Modèles partiels, Modèles intégrés, Protocole d’acquisition et d’organisation de données, Nomadisme de concepts, Partage et interopérabilité des données et des logiciels, Deuxième révolution internet.

  1. Contexte et définition

            1.1 Concept de données massives

Le big data peut se  définir par le fait que dans la discipline dont les données relèvent, l‘augmentation de la quantité de données disponibles et l’évolution de leur nature, leur variété, nécessitent d’autres stratégies que celles pratiquées couramment. La caractérisation de la frontière vers le « Big Data » est donc différente suivant les disciplines. L‘informatique donnerait comme limite celle de la puissance informatique nécessaire au traitement des données ou de la capacité des algorithmes à les traiter.  En sciences humaines ou dans les domaines de la biologie ou de la santé, il s’agit de la nécessité de concevoir de nouvelles méthodes d’analyse qui vont de paire avec de nouveaux modes de collecte et d’organisation des données, sans qu’il s’agisse nécessairement de PetaBytes d’information.  Le concept de Big Data s’accompagne de nouvelles stratégies d’organisation des données et d’extraction des informations qu’elles peuvent contenir. 

            1.2 Données massives et approches systèmes complexes : un lien très fort

Les approches systèmes complexes sont consubstantielles de l’analyse de données plus ou moins massives, même si la question de paramètres permettant de quantifier et plus encore de qualifier de façon pertinente la massivité des données n’est pas évidente,  ne serait-ce que du fait de l’évolution de la perception qu’on en a, en fonction des moyens d’acquisition et d’analyse dont on dispose. Les approches systèmes complexes sont conçues pour traiter, reconstruire et modéliser des données multiéchelles et multiniveaux dans un contexte nécessairement interdisciplinaire et pour de ce fait accompagner les disciplines expérimentales dans une transition épistémologique. Les données requises peuvent ne pas prendre en compte un grand nombre d’éléments ni même tenter de capturer tous les niveaux possibles, mais seront éventuellement massives par le nombre d’instances des mêmes phénomènes qu’il sera nécessaire d’analyser pour rendre compte des processus en jeu au moyen d’un cercle vertueux expérimentation- reconstruction- modélisation- validation. L’importance des données et de leurs caractéristiques pour atteindre les objectifs d’une modélisation intégrée multi-niveaux justifie de penser un guide des bonnes pratiques (section 2). Il s’agit, à la lumière de l’expérience acquise dans le domaine, de rationaliser les démarches de mise au point de protocole d’acquisition, d’organisation et d’analyse de données massives en fonction des questionnements qui les motivent.

            1.3 Utilisation de données massives déjà acquises

Définir cohorte.

Le concept de BigData s’est imposé avant que ne soient véritablement pensées les stratégies pour les analyser et donc pour les acquérir et les organiser. On se trouve ainsi avec des corpus de données dont les caractéristiques ne permettent pas une analyse de la dynamique des systèmes ou de la topologie, de la temporalité et de la probabilité des phénomènes. Il peut cependant s’avérer indispensable de les prendre en compte parce qu’ils correspondent à des cohortes uniques et portant la trace de l’historicité des processus. Les difficultés liées à l’utilisation de telles données (c’est le cas par exemple de données –omics en biologie (genomics, transcriptomics, proteomics, metabonomics, etc..)) sont aussi le fait de l’hétérogénéité de leur format, de leur documentation et de leur annotation. Ce type de problème  devrait être en principe résolu  lors de nouvelles acquisitions qui pourraient aussi occasionner la réorganisation de bases de données existantes. Il est en particulier souhaitable que les stratégies de documentation et d’annotation des données permettent leur utilisation sans la nécessité de l’intervention forte de l’expert à l’origine de leur acquisition et/ou de leur organisation.  Les masses de données similaires mais organisées en fonction de points de vues différents compromettent les stratégies d’apprentissage supervisées qui sont cependant nécessaires à la catégorisation  et à l’analyse des corpus de données.  Pour donner un exemple concret parmi d’autres, l’observation des micro-organismes à la surface du fromage conduit à un groupage intrinsèque qu’il est extrêmement difficile de confronter aux bases de données existantes. L’absence de standards uniques dans l’organisation de données de même type est un problème qui peut compromettre leur utilisation. Mais la question de la possibilité même de standards uniques se pose.  Elle est cependant cruciale pour l’interopérabilité de bases de données qui sont sans doute appelées à rester distribuées.

            1.4 Utilisation des données  à acquérir, données du passé et longues durées

Il existe des masses de données archivées, par exemple historique, sur des supports hétérogènes (papier, iconographie, objets, architecture, etc.). Ces données n’ont pas été récoltées dans un but de modélisation mais pour des raisons très variées, par exemple pour être utiles à des professions (notaires, architectes, sociologues, etc.) ou pour des statistiques d’Etat (écologie du paysage, etc.). Les défis sont d’acquérir ces données par une numérisation intelligente et surtout une re-construction intelligente, incluant l’organisation et l’interopérabilité de ces données, qui ne présupposent pas des usages qui en seront faits. D’autres défis concernent la re-construction de données manquantes de faire des retro-prédictions basées sur des modèles. Enfin c’est données pourront être utilisées dans une perspective d’analyses sur la longue durée des sociétés humaines. Ces données peuvent alors nourrir des démarches de prospectives pour répondre aux défis sociaux (voir section 3).

           1.5 Épistémologie formelle et appliquée (partie reprise de 2009, revoir éventuellement l’intégration)

Le monde moderne, notamment dans le domaine de la médecine, de l’environnement et de la sphère sociale, est de plus en plus dépendant de et confronté à de vastes systèmes constitués d’un grand nombre d’entités en interaction. Les données collectées à partir de ces systèmes, généralement à très grande échelle, représentent des défis considérables en termes d’efforts à déployer pour la reconstruction des dynamiques multi-échelles et leurs diverses influences descendantes et ascendantes. Ce travail requiert non seulement l’appui de l’épistémologie formelle et des calculs massifs, mais aussi une généralisation dite « science ouverte » inspirée par la communauté de la physique des hautes énergies. La compréhension d’un phénomène consiste à découvrir une approche suffisamment précise et concise pour expliquer sa structure et son comportement, pouvant être comprise par l’esprit humain. Dans la situation actuelle, l’intuition humaine se trouve souvent désemparée pour traiter les subtilités intrinsèques et les propriétés des systèmes complexes. En théorie, une technique formelle optimale permet d’obtenir des concepts candidats et des liens pouvant servir de base aux expérimentations menées par l’être humain. Si les formes optimales découvertes grâce aux méthodes théoriques s’opposent aux concepts optimaux conçus par le travail cérébral humain, la raison de cette divergence fera elle-même l’objet de recherches complémentaires. Pour comprendre les systèmes complexes, il faut définir et mettre en œuvre une épistémologie formelle et appliquée spécifique. De nouveaux outils et méthodes doivent être développés pour assister le travail de conception et d’interprétation des expérimentations en vue de :

  • identifier les entités pertinentes à une échelle spatio-temporelle donnée,
  • caractériser les interactions entre les entités,
  • évaluer et formaliser le comportement du système.

La stratégie allant de la conception d’une expérimentation jusqu’aux analyses postérieures des données devrait associer les approches fondées sur des hypothèses et celles appuyées sur des données par :

  • la définition de protocoles pour produire des données appropriées à la reconstruction des dynamiques multi-échelles,
  • l’initialisation, à travers une construction simultanée, d’un cadre théorique pour la prédiction et la falsification ultérieures des résultats issus d’expérimentations,
  • une approche fonctionnelle à différents niveaux pour permettre de concevoir des formalismes appropriés à ces mêmes niveaux tout en sachant que les méthodes théoriques ne permettent pas de garantir qu’un niveau formel puisse être déduit d’un autre, mais cela n’a pas d’importance puisque : pour comprendre un système, il est préférable d’étudier les étapes de reconstruction phénoménologique à chaque niveau pertinent.

La méthodologie débute par l’observation et la collecte de données. Toutefois, il arrive un moment où il n’est pas opportun de collecter des données sans savoir si celles-ci sont réellement nécessaires à la compréhension du comportement du système étudié. La reconstruction phénoménologique a pour résultat le paramétrage des données, et les mesures réalisées devraient permettre de détecter et de retracer ultérieurement les motifs transitoires et récurrents. Or, ces caractéristiques ne sont significatives que si elles sont intégrées dans un modèle permettant de valider les hypothèses. Notre objectif ici est de trouver un modèle compatible avec les observations. Le simple fait de construire un modèle nécessite déjà la formalisation des hypothèses sur le comportement du système ainsi que les processus sous-jacents. Une partie de la compréhension en découle, et la partie restante résulte de la possibilité de valider les prédictions relatives au modèle par l’expérimentation. Ce dernier point est représenté à droite de l’illustration ci-dessous. Épistémologie formelle et appliquée

Formal

Déroulement des opérations de reconstruction théorique

A supprimer (Valérie) :

——–

L’intégration de la science informatique est une composante essentielle de cette épistémologie. Elle a pour but de fournir ainsi que de permettre :

  • des outils d’exploration pour une approche fondée sur les données ; l’apprentissage automatique non supervisé peut fournir des motifs candidats et des relations qui échappent à l’intuition humaine ; l’apprentissage automatique actif sert à déterminer l’expérimentation la mieux appropriée pour tester un modèle qui est au centre de l’épistémologie dont il est question,
  • des outils permettant d’établir des comparaisons entre les modèles (fondés sur des hypothèses) et les observations ; l’apprentissage supervisé équivaut à l’exploration de l’espace des paramètres d’un modèle avec pour objet une correspondance optimale des données ; l’apprentissage auto-supervisé est appliqué quand un aspect temporel permet de corriger en continu les prédictions du modèle à partir des données observées concernant ces prédictions.

Les méthodes et les outils de la science informatique sont nécessaires lors des étapes suivantes :

  • les interactions entre l’humain et la machine : la visualisation et l’interaction à partir des données, des ontologies et des simulations,
  • la construction d’ontologies relatives à des entités fonctionnelles pertinentes à différents niveaux,
  • l’élaboration d’hypothèses, la formalisation des relations entre les entités, la conception de modèles,
  • la validation des modèles.

Nous attendons des méthodes et des outils issus de la science informatique qu’ils offrent les caractéristiques fondamentales spécifiques suivantes :

  • les outils génériques doivent être aussi indépendants que possible par rapport à une structure logique (d’interprétation) ; en particulier en raison des habitudes culturelles variables des différentes disciplines et des spécificités de chaque système, il est préférable de proposer une série d’outils indépendants et adaptables plutôt qu’un environnement intégré qui, de toute façon, ne pourra jamais englober tous les cas de figure,
  • l’indépendance doit également être de mise dans le choix des logiciels (en termes d’usage, d’évolution et d’adaptation des outils aux besoins spécifiques) ; cela exige des logiciels libres comme condition nécessaire, mais non pas suffisante,
  • les outils doivent être fonctionnels pour les spécialistes, mais également utilisables par des non spécialistes ; cela est réalisable, par exemple, s’ils offrent des caractéristiques spécifiques à un domaine avec une valeur ajoutée pour les spécialistes sous la forme d’extensions (modules, etc.) des outils génériques,
  • des outils prêts à utiliser ; les conditions requises pour l’application de l’outil doivent être minimales ; l’utilisation de l’outil ne doit pas impliquer de gros efforts techniques.

——–

 

  1. Défis : un guide des bonnes pratiques

            2.1 Du monde aux données : les protocoles expérimentaux

Les protocoles sont ici le point crucial : quelle est la question théorique mise à l’épreuve des faits ? quelles sont les dispositifs matériels assurant une production des données dans des conditions reproductibles ? la durée de la reproductibilité est elle compatible avec la précision requise ? quels sont les protocoles computationnels de validation des données et de reconstruction des données manquantes ? quelles sont les méthodes de dépouillement statistiques des données requises pour la science des systèmes complexes conduisant à de nouvelles disciplines intégratives et prédictives ou transdisciplines soucieuses de falsifiabilité, par exemple pour l’étude de la matière complexe, des systèmes biologiques, cognitifs ou territoriaux. Les objets d’études étant les systèmes complexes in Natura d’intérêt pour les hommes et leur planète, il s’agit d’avoir des résultats scientifiques auxquels un large public doit pouvoir faire confiance.

Peu d’ouvrages s’intéressent à l’analyse de protocoles expérimentaux. Un lien est fourni dans la bibliographie pour l’ouvrage de Herbert Simon, “Protocol Analysis”. Comme dans toutes disciplines ou sous-disciplines et a fortiori dans une nouvelle transdiscipline, il s’agit de se mettre d’accord sur des protocoles au fil d’un processus dynamique de construction guidé par l’évolution d’a priori qualitatifs. Dans bien des cas d’études de grands systèmes complexes, il est important dans les protocoles d’acquisition de données de pouvoir tenir compte de la rétroaction du système sur lui-même (cf: la matrice généralisée des Nations Unis sur les implications économiques, sociétales et écologiques). Dans un objectif de préconisation par exemple, l’acquisition doit être fortement dynamique et “en temps réel” puisque l’action des gouvernants ou des individus sur le système peut créer des cascades et des bifurcations que nous devons être en mesure d’identifier assez précisément et rapidement au vu des délais d’enchaînement des cascades. Dans le cadre de démarches participatives de récolte de données (crowdsourcing) en particulier, la conscience des individus ou de groupes d’individus à participer à une telle action partagée doit être prise en compte selon principes ci-dessous.

Pour traiter des questions relatives à l’adéquation des données au problème posé, de nouvelles stratégies de construction et de partage  de protocoles sont à inventer.

– Les discussions épistémologiques sur les théories, les concepts, les méthodes et les protocoles pour augmenter leurs interactions et leur nomadisme dans les réseaux scientifiques. Pour les partager de la façon la plus ouverte possible, des e-workshops sans frais peuvent être organisées, enregistrées et disséminées. S’il reste des désaccords sur les protocoles, le e-workshop peut déboucher sur l’organisation d’un e-tournoi entre protocoles sur une même classe d’objets scientifiques: ce e-workshop décide du (meta)protocole pour comparer les divers protocoles restés en débat.

– La validation, ou qualification, des données peut se faire par le biais d’experts, d’hommes de l’art et/ou de scientifiques, ou encore par le croisement avec d’autres données déjà validées, selon la classe de données considérées. Un principe très général de validation est de mettre en place un programme d’apprentissage actif avec un nombre quelconque d’experts volontaires pour distribuer l’effort. Ce programme apprend de façon active à partir de la différence entre son anticipation et la validation de l’expert chaque fois que ce programme est suffisamment sûr de la qualité de sa propre validation: de la sorte, l’apprentissage actif devient de plus en plus automatique et expert, et finit par ne demander à l’expert que les cas les plus intéressants.

            2.2 Des données aux modèles :

Ici les deux questions cruciales sont l’interopérabilité des données et le choix des protocoles de reconstruction phénoménologique et théorique.

a) Les protocoles de reconstruction phénoménologique organisent le passage des données dynamiques brutes multi-échelles à la phénoménologie augmentée des dynamiques multi-niveaux symboliques (catégorisation des entités) et hypersymboliques (catégorisation des relations binaires des networks ou n-aires des hypernetworks – réf Jeffrey Jonhson). Les protocoles de reconstruction théorique partent des reconstructions qualitatives phénoménologiques et des mesures associées aux entités et aux liens relationnels. La discussion autour de ces protocoles peut s’organiser de la même manière que pour les théories et les concepts avec des e-workshops et, éventuellement catalyser des dispositifs de comparaison  des méthodes de reconstruction restées candidates après discussion dans les e-workshops.

b) Afin de faciliter l’accès des communautés scientifiques aux approches systèmes complexes, il est important de disposer de données interopérables qui soient compatibles avec des analyses de dynamiques multi-échelles.  Ces données portent sur les entités élémentaires du système mais, dans la mesure du possible, sont aussi acquises sur des niveaux méso (un ou plusieurs). Pour chaque étude il est important de définir une méthodologie adéquate qui permette d’identifier les différents niveaux d’échelles pertinents et de s’accorder sur les paramètres les mieux à même de décrire le système à chacun de ces niveaux. Ce questionnement conduit à mieux penser les protocoles d’acquisition (voir paragraphe 2.1).

Dans une approche systèmes complexes, les données doivent aussi nécessairement renseigner les interactions entre les entités et les niveaux (cf b.ci-dessus). Entre les entités, il s’agit d’acquérir des données à même de rendre compte des dynamiques des interactions. Entre les niveaux, il s’agit souvent de penser en amont de l’acquisition des données, les conditions d’un recollement d’échelles qui sont souvent abordées par des méthodes et outils différents. Ce recollement d’échelles se fera par l’intégration de modèles opérant à des niveaux différents (voir paragraphe suivant) mais aussi par des couplages de données entre niveaux différents, couplage que l’on doit chercher à expliciter. On peut être amené à coupler des données de natures très différentes, par exemple qualitatives (connaissances expertes, données d’observations cliniques ou données sociales) et quantitatives (dénombrements, suivis de trajectoires, caractéristiques phénotypiques). Il est essentiel de travailler à construire des interopérabilités qui préservent au mieux le partage des cohortes pour la la richesse des coopérations interdisciplinaires. En outre, il est fréquent qu’il soit incontournable de prendre en compte des données de qualité différentes, soit comme évoqué plus haut du fait de l’existence de corpus de données uniques mais incomplets ou du fait d’artefacts expérimentaux persistant au delà de l’optimisation des protocoles. L’intégration des données nécessite alors de savoir évaluer la propagation des incertitudes dans la modélisation multi-niveaux du système, ainsi que d’être en mesure de les exploiter, notamment dans les cas d’usage.

L’interopérabilité  peut être résolue soit en forçant la mise en place de standards universaux sur la forme des données soit sur des systèmes “universels” de conversion de chaque format dans les autres formats. Ce travail de conversion est de la responsabilité de tout nouveau format. C’est un problème qui reste néanmoins souvent difficile à résoudre étant donné l’évolution et la variété des données, rendant leurs différentes natures quelquefois difficilement interopérables.

 

            2.3 Des modèles partiels aux modèles intégrées

Le paragraphe précédent traitait de la reconstruction de modèles phénoménologiques et théoriques (cf le § précédent). Ces modèles sont partiels comme liés à une cohorte ou un ensemble homogène de cohortes. La question est à présent de traiter le passage des modèles partiels à un modèle intégré portant sur une même classe d’entités multi-niveaux. Les niveaux d’une entité sont le plus souvent composés d’entités hétérogènes. A nouveau ce passage peut être traité par des e-workshops et, en cas de désaccords persistants par des e-tournois. Il est essentiel de comprendre que la chaîne des e-workshops s’enchaîne depuis les protocoles de données jusqu’aux protocoles de modèles intégrés, chaque fois en anticipant l’étape suivante. Mieux encore, les débats sur le protocole du modèle intégré boucle sur le protocole initial épistémologique sur les théories, les concepts et les méthodes (comme cela se fait dans les feuilles de route!).
Chaque modèle partiel agit comme un résumé des données dynamiques multi-échelles et multi-niveaux pour la cohorte. Cette étape est ainsi le “guide méthodologique” pour parvenir à un modèle intégré qui “résume” au mieux toutes les cohortes de données relatives à une même classe de systèmes complexes tout en restant le plus intelligible (rasoir d’Occam). En raison de cette double contrainte, le meilleur modèle intégré n’est pas l’ensemble des champions des modèles partiels. La métaphore du décathlon en sport illustre ce concept. 
De meilleures opportunités pour la synthèse du modèle intégré peuvent venir de modèles présentés pour les e-tournois ou des Olympiades. Le flux régulier de nouveaux modèles partiels produit un processus continu de révision des modèles intégrés existants 
La question du modèle partiel (resp. intégré) qui résume au mieux la (resp. les) cohorte(s) peut être traitée avec l’aide du nouveau domaine de la géométrie de l’information. Ce cadre est remarquable parce qu’il permet de comparer des méthodes en apparences diverses: deep learning fondé sur différentes représentations internes ou statistiques “optimales” maximisant l’entropie du modèle probabiliste sous contraintes des mesures statistiques et incrémentales en provenance  des protocoles de reconstruction phénoménologique.
  1. Répondre aux grands enjeux sociétaux : défis sociétaux et big data dynamiques multiéchelles
L‘ensemble des 17 objectifs de développement durable des Nations Unies (http://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable) pour 2030 propose une synthèse des défis eco-socio-économiques posés par les grandes classes de systèmes complexes à différents niveaux territoriaux. Les communautés scientifiques ont défini des ensembles de critères pour mesurer les avancées vers ces 17 objectifs. L’ICSU est l’organisation scientifique  qui fédère les communautés scientifiques internationales pour conseiller les Nations Unies sur de tels critères. 
Les Nations Unies proposent un nouveau système input/output de comptabilité nationale pour généraliser les tableaux purement économiques (dits de Léontief) de façon à intégrer progressivement l’ensemble des 17 défis éco-socio-économiques. Cette extension est nécessaire pour anticiper les cascades d’impacts multi-factoriels (écologiques, sociétaux et économiques) de toute décision aux différents niveaux territoriaux. Mais cette extension pose de redoutable problèmes pour estimer de façon fiable, durable, économique de tels tableaux, voire de valider en temps réels les impacts.
Le contexte international offre des opportunités globales efficaces pour aller dans cette direction:
a. La 2ème révolution internet apporte dès maintenant l’opportunité de partager les données comme si chacun travaillait sur le même ordinateur avec IPFS (InterPlanetary File System). Plus fondamentalement encore, elle apporte avec les Smart Contracts et la BlockChains une manière de garder une trace stigmergique non effaçable des interactions entre les individus et les groupes d’individus de toute taille: ces traces garantissent un niveau de confiance très élevé au sein de chaque Organisations Autonomes Décentralisée (OAD) créée par chaque Smarts Contracts. 
b. Pour les données individuelles et de groupes, le General Data Protection Regulation (GDPR) est un nouveau Règlement de l’Union Européenne qui rend obligatoire à partir de mai 2018 la mise à disposition de ses données personnelles à chacun. il sera donc nécessaire d’obtenir les consentements des intéressés pour utiliser (de façon anonymisées) les données qui les concernent.  La mise à disposition de leurs données dynamiques est d’une importance capitale pour la Science. Mais la publication de leurs dynamiques en interaction est aussi essentielle  i) pour des indicateurs éco-socio-économiques en “temps continu” représentant la “santé” des territoires à toutes les échelles ii) les initiatives participatives en temps réel des organisations associatives, gouvernementales et non gouvernementales et iii) des conseils personnalisés à chacun en matière d’orientation personnelle, d’éducation personnalisée ou de santé personnalisée tout au long de la vie basée sur les trajectoires multifactorielles de larges cohortes d’alter egos.
c. Pour les données relatives aux interactions entre les hommes et la nature, l’internet des objets peut jouer un rôle fondamental avec une régulation du partage organisée là aussi avec des Smart Contracts. Le  règlement GDPR s’applique aussi à l’internet des objets dont chacun dispose à la maison, à la ferme, dans les lieux de travail et dans la ville pour mieux réguler leurs dépenses, leurs approvisionnement alimentaire ou leur consommation/production en énergie.
d. Les principaux courants de la nouvelle économie (économie verte et bleue, économie sociale et solidaire, économie numérique et digitale) ont tous comme objectif de prendre en compte les multiples défis issus des 17 objectifs de l’UN. Par exemple, le dernier congrès mondial des coopératives (2 milliards de coopérateurs sur la planète) a voté son adhésion aux 17 objectifs de l’UN. 
4. Success stories
Les exemples de réussite (success stories) permettent de valider la pertinence de la construction et de l’analyse de corpus de données dans des approches systèmes complexes. 
4.1 INCALIN: optimisation de la production industrielle du Camembert
Dans le domaine de l’agro-alimentaire, le projet ANR INCALIN, sur la modélisation du Camembert, a pu à la fois atteindre un stade industriel, servir de socle au projet européen DREAM, et enfin permettre d’établir différentes thématiques de recherches fondamentales dans la communauté (modélisation interactive, exploration de tubes de viabilité, couplage visualisation/exploration/optimisation)
– Sicard, M., Perrot, N., Reuillon, R., Mesmoudi, S., Alvarez, I., Martin, S. (2012) A viability approach to control food processes: Application to a Camembert cheese ripening process. Food Control, 23, 312-319.
– Perrot, N., Baudrit, C., Trelea, I.C., Trystram, G., Bourgine, P. (2011). Modelling and analysis of complex food systems: state of the art and new trends. Trends in Food Science and Technology, 22(6), 304-314.
– Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot N. (2010). Towards a global modelling of the Camembert-type cheese ripening process by coupling heterogeneous knowledge with dynamic Bayesian networks, Journal of Food Engineering, 98 (3), 283-293.
4.2 Human Problem Solving
Herbert Simon and Alan Newell for Human Problem Solving: 600 pages dont 100 dernières pour les conclusions et 500 pour les protocoles
4.3 Les états causaux musicaux
Voir les travaux de Jean-Louis Giavitto
4.4 Reconstruction et modélisation des dynamiques cellulaires dans la morphogenèse embryonnaire
Voir les travaux de l’USR3695 BioEmergences
4.5 Reconstruction et modélisation des comportements collectifs chez les insectes sociaux
Voir les travaux de Guy Théraulaz
4.6 Exploitation de données géo-spatiales hétérogènes et volumineuses pour la prise de décision
Le projet européen IQmulus (2012-2016) permet l’utilisation optimale de données géo-spatiales hétérogènes et de grand volume pour une meilleure prise de décisions. Il se fonde d’une part sur la fusion de données, et, d’autre part sur le développement de plateformes de gestion d’information et d’analyse.
4.7 Etude collaborative des évolutions territoriales à différentes échelles
Le projet Geohistoricaldata regroupe des chercheurs, dans une démarche collaborative, autour de deux objectifs : l’étude des évolutions territoriales à différentes échelles (de la parcelle cadastrale au territoire national) et la création d’outils spécialisés et flexibles permettant de traiter ces questions.
5. Références
    – Site de l’ICSU : https://www.icsu.org/
    – http://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable/
    –  Big Data à Découvert, eds M. Bouzeghoub et R.Mosseri, CNRS éditions, 2017
    – Dynamiques hyper symboliques: Jeffrey Jonhson et Paul Bourgine
    – Hypernetworks: Jeffrey Jonhson    
    – Digital Method Initiative: https://wiki.digitalmethods.net/Dmi/DmiAbout

 

 

 

Durabilités et Gouvernance

viabilité, systèmes décentralisés, hétérarchies,

Durabilités et Gouvernances

Rapporteur: José Halloy (Université Paris Diderot, LIED UMR8236)

Contributeurs: Isabelle Alvarez, Frédéric Amblard (Université Toulouse 1 Capitole, IRIT UMR 5505), Nadia Boukhelifa Sariali (INRA, GMPA UMR782), Cyrille Bertelle (Normandie Université, Le Havre, LITIS EA4180), Jérémie Bosom (Ecole Pratique des Hautes Etudes, CHArt EA4004 – Energisme), José Halloy (Université Paris Diderot, LIED UMR8236), Maud Loireau (IRD, ESPACE-DEV 228), Nathalie Méjean Perrot, Anna Scius-Bertrand (Ecole Pratique des Hautes Etudes, CHArt EA4004 – Energisme), Fabien Tarissan (ENS Cachan, ISP UMR7220.

Mots-clés : durabilité, système Terre, gouvernance, politique, aide à la décision, prospective, climat, énergie, ressources

Introduction

Aujourd’hui, la mondialisation du système de production et de partage d’information, d’énergie et de produits agroalimentaires dans un contexte global de changement climatique, de dégradation des terres et de perte de biodiversité pose la question de la durabilité du système terre telle qu’elle existe aujourd’hui et de celle de l’humanité en son sein, des transitions nécessaires mais aussi celle de ses gouvernances.
Quelque soit l’échelle et la nature du système considéré, quelles que soient les organisations qui en découlent, il appartient à un méta système complexe et contribue à son fonctionnement et sa dynamique, volontairement (e.g. via la régulation / les échanges) ou involontairement (e.g. via ses impacts).
Ces organisations sont plus ou moins socio-écosystémiques, plus ou moins artificielles, plus ou moins projetées dans un espace géographique (cf. territoire). 
C’est ce contexte de globalisation qui nous amène à élargir la question de développement durable et d’intelligences territoriales précédemment posée  à celles de la durabilité et de la gouvernance des systèmes et territoires, du plus local au plus global, et à considérer que l’approche systèmes complexes est propice à étudier ces questions.
Ce positionnement élargi pose le concept de territoire dans sa plus large acception, en tant que réalité spatiale (étendue, matérialité), réalité sociale (acteurs) et complexe représentationnel (identités) (Dérioz, 2012), et à toutes les échelles selon la question posée par les sociétés (Fargette et al., 2017).
Il pose la question de la société numérique “multi-culturelle”. En effet, au cours de son édification, la société numérique met au point des  outils de partage d’information, et de certification distribuée inédits  qui posent de manière nouvelle les questions d’éthique et de gouvernance du groupe social (la mise à disposition des outils suffit-elle à garantir l’utilisation par tous ; comment garantir l’égalité de traitement dans une société distribuée ; quelles garanties offrent les processus de décision distribués, etc.). Ces outils et leur utilisation sont une opportunité pour l’expérimentation en SHS (l’analyse des contenus, des flux de données sont par exemple utilisés pour étudier les dynamiques d’opinion ou en marketing) ; pour la diffusion de l’information scientifique, etc.
Les questions de gouvernance appellent à faire intervenir des politistes pour éclairer les problématiques de gouvernance à la lumière des réflexions contemporaines sur ce concept. Le terme gouvernance peut également être utilisé pour affaiblir le gouvernement centralisé et faire intervenir dans la définition et la mise en œuvre des politiques publiques des parties prenantes différentes des représentants officiels de la puissance publique.
La gouvernance inclut aussi bien le monde des affaires, la “société civile” (au sens des associations), les contre-pouvoirs comme la presse, etc. L’idée est de ne pas perdre de vue que la gouvernance se pratique dans les rapports de force, conflits, négociations caractérisant la démocratie et que les principes de cette dernière doivent être présents dans la réflexion sur la gouvernance.
Le terme “démocratie” ne doit pas disparaître de la réflexion des systèmes complexes sur la gouvernance sous peine d’adopter une position technocratique et scientiste qui n’est pas dans l’esprit des approches dites “systèmes complexes”. Les décisions qui engagent l’avenir de l’humanité appartiennent-elles à une minorité de scientifiques / technocrates ou d’autocrates qui se croient capables de prendre les “bonnes décisions” pour tous les autres ? Même si l’on pense que le système complexe que l’on observe ne peut que s’effondrer, n’y a-t-il pas un moment où l’on sort de la physique ? La réflexion sur la gouvernance ne peut se dispenser de la question du moment où l’on sort de la physique et des modèles quantitatifs.
Par ailleurs, la réflexion, la prise de décision et le contrôle de l’application des actions mise en place au sein d’un système font parties des questions de recherche. Ces mécanismes peuvent être envisagés sous différentes modalités (centralisée, décentralisée ou distribuée) et font appel à des réseaux d’acteurs diversifiés.
L‘ensemble des 17 objectifs de développement durable des Nations Unies pour 2030 propose une synthèse des défis eco-socio-économiques posés par les grandes classes de systèmes complexes à différents niveaux territoriaux. Les communautés scientifiques ont défini des ensembles de critères pour mesurer les avancées vers ces 17 objectifs. L’ICSU est l’organisation scientifique  qui fédère les communautés scientifiques internationales pour conseiller les Nations Unies sur de tels critères.  
 
Exemple de l’agriculture, du local au global et gouvernance dans un cadre de réchauffement climatique.

Exemples de réussites

ComMod : comment échapper à la tragédie des biens communs au niveau local ? La modélisation comme outil d’accompagnement.
ComMod (https://www.commod.org/) est un protocole d’accompagnement des acteurs, usagers et décideurs, dans un processus participatif de gestion de ressources renouvelables. La modélisation (principalement multi-agent) et le jeu de rôle agissent comme un intermédiaire d’échange de connaissances et de scénarios dans un cadre multi-disciplinaires et multi-acteurs.

Exemples remarquables de démarche

GIEC : La partie modélisation du GIEC est une démarche qui devrait s’appuyer plus nettement sur une approche  systèmes complexes. On peut considérer que le système Terre d’un point de vue geophysique est un système complexe. De plus de nouvelles modélisations en économie prennent en compte la complexité des sociétés humaines. Pour le moment, d’une part, des scientifiques développent des modèles pour le système climatique Terre pour décrire les dynamiques climatiques sur des échelles de temps couvrant des millénaires. D’autre part, en plus de ces modèles issus des sciences naturelles, s’ajoutent des modèles économiques pour estimer la dynamique de l’économie mondiale. Ces deux types de modélisations sont ensuite couplées  par les estimations des émissions de gaz à effet de serre. Ces modèles couplés servent alors à élaborer des scénarios qui guident la gouvernance mondiale sur le changement climatique.

Le GIEC n’est pas né au contact des chercheurs des systèmes complexes, pourtant c’est un bel exemple de réussite de travail interdisciplinaires multi-échelle. C’est aussi une réussite du point de vues des science sociales, de la politique et de la gouvernance.

Appels à exemple : e-democratie, outils auto-organisation…

Grandes questions

 1. Comment étudier les durabilités des systèmes complexes ?

  • Pérennité des sociétés humaines incluses dans le système Terre
  • Durabilité des écosystèmes
  • Durabilité des systèmes informatiques

2. Quelle gouvernance pour les phases de transitions ?

  • Climatiques, énergétiques, des ressources et des territoires
  • Économique, politique.

3. Comment intégrer les questions éthiques à différents niveaux ?

  • L’éthique de la gouvernance
  • L’éthique algorithmique et les systèmes adaptatifs

4. Quelles données, quelle modélisation pour la question de la durabilité et de la gouvernance ?

  • Problématiques des données : collecte et recueil participatif
  • Modèles :  question de la co-construction des modèles, convocation croisés des expertises, co-évolution et modélisation participative.

Autres thèmes pertinents

Du contrôle à la gouvernance multi-niveaux. Du contrôle optimal à la gouvernance mutli-échellesIntelligence territoriale et développement durableÉpistémologie formelle : des Big Data aux modèles intégrésStructure et dynamique des réseaux complexes.

Défis

De la donnée au modèle, à la gouvernance et  à la durabilité

1. Intégration de tous les acteurs des systèmes dans les questions de durabilité et de gouvernance (via la modélisation comme méthode)

  • Intégrer au delà des acteurs locaux les structures intermédiaires (ni usager ni décideur par exemple).
  • Représenter des acteurs absents (Exemple : prendre en compte l’équité inter-générationnelle. Des mécanismes de modélisation plus efficaces que la simple introduction de mécanisme d’actuarisation (discounting factor) sont nécessaires.

2. Gouvernance de la durabilité et durabilité de la gouvernance

La durabilité de l’humanité dépend en partie des prises de décision et des actions issues de ces décisions. Cette gouvernance est multi-niveau et collective; elle peut revêtir différentes formes (centralisée, décentralisée, distribuée). Dans une gouvernance distribuée (ex: blockchain), les prises de décisions sont prises de manière autonome par les entités constitutives du système, contrairement à une gouvernance décentralisée dans laquelle les décisions des entités sont coordonnées pour servir un même objectif.
Certaines formes de gouvernance peuvent apparaitre plus ou moins robustes, résiliantes, efficaces et durables en fonction du contexte. On distingue les formes de gouvernance robustes aux perturbations (non sensibles) des formes résiliantes (absorption des perturbations et retour à un état d’équilibre). La durabilité d’une gouvernance centralisée nécessite qu’elle soit robuste, quand la durabilité d’une gouvernance décentralisée ou distribuée repose sur sa résilience.
La durabilité de la gouvernance passe par la construction de modèles de ces systèmes complexes permettant de tester des alternatives, d’étudier les impacts de mesures incitatives sur le système et ainsi d’évaluer, suivant plusieurs dimensions, l’efficacité de la mise en place de ces mesures.

3. Développer des modèles interdisciplinaires multi-niveaux

La gouvernance des systèmes complexes mêlant plusieurs grands enjeux sociétaux (environnement, économie, culturel) dans un contexte de développement durable, implique l’inclusion de connaissances interdisciplinaires (expertises croisées) et multi-niveaux dans les modèles proposés.

L’articulation au sein de mêmes modèles, de connaissances et représentations hétérogènes provenant de disciplines différentes, potentiellement à des niveaux/échelles différents et reposant sur le croisement d’ontologies différentes représente un véritable challenge.

De même, le fait de pouvoir introduire dans ces modèles l’articulation entre différents niveaux pour penser une gouvernance associant le local et le global est essentiel.

La prise en compte de la dynamique du système aux différentes échelles dans les modèles peut permettre une évolution et une adaptation des solutions proposées.

Les modèles développés dans ce cadre peuvent permettre d’identifier des états critiques du système et de mieux comprendre l’importance de certains paramètres du modèle et des leviers d’actions en terme de gouvernance (ex: éco-responsabilité).

Les démarches participatives peuvent en particulier permettre d’inclure dans des modèles co-construits, les points de vue et attendus des acteurs et opérationnels qui sont parties prenantes des systèmes. Elles peuvent également faciliter l’acceptabilité des solutions et l’appropriation de nouveaux dispositifs ou mesures (ex: apprentissage de l’éco-mobilité).

Développer des outils pour la gouvernance de cohortes moyennes

cf. Isabelle Alvarez

4. Tenir compte de l’hétérogénéité des données en volumes, en qualités en types, du manque de données

Dans différents domaines, géographie et territoires, systèmes agri-food, systèmes biologiques, …, le big data n’est pas une réalité mobilisable et les données à disposition sont plutôt hétérogènes en volume, en qualité, elles peuvent être de différentes natures, symboliques ou numériques. Sous un éclairage de durabilité et gouvernance, la coopération entre les Hommes et les modèles est de plus en plus incontournable et dans ce cas tenir compte de données formalisées symboliquement et très hétérogènes est indispensable.

5. Intégrer la connection entre humains, numérique et symboliques

Faire émerger les modèles mentaux détenus par les acteurs nécessite une mise en situation, une interaction entre un système numérique et des informations détenues à un niveau symbolique. Pour cela une interaction visuelle, un travail en visualisation en lien avec les sciences cognitives pour mettre en connection humains et machines est une clé de cette connection.

6. Défis éthiques: l’éthique des systèmes algorithmiques

Les questionnements éthiques autour du numérique diffusent dans toutes les composantes de notre société et à différents niveaux organisationnels. Dans ce contexte, il devient important de définir précisément ce qu’on appelle éthique, ou plus précisément de quel aspect éthique on parle. Car plusieurs notions d’éthique peuvent être associées ou étudiées dans le cadre d’un système algorithmique. À titre d’illustration, les contextes suivants, bien qu’ayant tous des enjeux en terme d’éthique, ne mettent pas en avant la même notion.

Ainsi le système APB (Admission Post-Bac), qui effectue l’affection des lycéens qui viennent d’obtenir le bac dans l’enseignement supérieur, met plutôt en jeu des questions liées à la loyauté (est-ce que les choix opérés par l’algorithme correspondent à ceux annoncés aux utilisateurs ?), à la transparence (le code est-il accessible ?) et à l’intelligibilité (la décision est-elle accompagnée d’une explication des processus de la prise de décision ? cf. aussi les choix algorithmes d’obtentions de prêts par exemple).

Dans le cas des systèmes autonomes en revanche (tels les véhicules autonomes, le trading haute fréquence, les armes létales autonomes, …), c’est plutôt la question de la responsabilité qui est en jeu. En cas d’accident, qui est responsable (propriétaire, le conducteur passif, le concepteur) ? De même, comment déterminer l’échelle de valeurs qui amène à une prise de décision.

Alors que dans le cas des algorithmes de recommandations sur le web, qu’ils soient économiques (Amazon) ou informationnels (Newsfeed de Facebook, média en lignes, …), la question de la diversité devient centrale. Ici il s’agit de savoir quels impacts ont ces algorithmes sur la diversité de l’information disponible et la diversité des choix auxquels ont accès les utilisateurs (voir le débat sur les bulles informationnelles). Se pose alors la question de l’espace de liberté individuelle laissée par ces systèmes de recommandation.

Ainsi, les enjeux de ce défi pourraient être de:

  1. contribuer à une typologie claire et robuste des différents aspects éthiques qui sont mis en jeu dans le contexte des systèmes algorithmiques
  2. identifier les critères permettant d’évaluer et de contrôler les différents aspects éthiques d’un système algorithmique.
  3. étudier les effets de ces algorithmes sur les systèmes dans lesquels ils sont mis en œuvre : un objectif pourrait être de participer à une sorte d’observatoire des impacts des algorithmes dans le domaine de la gouvernance par exemple.

À noter que cette notion d’éthique n’est pas toujours à rechercher au niveau de l’algorithme, mais plutôt du contexte dans lequel il est mis en œuvre ainsi que de la finalité de sa mise en œuvre.

Quelques projets/collectifs en relation :

7. Co-évolution des modèles et des pratiques / Co-organisation et co-evolution entre l’expertise humaine, les modèles et la politique

L’expert, le modèle et le politique

7.1 Suivi et gouvernance (observatoires)

Le défi consiste à développer des systèmes opérant, qui puissent articuler dispositifs scientifique, technique et organisationnel  pour comprendre et documenter les processus relatifs à une question posée par la société sur un territoire, faciliter les discussions et négociations entre acteurs et, in fine, renseigner en préalable les décisions des gestionnaires de territoire.

Le dispositif scientifique articulerait modèle théorique, modèle d’observation et modèle de suivi, et ferait se succéder des séquences recherche et des séquences de suivi. Le modèle théorique décrirait le système en relation avec la question posée sur la base de connaissance scientifique experte ou à dire d’acteurs; le modèle d’observation pointerait et décrirait dans le modèle théorique les observations nécessaires à la compréhension du système et l’étendue spatiale, ou périmètre, dans laquelle elles doivent être opérées; le modèle de suivi sélectionnerait et décrirait dans le modèle d’observation les observations nécessaires et suffisantes pour définir et valider un jeu minimum d’indicateurs et leurs modalités d’acquisition dans le temps. Le dispositif technique assurerait les services d’acquisition, analyse, et pérennisation des données, informations et connaissances. Le dispositif organisationnel organiserait les compétences des opérateurs et fonctions de l’observatoire, garant de la robustesse, répétitivité, maintenance des services rendus.

Le défi serait de construire ces observatoires de telle sorte qu’ils puissent être considérés comme le miroir d’un territoire sous le point de vue de la question posée, et par là même un système complexe opérant, brique de l’édifice du système de décision territorial. Ces observatoires auraient la capacité (scientifique, technique et organisationnelle) de relancer une séquence recherche si les changements détectés sont majeurs et justifient une adaptation de ses modèles.

7.2 Interactions hommes/machines

Si les modèles mathématiques sont fondamentaux pour aider à comprendre ou prendre des décisions pour un système, ils sont toujours une représentation déformée de la réalité et liés à l’état des connaissances à cet instant à différents niveaux. Ils peuvent aussi représenter une formalisation majoritairement admise d’un système ne prenant pas en compte toutes les particularités ou connaissances régionales et locales capitalisées. L’enjeu est de donner la capacité à nos modèles de correspondre, co-évoluer avec les humains afin que des connaissances qui n’ont pas percolé ou qui sont formalisables ou emergent au travers de l’interaction avec le modèle soient prises en compte. Cette co-évolution va permettre de passer du local au global, qui remis en cause par des pratiques locales vont faire évoluer et enrichir le modèle global. Pour faire cela un défi est d’avoir la capacité à mettre en connection des modèles mentaux symboliques, des informations numériques et des simulations d’un système.

Apprentissage visualisation interactifs: la visualisation permet de comprendre mieux et plus vite des données numériques, en s’appuyant sur nos capacités de perception et de cognition et sur nos acquis. C’est une spécialité informatique issu du domaine de l’Interaction Homme-Machine (IHM), et qui s’intéresse principalement à (1) la conception des représentations visuelles efficaces des données; (b) la création des interfaces intuitives et conviviales et des techniques d’interaction pour aider les utilisateurs à mieux comprendre et naviguer dans des grandes masses de données, et (c) l’évaluation de ces techniques et interfaces. Un système de visualisation est interactif s’il permet à l’utilisateur de controller un aspect de la representation, et avoir un retour dans un délais d’interaction acceptable (≈ 100 milliseconds). Coupler la visualisation interactive avec des techniques automatiques tels que l’apprentissage par machine ou l’optimisation multi-critère, permet d’une part, à améliorer les résultats de prediction de ces algorithmes / modèles car on prend en compte les préférences, connaissances et expertise humaine. D’autre part, ces techniques peuvent être déployées pour guider efficacement la recherche d’utilisateurs dans les systèmes de visualisation exploratoire (Boukhelifa et al. 2017).

Schéma

Etat actuel (avec des petits cercles pour symboliser que l’état actuel est la résultante de sous-états) -> permet de définir -> durabilité -> gouvernance (qui modifie l’état et se sert de la durabilité et de l’état antérieur).

Références

Dérioz P. (2012). L’apparence des choses : analyser les paysages pour comprendre les systèmes territoriaux. HDR, Volume 2. UPVD, 371 p.

Fargette, M., Loireau, M. & Libourel, T. (2017-under editing process). Society-environment relationships: a systemic approach of viability. In : Olivier Barrière, Serge Morand, Mohamed Behnassi, Gilbert David, Vincent Douzal, Voyner Ravena Canete, Catherine Prost, Thérèse Libourel, Mireille Fargette, Maud Loireau, Laurence Pascal, Frédérique Seyler (Eds): Co-viability of Social and Ecological Systems. Reconnect Man to the Biosphere in a Global Era of Change, Springer

Hardin G. The tragedy of the commons. Science 1968, 162, 1243–1248.
Ostrom E. Governing the Commons, the Evolution of Institutions for Collective Action; New York, Cambridge UniversityPress, 1990.

Loireau M, Fargette M, Desconnets JC, Habiba Khiari, H. 2017. Observatoire Scientifique en Appui aux GEstionnaires de territoire: entre abstraction OSAGE et réalité ROSELT/OSS. Cas ROSELT/OSS pour la lutte contre la désertification. Numéro spécial « Autour du concept d’observatoire en environnement » de la revue internationale de géomatique – RIG. Eds Hermès, Lavoisier. 30 p. Sous presse.

Schuster P. The commons’ tragicomedy: Self-governance doesn’t come easily. Complexity 2005, 10, 10–12.

N. Boukhelifa, A. Bezerianos, W. Cancino, and E. Lutton. 2017. Evolutionary visual exploration: evaluation of an IEC framework for guided visual search. Evol. Comput. 25, 1 (March 2017), 55-86. DOI: https://doi.org/10.1162/EVCO_a_00161

 

 

 

 

Notes (restantes)

 

 

Intégrer dans les objectifs observatoires: désertification -> disciplines concernées -> dialogues

co-évolution modèles/disciplines humains / modèles/ pratiques

Application en biologie: processus de fermentation alcoolique , explorer les solutions optimales dans un objectif de durabilité

L’identification des arômes dans le vin

Théorie des jeux problèmes d’un petit nombres de joueurs

Petites communautés, tailles finies (cohorte moyenne)

Gouvernance éthique équité, transparence, intégrité

Défis : études de communautés de communautés, hétérogénéité des données, grandes masses de données, traitements des données hétérogènes

Maitrise de la consommation d’énergie, problème du tier de confiance

Gouvernance décentralisée et transparence basée sur le blockchain

10. Modèle

  • Modélisation des incertitudes (cf. lien avec l’autre groupe)
  • Validité du modèle
  • Analyse du modèle
  • Robustesse
  • Contradiction entre modèles
  • (analogie Titanic)

 

 

Science des réseaux

Structure et dynamique des Réseaux multi-niveaux

Rédaction en cours...

Structure et dynamique des réseaux multi-niveaux

 

Contributeurs (ordre alphabétique) :

2017 : Rémy Cazabet, David Chavalarias, Guillaume Deffuant, Jean-Loup Guillaume, Laura Hernandez, Emmanuel Lazega

2011 : Jean-Baptiste Rouquier (rapporteur), Cyril Bertelle, Jean-Philippe Cointet, Jean-Pierre Gaudin, Matthieu Latapy, Damien Olivier, Lionel Tabourier

 

Keywords

Complex networks, Metrology, Hierarchical clustering, Communities, Graphs,  Dynamics, Robustness, Partial data, Contextual data, Diffusion processes.

 

Concepts-clé :

réseaux multi-couches ou réseau de réseaux : réseaux constitués de plusieurs couches, chaque couche étant constituée d’entités appartenant à la même catégorie d’objets (ex. personnes, institutions, gènes, proteines, etc.). Les liens au sein d’une couche sont de même nature (ex. liens d’amitié, de co-auteur, etc.) et il peut y avoir des liens entre éléments de couches différentes (une personne appartient à une institution, une même personne est caractérisée par divers type de liens dans les différentes couches avec d’autres personnes : amitiés, travail, famille).

Réseau multi-niveaux : réseaux multi-couches où les objets d’une couche prennent part à la définition des objets de la couche supérieure (les cellules/les organes, les personnes/les institutions, etc.).

 

Réseau multiplex : réseau multi-couches où chaque couche comporte les mêmes nœuds mais les liens sont différents d’une couche à l’autre, exprimant différents types de liens (ex : liens d’amitiés, professionnels, familiaux).

 

Introduction

 

Les réseaux complexes sont un outil incontournable pour la modélisation des systèmes complexes à chaque fois que les interactions entre les éléments du système étudié  doivent être prises en compte dans leur multitude et leur diversité.

 

Concept mathématique abstrait pour lequel il existe déjà un corpus de métriques et modèles rendant compte des propriétés locales et globales, la modélisation par réseaux ou graphes fournit aussi un cadre pour la modélisation de systèmes appartenant à des disciplines très diverses, tant théoriques que basées sur les données.

 

Initié au 20ème siècle par des disciplines telles que la sociologie (Moreno, 1934; White 1970), l’anthropologie (Mitchell, 1969), la géographie (ref), l’écologie [May1972]  ou la génétique théorique (Kauffman & McCulloch 1967), l’approche de modélisation réseaux a connu en quelques années un essor considérable, grâce notamment à l’avènement des masses de données accessibles par les réseaux sociaux informatiques. Elle apporte un éclairage complémentaire aux analyses spécialisées propres aux disciplines traditionnelles.

 

L’analyse de la structure des réseaux complexes et de leurs dynamiques donnent le moyen de représenter l’articulation multi-échelle (associée aux propriétés qui se manifestent lorsqu’on observe le système aux échelles différentes, en agrégeant des éléments, par exemple) qui caractérise la plupart des systèmes complexes, en mettant en avant des interactions situées et les positions structurelles de certains éléments du réseau ainsi que leur rôle dans la transformation du réseau. Cela permet aussi une analyse multi-niveau, qui souvent inclut  la notion d’agrégation, mais qui intègre additionnellement les notions de fonction et organisation spécifique du niveau supérieur.

 

Quels sont les verrous actuels de l’étude des réseaux ? Quelles sont les problématiques communes à plusieurs disciplines ? Au fil des pages de la feuille de route, les réseaux sont mentionnés plusieurs fois. Le but est ici de décrire  les avancées récentes, de montrer comment la théorie des réseaux donne un éclairage nouveau aux problèmes des diverses disciplines et d’identifier les axes de développement futur et les questions ouvertes.

 

Une approche transversale aux disciplines

 

Les progrès théoriques des deux dernières décennies ont été spectaculaires et souvent motivés par des applications pratiques, comme par exemple, la caractérisation de très grands réseaux particuliers (ex. Twitter, le web, le protéome, etc.). En conséquence, il existe un corpus assez complet pour décrire les différentes structures, locales et globales, des réseaux simples (où tous les noeuds et liens sont de la même classe). Ces travaux ont été étendus pour caractériser différent types de réseaux : les réseaux pondérés (liens ayant  des poids différents), ou avec de la sémantique (contenu textuel, opinion, etc.) associée aux liens, les réseaux où il y a différent types de noeuds avec des liens connectant seulement des noeuds de type différent (réseaux bi ou multi-partis) [Newmann2010, Albert,Barabasi1999, Bocaletti et al..2006], ou encore les hyper-réseaux, dans lesquels les liens relient des groupes de noeuds (réseaux non diadiques). Les processus dynamiques ayant lieu dans ce type des réseaux, les modèles de diffusion sur réseaux  ainsi que la dynamique de formation du réseau lui même ont aussi été largement étudiés cette dernière décennie [Barrat et al.2008].

 

Récemment plusieurs  évolutions ont eu lieu, introduisant des nouveaux concepts qui ouvrent la voie à des applications nouvelles ou à des changement d’approche des anciens problèmes,  apportant un nouvel éclairage. C’est le cas de la théorie des réseaux spatiaux , qui sont des réseaux plongés dans l’espace réel (souvent bi-dimensionnelle) de telle sorte que la distance entre nœuds du réseau est définie en tenant compte de la  métrique spatiale [Barthélemy 2011] , ce type des réseaux permet des applications fructueuses dans les problèmes de transport et urbanisme.

Un saut qualitatif dans la description des divers systèmes, est la notion de réseau de réseaux ou réseaux multicouches. Dans cet approche chaque couche est un réseau avec ses liens intra-couche qui sont à la fois couplées par des interactions inter-couche. Ainsi les processus ayant lieu sur une couche peuvent affecter dramatiquement la dynamique des autres, comme c’est le cas par exemple dans le couplage entre le réseau informatique et le réseau électrique [Buldyrev et al. 2010].

Un cas particulier de réseau multi-couches pour lequel la théorie générale est déjà bien avancée est celui des multiplexes. Dans ces réseaux chaque couche comporte les mêmes nœuds mais les liens sont différents d’une couche à l’autre, le couplage entre couches est dit “parallèle”, matérialisé simplement par le fait que si l’état d’un nœud change dans une couche, ce changement est transmis aux autres. Ce type est très utile pour  modéliser une société où les nœuds représentent les individus et chaque couche modélise les liens entre ces individus dans leurs différents espaces de la société (famille, travail, ville…) [Kivelä et al.].

 

La disponibilité de nouveaux jeux de données temporels a stimulé le développement de nouvelles méthodes d’analyse des réseaux dynamiques. De plus en plus de travaux sur les systèmes complexes cherchent ainsi à caractériser la dynamique de l’articulation entre le niveau local et global. Celle-ci dépend de la nature des relations entre les entités qui les composent, ce qui oriente la méthodologie adoptée.

 

Dans le cas où ces relations sont de l’ordre d’une intensité de co-présence (ex. co-occurrence de termes dans la littérature scientifique, co-activation de protéines, etc.) des méthodes de suivi d’évolution de communautés ont été proposées (Palla et al. 2005, Aynaud et al. 2013) et développées dans plusieurs domaines d’application comme par exemple les groupes sociaux (Palla et al. 2007) ou la scientométrie (Chavalarias & Cointet 2013). Dans ce cas, les réseaux dynamiques sont pensés comme une extension des réseaux statiques, chaque instant de l’évolution du réseau correspondant à un réseau statique pouvant être étudié avec les outils classiques de l’analyse de réseaux. Dans ce contexte, les liens du réseau correspondent à des relations, persistantes dans le temps.

 

Certains types de données issues du web et des dispositifs sociotechniques (ex. réseaux sociaux) a conduit à s’intéresser à des données de type interactionnelles. Dans ce contexte, les relations entre entités sont instantanées (ou de durée très courte par rapport à la période d’étude). Dans ce cas, la notion de réseau à un instant donné n’est généralement pas pertinente et les formalismes et méthodes définis sur les réseaux statiques ne sont pas trivialement généralisables. De nouveaux formalismes et de nouvelles approches ont été développés pour travailler sur ce nouveau type d’objets (temporal networks, flots de liens, time varying networks, etc.) [Gauvin et al.2014].

 

La modélisation par réseaux complexes a ainsi connu un engouement considérable au sein de la communauté scientifique avec plusieurs applications notoires ces dernières années dans des domaines aussi variés que l’épidémiologie, la sociologie, l’économie, la biologie (voir les exemple en  annexe de ce chapitre), certaines méthodes proposées ces dernières années étant devenues des standards de l’analyse de données.

2. Grandes questions et défis

 

2.1 Incomplétude des données

 

La non-exhaustivité des données peut provenir de différents facteurs : coût de rassemblement, soucis de confidentialité, stratégie de rétention des possesseurs de données (capitalisation de l’information). Une partie de ce défi peut être aujourd’hui surmontée par des protocoles innovants de collecte de données. Notamment, l’obstacle des coûts ou de faisabilité peut être réduit par le recours à des protocoles qui s’appuient sur des dispositifs d’information embarqués, comme les téléphones portables, les dispositifs munis de puces RFID (type navigo/oyster), des logiciels proposés à l’utilisateur, etc.

Ces difficultés sont encore augmentées lorsque l’on souhaite faire un recueil longitudinal (encore appelé dynamique, ou diachronique) de données. La dynamique est par exemple cruciale pour étudier un réseau de déplacement de population (qui montre des cycles journaliers et saisonniers) et sa réaction aux incidents, ou bien l’infrastructure internet (le réseau de routeurs et serveurs) dont la dynamique est plus rapide que le processus de mesure.

Ces difficultés de collecte peuvent induire une description lacunaire des réseaux. Plusieurs voies existent pour travailler avec des données lacunaires :

utiliser des modèles artificiels pour compléter les trous ;

s’appuyer sur d’autres sources pour combler les manques (par exemple, utiliser des méthodes statistiques et démographiques pour estimer les données manquantes)

prendre en compte, dès la mesure, un indicateur de confiance sur toutes les données (par exemple la probabilité qu’un lien dans les données existe réellement dans le système mesuré, ou bien un intervalle de confiance sur le poids d’un nœud). Puis adapter les méthodes à ce type de données.

 

 

2.2 Méthodes contrôlées de changement d’échelle dans les réseaux.

Pour des modèles basés sur les données, comme dans l’étude des phénomènes de contagion, on doit souvent faire appel aux données issues de sources très diverses avec des structures et résolutions très différentes, il est alors nécessaire de développer un formalisme contrôlé permettant d’identifier des échelles d’agrégation intermédiaires qui soient à la fois optimales pour décrire le phénomène, tout en restant tractables mathématiquement ou numériquement, et qui permettent l’identification des interactions dominantes, responsables des régularités observées. De la même façon pour les très grands réseaux, il est nécessaire de trouver des mécanismes d’agrégation itératifs contrôlés qui pourraient s’inspirer de la renormalisation en Physique, où à chaque étape on intègre les  informations aux petites échelles (par rapport à la taille caractéristique du système) en diminuant les degrés de liberté via une transformation du modèle.

 

2.3 Structure et hiérarchie

Morphogenèse du réseau

Plusieurs modèles de réseaux ont été développés en parallèle, permettant de capturer différentes propriétés structurelles des réseaux (cœur/périphérie, block model, communautés, homophilie/hétérophilie, embedding, etc.). Ils se basent sur des hypothèses concernant les principes générateurs de nouvelles connexions au niveau micro. Cependant, la plupart de ces travaux partent du principe que les noeuds du réseaux sont homogènes dans leur manière de créer des connections aux autres noeuds du réseau. Cette hypothèse d’homogénéité n’est pas vérifiée dans de nombreux systèmes naturels et artificiels, notamment en sciences sociales ou en écologie. Un des enjeux futurs de la modélisation des réseaux complexes est donc d’arriver à modéliser la relation entre hétérogénéité au niveau micro des processus de formation des liens et structure globale.

 

Structures hiérarchiques

La hiérarchie peut signifier simplement un ordre d’importance entre les nœuds. Ordonner les nœuds permet d’accorder plus d’importance à certains noeuds afin de les protéger (vaccination, sécurité, renforcement), les contrôler et surveiller, ou les mesurer.  En théorie des réseaux il s’agit en général, d’une caractérisation topologique.

Mais de façon plus importante, parler de hiérarchie c’est parler de structures et sous-structures telles qu’elles peuvent être identifiées par des dendrogrammes ou des algorithmes de détection de communautés hiérarchiques. Comprendre cette organisation multi-échelles est crucial pour comprendre à la fois comment les structures à grande échelle émergent à partir des interactions locales (de bas en haut) et réciproquement comment comment la structure globales influe sur les entités locales.

 

Beaucoup de méthodes fructueuses pour hiérarchiser les noeuds ou détecter des structures dans un réseau sont déjà bien intégrés dans la communauté et diffusés dans les divers domaines applicatifs: petit mondes et navigabilité, mesures de centralité, détection de communautés (cf. “Community detection in graphs”, Santo Fortunato, 2010).  Il est maintenant nécessaire de revisiter ces questions dans deux directions, d’une part pour les réseaux dynamiques, il faut comprendre comment la dynamique affecte la restructuration des communautés et d’autre part,  les outils de hiérarchisation des noeuds ou des groupes des noeuds doivent être adaptés aux réseaux multicouches en général.

 

2.4 Mesures et caractérisation des réseaux dynamiques

 

La dynamique des réseaux peut s’exprimer de différentes façons non nécessairement exclusives :

la dynamique dans les réseaux et sous-réseaux telle que la variation des flux portés par la connectivité du réseau,

la dynamique des réseaux eux-mêmes, correspondant à la variation de la topologie/structure du réseau.

l’évolution des noeuds du réseaux lorsque ceux-ci sont des entités elles-mêmes complexes (ex. individus, cellules, etc.)

Dans certains cas, il y a coévolution entre les noeuds et les liens qu’ils forment entre eux, c’est-à-dire un mécanisme de différenciation interindividuelle concomitante à la formation du réseau (individus, cellules).

Mesure de la dynamique

Il s’agit ici de pouvoir étudier et qualifier la trajectoire de l’évolution du réseau, avec la mise en évidence de certains comportements caractéristiques tels que des dynamiques lentes ou rapides ou encore des phénomènes de bifurcations.

L’inscription de cette dynamique dans le réseau conduit à des constructions morphologiques. L’étude de ce phénomène peut s’effectuer sous différents angles :

la genèse de l’apparition de ces formes (aspect stigmergique du processus : lien important entre la forme en construction et la dynamique),

la détection de formes localisées dans le réseau (réseaux sociaux, …) et la dynamique des processus d’auto-organisation qui en sont à l’origine,

La mesure de l’influence du réseau global sur les processus émergents locaux.

Ces différents éléments amènent des questions telles que :

le réseau conserve-t-il les mêmes caractéristiques au cours de sa constitution ?

existe-t-il des étapes structurelles au cours de sa dynamique ?

Avec quelle granularité caractériser la dynamique ?  stabilité des structures, des rôles, des positions, etc. (échelle trop fine : instable. échelle trop large: perte d’information.)

 

Propriétés et maîtrise du réseau dans sa dynamique

 

La manipulation des grands réseaux en tant qu’outils de modélisation appelle à identifier des propriétés et des méthodes de contrôle ou de régulation.

On peut s’intéresser à l’expression de lois de conservation sur les réseaux en tant que structures discrètes et notamment transposer ces lois de manière opératoire sur des très grands réseaux. A l’opposé, on peut être amené à modéliser des effets dissipatifs.

 

Étudier la dynamique, c’est implicitement étudier la robustesse et la résilience. Comment des perturbations introduites sur le réseau modifient les trajectoires de diffusion ?

 

Enfin, un problème important est celui du contrôle des trajectoires par des actions locales sur le réseau, et des dynamique multi-échelle. Comment une modification à une échelle donnée (par exemple au niveau méso : application d’une politique publique) se répercute sur les autres échelles ?

 

 

Dynamiques multi-niveaux

 

Alors que l’analyse de la dynamique des réseaux est devenue un domaine très dynamique,  les développements futurs devront prendre en compte le fait que le formalisme de la modélisation réseaux s’est développé principalement sur une approche strictement relationnelle (et homogène en termes de noeuds). Celui-ci doit être adapté de manière à s’approcher des systèmes réels aux structures plus complexes qui sont composé de plusieurs sous-réseaux en co-évolution : les réseaux multi-couches (dont multi-niveaux et multiplex).

Par exemple en sociologie, un des enjeux est de comprendre l’articulation du niveau méso et macro qui constitue une caractérisation importante l’institution, comment co-évoluent les comportements et des structures. Il serait alors envisageable d’étendre les formalismes statistiques à la Snijders au multi-niveau pour constituer une base pour de nouveaux modèles de coévolution des niveaux.

 

Ce type d’approche ouvrira de nouvelles perspectives sur l’analyse des mobilités (trajectoires individuelles) au sein de structures multi-niveau.

 

Coevolution noeuds/topologie

 

Dans plusieurs domaines, les réseaux complexes sont utilisés pour modéliser des interactions entre entités qui sont elles-même complexes et sont dotées de capacités d’évolution, y compris dans leur manière de constituer de nouveaux liens ou d’en supprimer. Ceci introduit un bouclage entre morphogenèse d’un réseau et différenciation des types de noeuds.

 

Dans ce cas, les nœuds du réseau sont caractérisés par un ensemble de variables qui décrivent son type, ses capacités à modifier son réseau local et les possibilités d’évolution du type lui-même en fonction de son environnement. On appelle ce type de dynamique co-évolution des nœuds et des liens. Ce couplage est nécessaire pour modéliser des situations dans lesquelles les temps caractéristiques de la dynamique des nœuds et de l’évolution topologique sont comparables comme par exemple dans le cas des dynamiques culturelle (ex. dynamique d’opinions, Gracia-Lázaro et al. 2004 ; dynamique de préférences – Chavalarias 2006).

 

L’un des enjeux des prochaines années consistera à comprendre ce lien entre les structures du réseau et les processus de différenciation des nœuds. La validation de ces modèles pourra tirer partie des nouvelles opportunités offertes par les masses de données issues du web (co-évolution des réseaux de chercheurs, co-évolution des réseaux sociaux, etc.) ou des nouveaux protocoles d’expérimentation en ligne à grande échelle.

Plongement des réseaux (network embedding)

 

L’objectif du network embedding est de projeter des réseaux dans des espaces de dimension inférieure ce qui permet d’utiliser des méthodes classiques de fouille de données. Cependant, la projection doit pouvoir se faire de manière efficace et préserver des propriétés des réseaux originaux afin que les calculs effectués en dimension inférieure puissent être retransférés sur les réseaux.

Plusieurs résultats montrent que malgré la perte d’information liée à la projection, il est possible d’obtenir de meilleur résultats en dimension inférieure (par exemple pour la prédiction de lien ou la visualisation [Tang 2015]), ceci pouvant être lié au fait que la projection ne conserve que les facteurs dominants et élimine le bruit.

Les techniques simples préservent les proximités locales, deux sommets proches dans le réseau restent proches dans la projection, mais les techniques plus avancées essayent aussi de préserver des propriétés plus globales (par exemple, toutes les distances) ou complexes (par exemple, la structure communautaire).

3 Impacts societaux

La notion de réseaux s’est démocratisée en une décennie avec notamment l’avènement des réseaux sociaux. Même si ces nouvelles plateformes ne constituent en premier abord, qu’un

 

Les outils et méthodes de la science des réseaux sont déjà largement utilisés en dehors du monde académique, que ce soit par les acteurs du numérique (algorithmes de recommandation, PageRank), ou dans d’autres domaines (Ref ? Supply chain networks ?).

 

Le grand public est lui aussi de plus en plus souvent confronté aux réseaux complexes, en particulier par le biais de visualisations. Dans les médias d’une part, en complément aux représentations de type cartes ou graphiques comme support d’articles, en particulier dans le cadre du journalisme de données. Mais aussi à travers des plateformes et outils que cherchent à donner aux utilisateurs une meilleure vision, un meilleur contrôle de leurs données ou de leur position dans un réseau social, comme par exemple la plateforme de réseautage professionnel Linkedin, offrant une visualisation du réseau égo-centré à ses utilisateurs, ou indiquant la distance (degrés de séparation) dans le réseau entre l’utilisateur et les autres membres. Dans ce domaine une vulgarisation est nécessaire pour bien faire comprendre, par exemple comment la théorie des réseaux peut s’utiliser pour une exploitation automatique des données personnels ou même des métadonnées rendant les activités humaines traçables bien au delà des limites dont le public a conscience aujourd’hui.

 

Le champ des réseaux complexes pourra être amené à jouer dans le futur un rôle primordial dans la société, par sa capacité à faire face à des bouleversements, tels que la possible réorganisation de pans de la société suite à la désintermédiation, ou la démocratisation de nouvelles technologies de décentralisation des services comme les blockchains.

 

Le développement de macroscopes, plateformes et outils pour l’exploration et la compréhension de systèmes organisés complexes multi-niveaux (ex. Politoscope.org, Gargantext.org) qui ont été rendu possible par les récents développement des outils théoriques d’analyse des réseaux complexes, pourront être le moteur de changements sociétaux important, par la capacité qu’ils offrent aux acteurs de la société d’acquérir une vision de celle-ci, et de la place qu’ils occupent dans son organisation.

 

References

[RB2008] M. Rosvall, C.T. Bergstrom. Maps of random walks on complex networks reveal community structure. PNAS 2008 105 (4) 1118-1123.

[BGLL2008]VD Blondel, JL Guillaume, R Lambiotte, E Lefebvre. Fast unfolding of communities in large networks. Journal of Statistical Mechanics: Theory and Experiment 2008 (10), P10008.

[Fortunato2010] S Fortunato. Community detection in graphs. Physics reports, 2010, Elsevier.

Chavalarias, David (2006). ‘Metamimetic Games: Modeling Metadynamics in Social Cognition’. Journal of Artificial Societies and Social Simulation 9(2)5 <http://jasss.soc.surrey.ac.uk/9/2/5.html>.

Aynaud, T., Fleury, E., Guillaume, J. L., & Wang, Q. (2013). Communities in evolving networks: definitions, detection, and analysis techniques. In Dynamics On and Of Complex Networks, Volume 2 (pp. 159-200). Springer New York.

[May1972] Will a large complex system be stable? RM May, Nature, 238, 5364, p413-414,(1972)

[Newmann2010] Networks, an Introduction, Newmann M.J.E. Oxford University Press, 2010

[Albert,Barabasi1999]Statistical mechanics of complex networks. R Albert, AL Barabasi, Rev. of Mod. Phys. 74, 47-97 (1999).

[Bocaletti et al.2006] Complex Networks: Structure and Dynamics S. Boccaletti, V. Latora, Y. Moreno, M. Chavez, D.U. Hwang. “”, Physics Reports 42 4(2006), pp 175-308

[Barrat et al.2008] Dynamical processes on complex networks, A Barrat, M Barthelemy, A Vespignani, Cambridge University Press, 2008.

[Colizza et al. 2006] The role of the airline transportation network in the prediction and predictability of global epidemics. Vittoria Colizza, Alain Barrat, Marc Barthélemy, Alessandro Vespignani, PNAS

103, Numéro 7, Pages 2015-2020;

[Pastor-Satorras, Vespignani 2001) Epidemic spreading in scale-free networks

R Pastor-Satorras, A Vespignani, Phys.Rev.Lett. 86 (14), 3200

 

[Barthélemy 2011]  Spatial networks, M. Barthélemy. Physics Reports, Vol.499, Issues 1–3, Pages 1-102 (February 2011).

[Buldyrev et al. 2010] Catastrophic cascade of failures in interdependent networks

SV Buldyrev, R Parshani, G Paul, HE Stanley, S Havlin – Nature, 464, 7291,p1025-1028 (2010).

[Kivelä et al.] Multilayer networks, Mikko Kivelä, Alex Arenas, Marc Barthelemy, James P. Gleeson, Yamir Moreno, Mason A. Porter, J Complex Netw (2014) 2 (3): 203-271.

DOI:https://doi.org/10.1093/comnet/cnu016

[Gauvin et al. 2014] Detecting the community structure and activity patterns of temporal networks: a non-negative tensor factorization approach, L. Gauvin, A. Panisson, C. Cattuto

PLoS ONE 9(1), e86028 (2014)

[Menezes & Roth 2014] Menezes, T., Roth, C., 2015. Symbolic regression of generative network models. Scientific Reports 4. doi:10.1038/srep06284

[Hausmann et al.] The Atlas of Economic Complexity, Mapping Paths to Prosperity

Ricardo Hausmann, César A. Hidalgo, Sebastián Bustos, Michele Coscia, Alexander Simoes and Muhammed A. Yildirim, The MIT Press (2014). https://www.hks.harvard.edu/centers/cid/publications/books/atlas

[Gracia Lázaro, et al.] Coevolutionary network approach to cultural dynamics controlled by intolerance. Carlos Gracia-Lázaro, Fernando Quijandría, Laura Hernández, Luis Mario Floría, and Yamir Moreno, Phys.Rev. E 84, 067101 (2011)

 

Brailly, J. (2016), Dynamics of networks in trade fairs—A multilevel relational approach to the cooperation among competitors, Journal of Economic Geography, 16: 1279–1301

Brailly, J. and Lazega, E., 2012. Diversité des approches de la modélisation multiniveaux en analyses de réseaux sociaux et organisationnels. Mathématiques et Sciences Sociales 198, 5-32

Breiger, R. L. (1974), “The Duality of Persons and Groups”, Social Forces, 53: 181-190

Chavalarias, D., Cointet, J.-P., 2013. Phylomemetic patterns in science evolution—the rise and fall of scientific fields. PloS one 8, e54847.

Fararo, T. J. and Doreian, P. (1980), Tripartite structural analysis: generalizing the Breiger Wilson formalism, Social Networks, 6:141-175.

Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, “A Survey of Statistical Network Models”, 2009

Grossetti, Michel, 2011, « L’espace à trois dimensions des phénomènes sociaux. Echelles d’action et d’analyse », SociologieS, http://sociologies.revues.org/index3466.html

Santo Fortunato, “Community detection in graphs”, 2010

  1. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas, “Characterization of Complex Networks: A Survey of measurements”, Advances in Physics 57, 2007

Lazega, E., Jourda, M.-Th., Mounier, L. & Stofer, R. (2008), “Catching up with big fish in the big pond? Multi-level network analysis through linked design”, Social Networks, 30:157-176.

Lazega, E., Mounier, L., Snijders, T.A.B. & Tubaro, P. (2012), “Norms, status and the dynamics of advice networks”, Social Networks, 34:323-332

Lazega, E., S.Sapulete, L.Mounier (2011), “Structural stability regardless of membership turnover? The added value of blockmodelling in the analysis of network evolution”, Quality & Quantity, 45:129-144

Snijders, T. A. B. (1996), Stochastic Actor-Oriented Models for Network Change, Journal of Mathematical Sociology, 21, 149-172.

Snijders, T. A. B. (2005). “Models for Longitudinal Network Data”. Chapter 11 in Peter Carrington, John Scott and Stanley Wasserman (eds.). Models and Methods in Social Network Analysis. New York: Cambridge University Press.

Snijders, Tom A.B. (2016). The Multiple Flavours of Multilevel Issues for Networks. In Lazega, E. and Tom A.B. Snijders (eds.), Multilevel Network Analysis for the Social Sciences, Cham: Springer, p. 15-46.

Mitchell, J. C. (Ed.). (1969). Social networks in urban situations: Analyses of personal relationships in Central African towns. Manchester University Press.

Moreno, J. L., & Jennings, H. H. (1934). Who shall survive? (Vol. 58). Washington, DC: Nervous and mental disease publishing company.

Tang, Jian, et al. “Line: Large-scale information network embedding.” Proceedings of the 24th International Conference on World Wide Web. ACM, 2015.

Wang, P., Robins, G., Pattison, P., & Lazega, E. (2013). Exponential random graph models for multilevel networks. Social Networks 35(1), 96-115.

Wasserman, S. & Iacobucci, D. (1991). “Statistical modeling of one-mode and two-mode networks: Simultaneous analysis of graphs and bipartite graphs.” British Journal of Mathematical and Statistical Psychology, 44, 13–44.

White, H. C. (1970), Chains of Opportunity : System Models of Mobility in Organizations, Cambridge, ma, Harvard University Press.

 

 

 

Annexe : exemples des réussite de l’application de la théorie des réseaux

Sans être exhaustifs, voici quelques exemples de développements illustrant des avancées théoriques et méthodologiques récentes.

 

Emergence de nouveaux outils pour la sphère académique, industrielle et citoyenne

L’analyse des réseaux est en train de changer les pratiques dans un grand nombre de domaines : éducation, management, santé, etc.

A développer : mentionner la diffusion d’outils tels que Gephi, Cortext, Gargantext, Sci², etc.)

 

Modeles épidémiologiques et prescriptions de politiques de santé

L’adoption des modèles de réseau pour décrire les interactions entre les individus a permis d’important progrès dans la compréhension des mécanismes de propagation d’épidémies. Après l’étude des modèles théoriques de diffusion sur des réseaux ayant différentes topologies (Vespignani2001), des modèles épidémiologiques ont intégré des réseaux de transport modernes pour décrire la diffusion des épidémies à large échelle. En particulier, un modèle épidémiologique stochastique intégrant la base de donnée de l’Association Internationale de Transport Aérien (IATA) et un recensement de population a permis de déterminer le rôle du réseau aérien dans le pattern de diffusion des maladies émergentes. La pertinence de ces scénarios prédictifs a été évaluée par une analyse a posteriori de cas réels (Colizza et al. 2006).

 

Réseaux et controverses : de l’effet des normes sur la dynamique des structures

Dans une enquête sur le fonctionnement du Tribunal de Commerce de Paris, une institution judiciaire consulaire, dont les juges sont des hommes et des femmes d’affaires, les sociologues observent les effets d’une controverse normative sur l’évolution, au sein de l’organisation, du turnover relationnel entre les juges et sur la structure relationnelle qui en résulte. Les données empiriques issues d’une enquête en longitudinal (mesures en 2000, 2002 et 2005) concernent 228 juges interviewés sur leurs relations de conseil à l’intérieur du tribunal et sur leur raisonnement et manière de prendre des décisions de justice, en particulier sur leur degré de punitivité dans des affaires de concurrence déloyale et d’attribution de dommages et intérêts. Une dynamique cyclique de centralisation – décentralisation – recentralisation du réseau est d’abord mise en évidence et expliquée (Lazega, Sapulete et Mounier, 2011). Des hypothèses sont ensuite testées sur l’effet des normes sur l’évolution de la structure et sur la dynamique de l’apprentissage intra-institutionnel (Lazega, Mounier, Snijders et Tubaro, 2009) à l’aide du formalisme du modèle Siena (Snijders, 2001, 2005). Les résultats suggèrent que les normes sociales peuvent exercer des effets différenciés sur les comportements, mais seulement au travers d’effets intermédiaires de la hiérarchie des statuts sociaux. D’une manière générale, le simple fait de partager les mêmes normes de punitivité n’est pas suffisant pour rapprocher les acteurs sociaux. Cette approche de l’apprentissage par alignement épistémique et normatif dans les controverses procure donc des éléments nouveaux dans l’étude des relations entre normes, structure et comportement.

 

Dynamique des réseaux multiniveaux pour la coopération entre concurrents dans les foires commerciales

Les foires commerciales mobilisent plusieurs niveaux d’action collective, en particulier individuelles et organisationnelles. Cependant, le caractère multiniveau de ces événements est souvent trop simplifié ou ignoré dans la littérature. Julien Brailly (2016) modélise les réseaux à niveaux multiples au fil du temps à l’aide de modèles de graphiques aléatoires exponentiels à plusieurs niveaux pour explorer la manière dont la proximité temporelle entre les représentants des ventes lors des foires commerciales facilite la coopération entre concurrents. Sont mises ainsi en évidence des configurations relationnelles durables à plusieurs niveaux qui façonnent la structure économique d’une industrie et peuvent introduire des asymétries qui dépendent de la taille des entreprises. On démontre que ces asymétries contribuent à l’augmentation des inégalités socioéconomiques entre les acteurs du marché.

 

Détection de communautés dans le cas d’un partitionnement statique

L’une des propriétés les plus importantes des réseaux complexes est leur organisation en groupes, ou communautés, qui correspondent généralement à des groupes des noeuds ayant une connexion intragroupe plus importante qu’avec le reste du réseau.  L’extraction automatique de tels groupes, ou détection de communautés, est un problème qui a été remis sur le devant de la scène au début des années 2000. Il peut se formaliser de différentes manières : partitionnement (une et une seule communauté par sommet) ou recouvrement (chaque sommet peut appartenir à plusieurs communautés), être étudié de manière locale ou globale, considérer des réseaux statiques ou dynamiques, simples ou multi-niveaux, etc. L’objectif est alors de proposer des algorithmes qui, étant donné un réseau, vont tenter d’en extraire les groupes les plus pertinents. Bien que de nombreux problèmes soient toujours ouverts, celui du partitionnement a connu plusieurs succès à la fin des années 2000 qui ont indiscutablement fait entrer certaines des méthodes proposées (ex. [BGLL2008] et Infomap [RB2008]) parmis les standards de l’analyse des réseaux. Celles-ci sont utilisées dans de très nombreux domaines [Fortunato2010] et logiciels (ex. NetworkX, Gephi, Tulip).

 

Complexité économique

La notion de réseau commence à percer en économie, où elle introduit un changement de paradigme. D’abord car cette notion permet le développement des modèles qui vont au delà de l’approche champ moyen dans lequel un “agent représentatif”, purement rationnel et disposant d’une information complète est supposé décrire le comportement du système. Ensuite cette approche permet de mettre en évidence la structure d’interaction entre les acteurs économiques, laissant apparaître des patterns caractéristiques. Un exemple de cette modification d’approche d’un problème économique est la modélisation du commerce international par un réseau biparti des pays producteurs et des produits qui permet une classification des économies des pays étudiés plus informative que celle basée sur le volume total des échanges de chaque pays. Cette approche donne une indication des pays ou régions ou des acquisitions et/ou innovations technologiques qui peuvent être espérées. (altas_complexity).

 

 

Géosciences et environnement

Géosciences et environnement

Rapporteur : Michael Ghil (ENS Paris).

Contributeurs : Pierre Baudot (Inaf CNRS), François Daviaud (CEA), Bérengère Dubrulle (CEA), Patrick Flandrin (CNRS ENS Lyon), Cedric Gaucherel (INRA), Gabriel Lang (Agro Paris Tech), Francesco d’Ovidio (ENS), Daniel Schertzer (Météo-France), Eric Simonet (CNRS).

Mots clés : changement climatique, prévisibilité et incertitudes, écosystèmes et paysages, multiples échelles et hétérogénéité, climat et réseaux trophiques, maladies émergentes, transport et mélange, interactions climat-temps, modélisations déterministe ou stochastique.

Introduction
Les caractéristiques physiques, chimiques et biologiques de l’homme – de l’échelon local et communautaire à l’échelle mondiale – deviennent une préoccupation de plus en plus majeure de l’ère post-industrielle. Leur étude inclut tous les sous-systèmes du système terrestre – l’atmosphère, les océans, l’hydrosphère et la cryosphère, ainsi que la croûte terrestre supérieure – et leurs interactions avec la biosphère et les activités humaines. Par conséquent, nous devons travailler sur des systèmes hautement complexes, hétérogènes et multi-échelles à partir d’une série d’approches aussi interdisciplinaires que possible. Les concepts et les outils de la théorie des systèmes complexes semblent particulièrement utiles pour relever trois défis majeurs. Premièrement, il s’agit de la gamme d’incertitudes qui prévaut toujours dans les projections d’avenir sur le changement climatique qui, jusqu’à présent, était attribuée en grande partie à des difficultés de paramétrage des processus à l’échelle sous-maille dans les modèles de circulation générale (MCG) et au réglage des paramètres semi-empiriques. Des études récentes signalent également des difficultés fondamentales associées à l’instabilité structurelle des modèles climatiques et suggèrent l’application de la théorie des systèmes dynamiques aléatoires pour aider à réduire les incertitudes. Deuxièmement, c’est le système terrestre qui varie à toutes les échelles spatio-temporelles et se trouve donc en situation d’hors équilibre thermodynamique, et ce, très certainement de manière importante. Les méthodes de la physique statistique représentent alors un intérêt particulier dans la modélisation du comportement en quasi-équilibre du système permettant ainsi d’étendre les résultats à des états encore plus éloignés de la situation d’équilibre. Troisièmement, une majeure partie de l’intérêt dans ce domaine découle des préoccupations au sujet de l’impact socio-économique des événements extrêmes. L’étude de leurs statistiques et de leurs dynamiques vise à mieux comprendre et à obtenir des prévisions plus fiables de ces événements.

Les caractéristiques physiques, chimiques et biologiques de l’homme – de l’échelon local et communautaire à l’échelle mondiale – deviennent une préoccupation de plus en plus majeure de l’ère post-industrielle. La complexité du système est sans doute comparable à celle des systèmes étudiés en sciences de la vie et en sciences cognitives. Il paraît donc particulièrement judicieux d’intégrer les principaux domaines d’application issus de la théorie des systèmes complexes aux questions qui figurent dans cette feuille de route.

Le système terrestre comprend plusieurs sous-systèmes – l’atmosphère, les océans, l’hydrosphère et la cryosphère, ainsi que la croûte terrestre supérieure – chacun étant à son tour hétérogène et variable à toutes les échelles de temps et d’espace. Cette variabilité se trouve en outre affectée et, en retour, affecte non seulement l’écosystème contenu dans chaque sous-système, mais aussi les humains, leur économie, leur société et leur politique. Par conséquent, nous avons affaire à un système multi-échelles fortement complexe et hétérogène, et les disciplines scientifiques, indispensables pour mieux comprendre, contrôler, prédire et gérer ce système sont nombreuses et variées. Elles incluent de nombreuses sous-disciplines des sciences physiques, sciences de la vie, mathématiques, informatique et, bien entendu, toutes les sciences de la Terre et de l’environnement : de la géologie, géophysique et géochimie aux sciences de l’atmosphère et des océans en passant par l’hydrologie, la glaciologie et la pédologie.

Les questions interdisciplinaires essentielles soulevées dans ce domaine majeur comprennent le changement climatique, le changement dans la répartition et l’interaction entre les espèces entraînant un changement climatique passé, présent et futur, la manière dont les cycles biogéochimiques des traces de substances chimiques et nutritives interagissent avec d’autres changements dans le système, et le lien entre les problèmes sanitaires et les changements de l’environnement. Concernant la méthodologie, des objectifs majeurs ont été fixés pour permettre de résoudre ces questions. Ils incluent : une meilleure prédiction et la réduction des incertitudes, une meilleure description et modélisation du transport et du mélange des fluides à l’échelle planétaire, la compréhension de l’effet net produit par le temps sur le climat et les impacts des changements de temps sur les changements climatiques. Concevoir la meilleure utilisation de la modélisation stochastique, déterministe ou combinée dans cette démarche hautement complexe est également fondamental.

Afin de traiter simultanément quelques-unes de ces questions clés et de tenter d’atteindre certains de ces grands objectifs connexes, nous proposons de nous concentrer sur les trois grands défis suivants : (i) comprendre l’origine des incertitudes autour des projections sur le changement climatique et les réduire ; (ii) étudier la physique statistique hors équilibre du système terrestre ; et (iii) étudier les statistiques et les dynamiques des événements extrêmes.

L’amplitude des incertitudes concernant les prévisions relatives aux changements climatiques a été définie pour la première fois en 1979 comme une réaction à l’équilibre des températures mondiales de 1,5 à 4,5 k pour une concentration de CO2 dans l’atmosphère multipliée par deux. Quatre rapports d’évaluation du GIEC plus tard, les températures restent à quelques degrés près les mêmes pour la fin du siècle et pour l’ensemble des scénarios relatifs aux gaz à l’effet de serre. Cette difficulté persistante à réduire les incertitudes a été attribuée jusqu’à tout récemment à des difficultés de paramétrage des processus à l’échelle sous-maille dans les modèles de circulation générale (MCG) et de réglage des paramètres semi-empiriques. En revanche, de nouvelles études signalent également des difficultés fondamentales associées à l’instabilité structurelle des modèles climatiques et suggèrent l’application de la théorie des systèmes dynamiques aléatoires pour aider à réduire les incertitudes.

Le système terrestre varie à toutes les échelles spatio-temporelles, de la microphysique des nuages à la circulation générale de l’atmosphère et des océans, des micro-organismes aux écosystèmes planétaires, et des fluctuations décennales du champ magnétique à la dérive des continents. L’ensemble du système, tout comme chacun de ses sous-systèmes, est forcé et dissipatif, et donc hors équilibre thermodynamique, et ce, très certainement de manière conséquente. Les méthodes de la physique statistique semblent intéressantes pour la modélisation du comportement de quasi-équilibre du système et pour tenter d’obtenir des résultats pouvant être étendus à d’autres paramètres réels, plus éloignés de la situation d’équilibre.

Enfin, une majeure partie de l’intérêt en géosciences et en études de l’environnement découle des préoccupations à propos de l’impact socio-économique des événements extrêmes. L’approche classique de tels événements repose toujours sur la théorie des valeurs extrêmes généralisées (TVE), même si ses hypothèses ne se rencontrent que rarement en pratique. Il nous faut donc élaborer des modèles statistiques plus sophistiqués, fondés sur une meilleure compréhension des dynamiques qui entraînent des événements extrêmes. Avec de meilleurs modèles statistiques et dynamiques, nous devrions être en mesure de fournir des prévisions plus fiables pour les événements extrêmes, et les soumettre à des tests approfondis dans toutes les disciplines et pour des ensembles de données.

Les géosciences ont une longue tradition de contribution aux études des systèmes complexes et non linéaires. Les travaux d’E. N. Lorenz, au début des années 1960, ont fourni un paradigme majeur de dépendance sensible à l’état initial. Ces travaux, associés à ceux de C. E. Leith, ont apporté un nouvel éclairage sur la propagation des erreurs à différentes échelles de mouvement. Les phénomènes multi-échelles dans le contexte de la Terre solide et de l’enveloppe fluide ont permis une meilleure compréhension de la multifractalité et ses conséquences pour les prévisions dans de nombreuses disciplines, y compris la sphère sociale et politique. Nous espérons et croyons que le travail proposé ici sera une source d’inspiration et s’avérera utile à la théorie des systèmes complexes et ses applications dans de nombreuses autres disciplines.

Grands défis

  • Comprendre et réduire les incertitudes
  • Physique statistique hors équilibre du système terrestre

 


2.10.1. Comprendre et réduire les incertitudes

Charney et coll. (Natural Academic Press, 1979) ont été les premiers à proposer une estimation consensuelle de la sensibilité à l’équilibre du changement climatique en fonction de la concentration atmosphérique de CO2. Le résultat fut la fameuse fourchette de 1,5 à 4,5 k d’augmentation de la température mondiale près de la surface (Ts, température de surface), pour une concentration de CO2 multipliée par deux. Le climat n’a pourtant jamais été ni ne sera probablement jamais en situation d’équilibre. Outre les estimations sur la sensibilité à l’équilibre, les quatre rapports d’évaluation successifs élaborés par le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC : 1991, 1996, 2001, 2007) ont donc porté sur les estimations du changement climatique pour le XXIe siècle sur la base de divers scénarios d’augmentation du CO2 dans cet intervalle de temps. Les résultats des modèles de circulation générale (MCG) relatifs à une augmentation de température au cours des cent prochaines années ont obstinément résisté à tout rétrécissement de la fourchette des estimations, avec une variation de plusieurs degrés Celsius pour les températures prévues pour la fin du siècle, pour un scénario d’augmentation du taux de CO2 donné. Cette difficulté de réduction de la fourchette d’estimations est étroitement liée à la complexité du système climatique, à la non-linéarité du processus en jeu et aux obstacles à une représentation fidèle de ces processus et des rétroactions à travers les MCG.

L’une des sources d’erreurs évidentes est la difficulté à représenter tous les processus inférieurs à la résolution spatio-temporelle du modèle. Ce problème est particulièrement évident pour les processus biochimiques où la dynamique microphysique et microbiologique est couplée à la dynamique turbulente de l’océan et de l’atmosphère entraînant une variabilité spatio-temporelle virtuelle à presque toutes les échelles d’observation. Le phytoplancton en est un exemple. Son rôle majeur dans l’absorption de CO2 est affecté autant par l’advection des nutriments due à la circulation à grande échelle (bassin, années), que par la présence de filaments associés à la remontée d’eau froide (1 à 20 km, jours), l’interaction écologique avec le zooplancton (mm/m, heures/jours), ou les processus turbulents et biologiques à l’échelle de la cellule. L’étude de ces phénomènes biochimiques demande le développement de nouveaux outils théoriques dépassant les capacités de chaque discipline, et qui, en raison de leurs caractéristiques, entrent naturellement dans le cadre des systèmes complexes. Ces études doivent permettre de :

  • appréhender simultanément les multiples échelles spatio-temporelles de transport et de repérage des dynamiques,
  • intégrer les descriptions des différentes disciplines, notamment les propriétés de transport et de mélange issues de la théorie des turbulences, et les processus biologiques ou chimiques des repérages d’advection,
  • fournir des résultats sous une forme permettant de les comparer avec l’ensemble croissant des données d’observation,
  • formuler un schéma de paramétrage computationnel efficace pour les modèles de circulation.

Une seconde source d’erreurs réside dans la difficulté fondamentale liée à l’instabilité structurelle des modèles climatiques. Il est largement admis que l’espace de tous les systèmes dynamiques déterministes et différentiables (SDD) présentent une structure très complexe : les systèmes présentant une structure stable ne sont malheureusement pas typiques de toutes les dynamiques déterministes, comme on l’espérait au départ (Smale, 1967). En effet, ce qui est modélisé par les SDD ne semble pas typiquement robuste d’un point de vue qualitatif et topologique, et cela concerne même les petits systèmes comme le modèle de Lorenz (1963). Ce fait décevant a conduit des mathématiciens à aborder le problème de la robustesse et de la généricité à partir de nouvelles approches stochastiques (Palis, 2005). D’autre part, des travaux sur le développement et l’utilisation de modèles de circulation générale sur plusieurs décennies ont amplement démontré que tout ajout ou changement dans le « paramétrage» d’un modèle – c’est-à-dire dans la représentation des processus sous-maille en termes de variables explicites et à grande échelle du modèle – peut se traduire par des changements notables dans le comportement du modèle résultant.

Le problème de l’amplitude des incertitudes, loin d’être une simple difficulté pratique de « réglage » de quelques paramètres du modèle, pourrait être lié à l’instabilité structurelle inhérente aux modèles climatiques. Une manière possible de réduire cette instabilité structurelle est l’utilisation de paramétrages stochastiques dans le but de lisser les dynamiques qui en résultent à travers une moyenne d’ensemble. Une question clé est alors de déterminer si les paramétrages stochastiques ad hoc ajoutent une quelconque forme de robustesse aux modèles climatiques déterministes connus et comment réduire l’amplitude des incertitudes dans les projections climatiques futures. Des résultats préliminaires indiquent que le bruit produit des effets stabilisants qui doivent être étudiés à travers une série de modèles climatiques, des MCG les plus simples aux plus complexes. Une telle hypothèse pourrait être testée en appliquant des concepts théoriques et des outils numériques issus de la théorie des systèmes dynamiques aléatoires (SDA ; L. Arnold, 1998). Selon cette théorie purement géométrique, le bruit est paramétré de manière à traiter les processus stochastiques comme de véritables flux dans un espace de phases étendu appelé « faisceau de probabilités ». Les séries d’invariants aléatoires, tels que les attracteurs aléatoires, peuvent alors être définies et rigoureusement comparées au moyen du concept SDA d’équivalence stochastique permettant de prendre en compte la stabilité stochastique structurelle de ces modèles.


2.10.2. Physique statistique hors équilibre du système terrestre

La Terre et ses différentes composantes (hydrosphère, atmosphère, biosphère, lithosphère) constituent des systèmes typiquement hors équilibre : en raison de la nature dissipative intrinsèque de leurs processus, ils sont contraints, sans forçage, à s’effondrer au repos. Toutefois, en présence d’un forçage permanent, un régime d’état de stabilité peut être établi, dans lequel le forçage et la dissipation s’équilibrent en moyenne, ce qui permet de maintenir une situation stable non triviale avec d’importantes fluctuations couvrant une large gamme d’échelles. Le nombre de degrés de liberté impliqués dans les dynamiques correspondantes est si important que l’approche mécanique statistique – permettant l’émergence de quantités pertinentes générales pour décrire les systèmes – serait la bienvenue. Une telle simplification serait particulièrement utile pour la modélisation des enveloppes fluides, où la capacité des ordinateurs actuels interdit la simulation numérique à pleine échelle des équations (Navier-Stokes) qui les décrivent. Des problèmes similaires sont omniprésents dans la biologie et l’environnement lorsque les équations sont connues.

Un autre résultat intéressant de l’approche statistique serait d’obtenir un équivalent du théorème fluctuation-dissipation (TFD) pour trouver une relation directe entre les fluctuations et la réponse du système au forçage extérieur infinitésimal. Appliquée au système terrestre, une telle approche pourrait fournir de nouvelles estimations de l’impact des émissions de gaz à effet de serre sur les perturbations climatiques.

Diverses difficultés sont liées à la définition des mécanismes statistiques hors équilibre dans le système terrestre :

  • le problème de la définition d’une entropie (voire une série infinie d’entropies) dans les systèmes hétérogènes,
  • l’identification des contraintes,
  • le problème de la non-extensivité des variables statistiques due aux corrélations entre les différentes composantes du système (éventuellement résolu par l’introduction de dimensions (fractionnaires) réelles).

Sur le plan de la physique, plusieurs avancées ont récemment été enregistrées dans la description des turbulences grâce à l’utilisation d’outils empruntés à la mécanique statistique des fluides à propriétés invariantes. En revanche, les principes variationnels de la production d’entropie sont encore à étudier. D’autres progrès ont été accomplis concernant l’équivalent du théorème de fluctuation-dissipation (TFD) dans les systèmes physiques largement hors équilibre. Des essais expérimentaux sur un système magnétique vitreux ont mis en évidence la violation du TFD par les non-linéarités dans la relation entre la fluctuation et la réponse. Des identités générales entre fluctuation et dissipation n’ont été obtenues en théorie que pour les systèmes temporellement symétriques. Elles ont été expérimentalement testées avec succès pour les systèmes dissipatifs (non temporellement symétriques) tels que les circuits électriques ou les fluides turbulents. Il serait intéressant d’étendre ces résultats au système terrestre.