Mémoire

mémoire neuronale, immunologiques, mémoire des matériaux, mémoire sociale,

Hystérésis, épigénétique, mémoire long terme / court terme. verres de spin mémoire lié au rajeunissement et vieillissement, ferromagnétisme, comment modéliser l’émergence de la mémoire ? persistance de signaux via un encodage collectif, rétention et protension, En info : relation entre calcul et mémoire, caractère multi-échelles de l’organisation de la mémoire.

 

 

Organisation et désorganisation

Résilience, robustesse, cloture opérationnelle, autopoièse, gouvernance, régulation, rétroactions positive et négatives, ordre amorphe, auto-organisation, vieillissement, processus enchevêtrés, entropie, adaptation, sélection, diversité/variabilité, stochasticité, ordre par le bruit,

 

Véronique, David

,

 

 

Emergence, morphogenèse et comportement collectifs

Coordination mise en forme : Laurence

Edition 2017

processus de croissance des réseaux, percolation, renormalisation, émergence/immergence

Émergence en physique : comportements collectifs et fluctuations hors équilibre

Contributeurs : Hugues Chaté, Olivier Dauchot et Daniel Bonamy.

A l’équilibre thermodynamique et à son voisinage, l’uniformité spatiale et la stationnarité temporelle sont la règle. Les fluctuations autour de ces états sont bien contrôlées et en un certain sens triviales. Les propriétés de transport sont gouvernées par un principe de réponse linéaire. A l’inverse, dès que l’on s’intéresse à des situations hors équilibre, (en présence de contraintes extérieures, ou au cours de relaxation extrêmement lentes – dynamique vitreuse), on constate à toutes les échelles l’émergence de comportements collectifs qui donnent naissance à des formes et des dynamiques complexes, fractales ou multi-fractales ainsi qu’à des propriétés de transport anormales. Les fluctuations autour de ces comportements globaux sont le plus souvent singulières; elles présentent des évènements extrêmes significatifs qui peuvent dominer les effets moyens et sont très sensibles aux effets de taille finie. Comprendre les mécanismes sous-jacents et identifier les comportements universels propres à ces situations hors équilibre est un des enjeux majeurs de la physique du 21ième siècle.

Mots clés : Morpho-dynamique, Mouvements collectifs, Fluctuations hors équilibre, Dynamique lente, Statistique des extrêmes.

Résultats attendus : Identifications de mécanismes élémentaires et de comportements universels hors équilibre, synthèse, auto-assemblage et analyse de matériaux complexes, modélisation des systèmes désordonnés, applications au-delà de la physique

 

Grands Défis


Auto-organisation, transport et dynamique spatiotemporelle de la matière complexe

La physique non linéaire s’est intéressée aux motifs (patterns) issus d’instabilités prenant place dans des milieux simples (par exemple des fluides purs). Les concepts de criticalité auto-organisée et de croissance d’interfaces rugueuses ont ouvert des voies pour la compréhension des nombreuses lois d’échelles et structures fractales observées dans la nature. L’étude des comportements collectifs et de synchronisation des systèmes chaotiques modèles a engendré des perspectives nouvelles sur les dynamiques spatio-temporelles multi-échelles.

Aujourd’hui il s’agit de comprendre ce type de phénomènes émergents dans le cadre d’assemblées de constituants élémentaires plus complexes en interaction (entités auto-propulsées, nano-particules, biomolécules…). Ainsi se posent les questions de l’émergence du mouvement collectif (à toutes les échelles depuis la coopération de moteurs moléculaires, jusqu’aux groupes de grands animaux), de l’auto-organisation des bio-films et tissus cellulaires, de l’émergence des formes et de leur dynamique.

Avec en tête ces problèmes ayant toute leur acuité en biologie, en écologie, voire en sociologie, les physiciens privilégient les expériences modèles et bien contrôlées, exécutées sur des systèmes maintenus hors d’équilibre: fluides complexes (mousses, pâtes, milieux granulaires…) soumis à des flux d’énergie (cisaillement, vibrations…). La simplicité (relative) des systèmes étudiés permet en retour une compréhension plus fine, allant à l’essentiel, et, souvent, l’observation complète de la dynamique spatio-temporelle, pré-requis incontournable pour une véritable confrontation aux idées théoriques et aux modèles (numériques) qui en découlent.


Fluctuations hors équilibre

Le 20ème siècle a vu le développement d’outils et formalismes performants permettant de décrire de manière cohérente les systèmes au voisinage de l’équilibre thermodynamique. Ces systèmes présentent des comportements « moyens » bien définis et il est possible de relier ces fluctuations à la réponse du système à une petite perturbation extérieure (théorème dit de fluctuation-dissipation).

Hors équilibre, les fluctuations –spatiales et temporelles – peuvent alors devenir extrêmement importantes et il n’est plus du tout évident de définir le comportement « typique » du système comme une moyenne sur ces fluctuations. Comment par exemple définir la résistance à la rupture d’un matériau lorsque celle-ci est entièrement dictée par le défaut le plus important ? Comment faire une prévision météorologique lorsque celle-ci est sensible à une petite perturbation locale? Comment établir une stratégie de gestion de risque sur les marchés hautement volatiles? Un des enjeux de la physique du 21ème siècle sera de développer les formalismes permettant de caractériser la statistique des fluctuations observées dans ces systèmes hors équilibre. Il s’agira en particulier d’être en mesure (i) de définir clairement la notion de comportements « typiques », (ii) de reproduire les mises à l’échelle de ces comportements dits typiques et (iii) d’étendre la notion de théorèmes fluctuation-dissipation dans ces systèmes hors équilibre.


Matériaux métastables, relaxations lentes et dynamique vitreuse

Les systèmes désordonnés et en particulier les matériaux hétérogènes (verres, colloïdes, émulsions, milieux granulaires, alliages de polymères…) ont une très grande difficulté à rejoindre l’équilibre. Soumis à des contraintes internes d’ordre structurelles ou cinétiques, éventuellement frustrés dans la satisfaction de ces contraintes, la richesse de leurs configurations possibles rend tout retour à l’équilibre inaccessible sur des échelles de temps raisonnables en regard de leur environnement.

Dans ces situations intrinsèquement instationnaires, la dynamique est dominée par des effets de vieillissement ou de mémoire et la réponse à une sollicitation extérieure dépend de l’histoire du matériau.

La compréhension de l’interdépendance entre structure et dynamique qui prend place à toutes les échelles est un défi majeur pour les physiciens, et la condition sine qua non pour la maitrise de nombreux procédés industriels existants et le développement de matériaux intrinsèquement complexes (verres adaptatifs, bétons auto-réparants, nanomatériaux intelligents…). Au delà de la physique, de nombreux problèmes fondamentaux en informatique théorique (problèmes de satisfiabilité) et en biologie (repliement de protéines et de macromolécules) relèvent de cette thématique.

 

 

contrôle et prédiction

  • Mots-clés : qualité, apprentissage, validation, domaine de validité, analyse de sensibilité, incertitude, propagation d’erreur, agrégation, désagrégation, valeurs extrêmes, événements rares, prescription, gouvernance, réflexivité, viabilité, non-linéarités, prédiction en probabilité, recommandation, incertitudes, aide à la décision, machine learning, IA, retroactions (positives/négative), ingénierie sociale

Prédiction des dynamiques multi-échelles

Les prédictions des modèles de dynamiques multi-échelles peuvent être multiples, quantitatives, qualitatives, probabilistes…selon l’objectif assigné au modèle. Quel que soit le type de prédiction il est indispensable de qualifier cette prédiction. L’évaluation des poids respectifs des différentes sources d’erreur et d’incertitudes identifiées dans la qualité de prédiction est un préalable à l’utilisation pertinente du modèle. Dans la conception des modèles, des hypothèses parfois fortes sont faites pour passer d’une échelle à l’autre (agrégation / désagrégation). Elles ont des répercussions sur les prédictions, et notamment sur les changements de régime (bifurcation) et les événements rares ou extrêmes. Inversement, la détection à partir des valeurs prédites des changements de régimes et de leurs transitions, qu’ils soient attendus ou non, est un autre défi.
In fine, l’usage qui est fait des prédictions peut, en particulier dans les modèles sociaux, avoir une influence sur le domaine de validité des prédictions. La question de savoir s’il faut revenir sur la conception du modèle dynamique ou bien élaborer séparément un modèle d’usage renvoie à l’étude des relations entre prédictions, prescription, gouvernance et coûts.

  • Mots-clés : qualité, apprentissage, validation, domaine de validité, analyse de sensibilité, incertitude, propagation d’erreur, agrégation, désagrégation, valeurs extrêmes, événements rares, prescription, gouvernance, réflexivité

 

  • Les grands défis :
    • Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles
    • Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs extrêmes ou rares.
    • Détecter l’apparition des différents « régimes » et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sa répercussion sur les événements rares ou extrêmes.
    • Quelles relations entre prédiction, prescription, gouvernance et coûts ?

Grands Défis

  • Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles
  • Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs
  • Détecter l’apparition des différents ” régimes ” et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sur les événements rares ou extr
  • Quelles relations entre prédiction, prescription, gouvernance et coûts?

1. Propagation des erreurs et des incertitudes au sein d’un modèle multi-échelles

L’expérience montre que si les biologistes / modélisateurs consacrent beaucoup de temps et d’énergie à l’écriture conceptuelle et informatique de leurs modèles, ils en réservent trop peu à l’analyse de leurs propriétés. Dans le cas de modèles multi-échelles, on s’attaque à des processus pour lesquels l’étude analytique de leurs propriétés est de plus en plus délicate voire impossible à réaliser. Cependant, il est nécessaire d’évaluer la qualité de prédiction de ces modèles ou au moins de caractériser la précision de leurs prédictions. L’étude de la sensibilité du modèle aux différentes sources de variation, souvent corrélées, et de leur contribution sur la qualité de la prédiction est un défi en soi.

Un corollaire de la complexité croissante de ces modèles est que leurs sorties sont elles-mêmes plus complexes. Là où un modèle calculait quelques variables d’état à valeurs scalaires dans le temps, il produit aujourd’hui communément des variables d’état plus nombreuses, et de plus en plus souvent sous forme de vecteurs ou de matrices multidimensionnelles mélangeant variables qualitatives et quantitatives. Résumer les énormes quantités de données produites par les modèles actuels, et traiter des données non scalaires, en entrée comme en sortie des modèles doit donc également faire partie d’une telle analyse.

Cependant, comme il est souvent impossible de pouvoir disposer de toutes les données nécessaires à l’évaluation propre de la qualité de prédiction du modèle, une stratégie est souvent d’utiliser des scénarios sur lesquels la prédiction est faite et d’en déduire par exemple des intervalles de confiance. Or, dans les systèmes complexes ces scénarios sont souvent établis sur un corpus d’hypothèses souvent non disjoint de celui du modèle. Par exemple, les recherches sur les modes économiques permettant de réduire les quantités de CO2 émises dans l’atmosphère afin de réduire leur impact sur les changements climatiques sont faites sur la base des séquences climatiques fournies par les modèles de changements globaux établis eux-mêmes à partir de scénarios économiques.

Dans ce contexte de modèles multi-échelles (spatiales et/ou temporelles et/ou niveaux d’organisation ; où il existe un opérateur d’agrégation ou moyennage), l’analyse des incertitudes du modèle peut se décliner par l’analyse du conditionnement du modèle d’une boite (d’un niveau d’organisation ou d’échelle) par rapport à la boite d’un niveau supérieur (utilisation de variables exogènes ; forçage ; scénario), et ensuite par l évaluation de la qualité de la prédiction notamment en conditionnant l’erreur d’une boite par rapport à l’erreur d’une boite d’un autre niveau (analyse et propagation d’erreur, incertitude, prise en compte du caractère stochastique).


2. Effets d’agrégation-désagrégation entre sous-modèles, et ses répercussions sur les prédictions, en particulier sur les changements de régime, les valeurs extrêmes ou rares.

Dans les systèmes multi-échelles, il existe souvent des ” effets de transition ” brutaux, qui peuvent aussi être le phénomène que l’on souhaite prédire. La prédiction de ces phénomènes rend la modélisation d’autant plus difficile qu’il y a superposition et interaction de dynamiques à des échelles spatiales ou temporelles et des niveaux d’organisation différents.
La communication entre ces différents niveaux ou échelles se fait souvent par le biais de processus d’agrégation et de désagrégation et des hypothèses sont souvent faites pour procéder à ces changements d’échelle ou faire communiquer les différents niveaux d’organisation. Cependant leur aptitude à pouvoir rendre compte d’événements rares ou extrêmes est souvent négligée au profit de l’aptitude du modèle à prédire les comportements globaux.

Le défi est donc d’analyser les répercussions des hypothèses formulées pour faire communiquer les différents niveaux d’organisation ou réaliser les changements d’échelle sur les prédictions.

Exemple : vagues déferlantes gommées au profit d’une dissipation moyenne.


3. Détecter l’apparition des différents ” régimes ” et leurs transitions (qu’ils soient attendus ou non), et sa répercussion sur les événements rares ou extrêmes.

Les phénomènes multi-échelles sont caractérisés par la superposition de dynamiques multiples. Cette caractérisation des régimes et de leur causalité étant essentielle à la prédiction, il est nécessaire de pouvoir identifier les dynamiques lentes pour anticiper les changements de régimes (bifurcation), décorréler les phénomènes à dynamiques rapides des transitions et analyser l’impact des changements de régime sur l’apparition d’événements extrêmes.

Exemple : inversion du champ magnétique, tsunami, émergence d’algues toxiques


4. Quelles relations entre prédiction, prescription, gouvernance et coûts ?

Dans le contexte multi-échelles et plus particulièrement dès lors que des acteurs peuvent intervenir sur le système, il est très difficile de pouvoir évaluer la qualité de prédiction des modèles. D’autant plus que bien souvent, plusieurs modèles sont en jeu, développés souvent indépendamment, à des échelles différentes avec des finalités parfois contradictoires.
Sur la base de sa finalité (ou des finalités du niveau supérieur), chaque échelle émet une prescription (stratégie optimale sur la base du modèle pour atteindre la finalité) en fonction des coûts donnés (coûts d’événements, couts d’action et coûts d’erreur de prédiction).
Comment l’anticipation par chaque échelle de l’interprétation de sa prescription par les autres échelles, doit-elle infléchir sa prescription ? Egalement, la connaissance par les acteurs des prédictions d’un modèle modifie son comportement ce qui induit un changement des conditions de validité des prédictions : l’observateur modifie le système observé. Quelle doit être la bonne prescription et que doit-on évaluer sachant qu’une prescription peut être interpréter de manière très variée ?

Exemple : comment valider les prédictions de Bison futé
Exemple : comment le scientifique doit parler au politique sachant que le politique a parfois des objectifs antagonistes

 

 

 

Systèmes multi-échelles, multi-niveaux ou multi-vues

Mots clés : échelle caractéristique, changement d’échelle, intégration, dynamiques lentes/rapides, dynamiques enchevêtrées, possibilité ou pas de réductionnisme, apparition de nouvelles propriétés, rôle de l’observateur

 

Systèmes multi-échelles, multi-niveaux ou multi-vues

Contributeurs : Ivan Dornic, Robert Faivre, Richard Fournier, Robin Lamarche-Perrin, Jean-Pierre Muller, Véronique Thomas-Vaslin, Guillaume Guimbretière, Alberto Tonda, Roger Waldeck, Dominique Pastor

Remarque générale : bien distinguer les deux approches multi-niveaux et multi-échelles qui aboutissent à des résultats et perspectives différents.

Note à l’intention des rédacteurs de la première session : Les relectures de ce chapitre et les discussions qui ont suivies (en groupe, puis collectives), ont mise en avant la nécessité de délimiter les définitions et problèmes liés aux concepts d’échelle, niveau d’organisation et vue disciplinaire. A côté de ce décalage thématique du chapitre, nous avons également remarqué que les problématiques de la partie 3 liées à la méthodologie sont couvertes par une partie du chapitre “Big data”. La partie 3 est alors recentrée sur les questions d’émergence et propagation de l’incertitude qui sont inévitable lors d’un traitement multi-échelle. 

1- Introduction

Dès l’origine, les systèmes complexes ont été concernés par le problème de l’émergence, à savoir de l’irréductibilité des comportements globaux des systèmes aux comportements locaux de leurs composants. La thermodynamique hors équilibre et plus largement l’ensemble de la physique statistique ont été jusqu’ici des outils privilégiés pour aborder cette problématique. Aujourd’hui les objets que nous abordons nécessitent de sonder les dynamiques des processus en oeuvre à de multiples échelles (l’espace et le temps étant les plus communes), prendre en compte des niveaux d’organisation structurant et structurés par ces processus, et d’articuler des vues disciplinaires différentes et complémentaires.

2 – Exemples thématiques

Cette partie présentes des exemples thématiques destinées à introduire la discussion sur les concepts en discussion (part. 3).

Urbanisme, énergie, mobilité : Au même titre qu’une centrale solaire thermique ou photovoltaïque, la ville est aujourd’hui conçue et dimensionnée comme un système énergétique de grande dimension. Son optimisation nécessite cependant de couvrir une très grande diversité d’échelles spatiales et temporelles :

  • aux petites échelles, on peut être intéressé par les vues du comportement individuel, de l’intermittence à la minute du rayonnement solaire, de la réponse capacitive d’un isolant thermique, de la fluctuation du trafic routier, etc.,
  • aux grandes échelles, on peut être intéressé par les vues du ressenti et du bien-être de l’ensemble d’une population, de l’efficience des réseaux, du bilan énergétique intégré sur une durée de vie de l’ordre de 100 ans dans un contexte de changement climatique, etc.,

le tout en intégrant les phases transitoires associées aux stratégies d’aménagement, d’extension, de rénovation.

Dynamics of multilevel networks for cooperation among competitors in trade fairs (voir chap. Structure et dynamique des réseaux complexes)

Analyse multi-échelle en géographie quantitative et sciences de la communication : étude des relations internationales à travers la distribution territoriale et temporelle des flux d’information médiatique (articles de presse) en couplant échelles temporelles (événements ponctuels, événements dans le temps long) et échelles spatiales (niveau d’organisation national, régional et mondial). Rédaction à poursuivre (Robin) …

Eco-evolutionary Model of Rapid Phenotypic Diversification in Species-Rich Communities (P.V. Martin et al., PLOS Comput Biol 2016) : Evolutionary and ecosystem dynamics are often treated as different processes –operating at separate timescales– even if evidence reveals that rapid evolutionary changes can feed back into ecological interactions. A recent long-term field experiment has explicitly shown that communities of competing plant species can experience very fast phenotypic diversification, and that this gives rise to enhanced complementarity in resource exploitation and to enlarged ecosystem-level productivity. A community of organisms of different but similar species is modelled evolving in time through mechanisms of birth, competition, sexual reproduction, descent with modification, and death. This simple model provides a rationalization for the emergence of rapid phenotypic diversification in species-rich communities, and also leads to non-trivial predictions about long-term phenotypic change and ecological interactions. The presence of highly specialized, non-competing species leads to very stable communities and reveals that phenotypically equivalent species occupying the same niche may emerge and coexist for very long times.

Des poissons et des mares : (voir chap. Structure et dynamique des réseaux complexes )

Exploration multi-échelles et multi-vues des phénomènes éruptifs volcaniques : L’évolution dans l’environnement d’un panache volcanique est un sujet d’étude mobilisant des moyens instrumentaux et numériques permettant l’exploration des dynamiques de l’échelle moléculaire à l’échelle régionale. Intrinsèquement interdisciplinaire, l’étude des processus de formation, dissipation des panaches volcaniques implique également une analyse des données multi-vue dans le sens où l’objectif scientifique peut-être l’obtention d’informations volcanologiques ou bien l’estimation d’impacts sanitaires, environnementaux, ou bien climatiques (White paper for the GDRE MIST – Modeling, Imaging, Sensing, and Tracing of emissions and volcanic plumes 2017).

Prediction of Grape Berry Maturity (Perrot et al., 2015, PLoS ONE): Grape berry maturation relies on complex and coupled physicochemical and biochemical reactions which are climate dependent. Moreover one experiment represents one year and the climate variability could not be covered exclusively by the experiments. Consequently, harvest mostly relies on expert predictions. Taking into account data from the field and codified expert knowledge, it’s possible to build a model able to link weather phenomena (macro scale) to the average content of sugar inside grapes (micro scale), through time, thus providing experts with a decision-support system for choosing the best time for harvest.

Les objets biologiques : La feuille de route précédente avait permis d’aborder l’intégration multi-échelles comme défi pour des objets biologiques, en particulier la problématique de multi-scaling ou autoscaling préalablement défini dans (C. Lavelle et al., From molecules to organisms: towards multiscale integrated models of biological systems. Theoretical Biology Insights, 1, 13-22 (2008)). « Reconstructing multiscale dynamics » était aussi une session du CS-DC 2015.

Différents exemples en biologie soulignent que les défis restent majeurs pour la visualisation, la modélisation et la simulation de phénomènes multi-échelles et de l’émergence qui peut apparaître aux niveaux supérieurs:

Meier-Schellersheim, M., et al. (2009). Multiscale modeling for biologists. Wiley Interdiscip Rev Syst Biol Med, 1(1), 4-14. doi:10.1002/wsbm.33.

Qu, Z., et al. (2011). Multi-scale modeling in biology: How to bridge the gaps between scales? Prog. Biophys. Mol. Biol., 107(1), 21 – 31 %U http://www.ncbi.nlm.nih.gov/pubmed/19279999.

McEwan, C. H., et al. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems. Paper presented at the COSMOS workshop ECAL 2011 Conference, Paris.

de Bono, B., et al. (2012). ApiNATOMY: A novel toolkit for visualizing multiscale anatomy schematics with phenotype-related information. Human Mutation, 33(5), 837-848. doi:10.1002/humu.22065

voir aussi:  CS-DC  2015 Molecules to Organisms and Ecosystems http://cs-dc-15.org/e-tracks/organisms/

Notamment, dans le domaine du système immunitaire nous avons souligné l’importance de considérer ces niveaux et échelles pour mieux comprendre la complexité de ce système cognitif: Thomas-Vaslin, V. (2015). Multi-scale complexity of the immune system : Evolution, from chaos to fractals. In A. S. Nicolas Glade (Ed.), Le vivant critique et chaotique (pp. 333-402).

Le défi est de pouvoir modéliser et simuler les multi-niveaux fonctionnels, avec différentes catégories fonctionnelles (par exemple d’entités vivantes telles que des cellules, des organismes ou d’autres éléments) et de réaliser des observations dynamiques des systèmes permettant du  transfert d’information d’un niveau à  un autre. Si on se place à la même échelle il est possible de modéliser en plus le chemin de l’information entre les objets de même échelle, comme communication/interactions entre des cellules de différentes catégories (de différents lignages ou ayant différentes fonctions…)

3- Concepts en discussion

Comme introduit plus haut l’étude des systèmes complexes implique de travailler sur l’articulation entre les concepts généraux d’Echelle, de Niveau d’organisation et de Vue. Ces concepts clefs sont débattus et doivent être discutés et affinés. Egalement, des méthodologies spécifiques doivent être en mesure de rendre compte des phénomènes d’émergence et de propagation de l’information et de l’incertitude. Un jeu de données permettant d’explorer la complexité multi-échelle, multi-niveau d’organisation et multi-vue d’un système, partage les caractéristiques et défis des big data. Les problématiques liées à l’existence de cette structure de données fait l’objet d’un chapitre dédié.

Il s’agira donc de préciser tout d’abord pour un public interdisciplinaire hétérogène, de scientifiques ce que les expert entendent par Echelle et Niveau d’organisation dans un modèle avec des variable et des paramètres, qui répond également à des définitions assez hétérogènes selon les domaines: pour débuter la discussion, on pourra, par exemple, se référer à: « Modéliser et simuler » éd matériologiques Varenne, F. (2009). Models and Simulations in the Historical Emergence of the Science of Complexity From system complexity to emergent properties (pp. 3–21 %U http://link.springer.com/chapter/10.1007/1978-1003-1642-02199-02192_02191): Springer.

 

figure 1 :Illustration de l’articulation entre les concepts d’Echelle, de Niveau d’organisation et de Vue

3.1 L’Echelle

L’Echelle est liée à l’observation et quantifiable, une échelle étant définie par une étendue et une granularité (communément spatiale ou temporelle). Le besoin de penser une multiplicité d’échelles n’est donc pas intrinsèquement lié au voisinage de différentes disciplines. La turbulence pose la question d’une quasi-infinité des rapports d’échelle au sein de la seule mécanique des fluides. Pour autant, les disciplines impliquées autour d’un même objet complexe convoquent souvent des échelles très distinctes : faire dialoguer un généticien et un écologue reste un enjeu malgré la multiplicité des configurations où cette association est pertinente. Les enjeux de méthode associés à la gestion d’une multiplicité d’échelles sont maintenant également connectés à la considération de niveaux organisationels et analyse multi-vue. À titre d’illustration, la théorie des hiérarchies en écologie << (…) situe tout phénomène dans son échelle spatio-temporelle propre, en partant du principe qu’il existe une corrélation entre échelle d’espace et échelle de temps, et que ce sont les vitesses de fonctionnement des phénomènes qui définissent les niveaux. >>

3.2 Les Niveaux d’organisation

Un Niveau d’organisation est une délimitation de l’échelle imposée par la structure du système complexe étudié. L’identification d’un niveau d’organisation pose la question, dès l’origine, du pilotage des systèmes dans tous les domaines de la complexité engagés dans des actions de modélisation multi-échelle. Elle a souvent été éludée par manque d’outils numériques et informatiques suffisamment performants pour simuler l’impact de décisions, de perturbations ou de commandes à chaque échelle. Or, il est souvent difficile d’agir à un niveau d’organisation unique (e.g., au niveau global) et la question est souvent d’identifier les niveaux d’organisation actionnables pour obtenir les effets désirés. De plus, l’optimum global n’est pas nécessairement la somme des optima locaux (e.g., la satisfaction individuelle n’est pas nécessairement une condition de la satisfaction collective).

3.3 La Vue

La Vue est une façon de regarder un Niveau d’organisation à une Echelle, et est liée à la culture disciplinaire de l’observateur (voir figure 1). Même si durant longtemps les sciences dites de la complexité se sont évertuées à identifier des objets transdisciplinaires, dans le présent paragraphe la question est celle de l’articulation des disciplines dans leur spécificité. Quelque soit le découpage retenu lors de la modélisation et lors de l’analyse d’un système complexe, les objets et les processus résultants de ce découpage ont le plus souvent un ancrage disciplinaire très fort et l’articulation de ces objets exige un respect de l’histoire et des pratiques de chaque discipline. La prise en compte de notre perception du monde en fonction de notre âge et des domaines et des systèmes et du contexte de l’évolution du  système doit permettre de considérer non seulement une vue analytique catégorique mais aussi  une vue holistique. (Nisbett, R. E. and T. Masuda (2003). “Culture and point of view.” Proc Natl Acad Sci U S A 100(19): 11163-11170.; Nisbett, R. E. and Y. Miyamoto (2005). “The influence of culture: holistic versus analytic perception.” Trends Cogn Sci 9(10): 467-473.)

(Illustration : Les dynamiques paysagères/territoriales illustrées dans \ref{paragraphe Robin} sont caractérisées par une multiplicité de processus intriqués à différents niveaux et échelles qui relèvent d’un ensemble de disciplines pour rendre compte des dynamiques biophysiques et humaines. Les dynamiques sont dites paysagères dans une perspective écologique où l’objet est le réseau d’unités fonctionnelles du point de vue des processus écologiques (avec au moins deux niveaux : les unités fonctionnelles et l’écosystème). Les dynamiques sont dites territoriales dans une perspective SHS dans laquelle un territoire est une portion d’espace appropriée par un groupe social (une multiplicité d’organisations sociales induisant une multiplicité de territoires, éventuellement emboîtés). Le défi est d’articuler ces deux points de vue.)

3.4 L’émergence et l’immergence

Contraindre le phénomène d’émergence et d’immergence  demande de travailler à travers des changements d’échelles et/ou de niveaux d’organisation.

( à developper …).

3.5 La propagation de l’information et de l’incertitude

Une approche multi-échelle et multi-niveau organisationnel combinant de multiple vues pose la question de la gestion du transfert de l’information et de son incertitude obtenues à une échelle/un niveau organisationnel vers une échelle/un niveau supérieur ou inférieur.

Effectivement, le changement d’échelle entraine le plus souvent une redéfinition des unités élémentaires structurant le système à cette échelle, et donc, une modification des paramètres caractérisant ces éléments. La propagation de l’information demande alors de pouvoir définir les paramètres caractéristiques d’une échelle en fonction des paramètres caractéristiques des échelles adjacentes. Egalement, parfois l’existence de propriétés émergentes ne permet pas de transférer directement des propriétés du système identifié à une échelle vers une échelle adjacente. Bien que les entités et les processus et donc les fonctions soient différents d’un niveau d’organisation à  un autre,  on peut essayer de rechercher des caractéristiques communes aux différentes niveaux quant au  comportement des systèmes.

L’effet de cette redéfinition des propriétés caractéristiques d’une échelle a des effets sur les incertitudes: La propagation des incertitudes n’est pas triviale et ne peut se résumer à une simple combinaison linéaire des incertitudes liées à l’échelle inférieure. Dans certains cas, les incertitudes des quantités du modèle à une échelle donnée peuvent être traitées comme des variables aléatoires et donc géré par l’algèbre associé. D’autres voies de reflexions existent et doivent être développées et/ou adaptées à des problématiques spécifiques, comme par exemple dans le cas particulier où le problème traité nécessite l’utilisation de variables déterministes sans incertitudes combinées à des variables stochastiques présentant une incertitude. (Baudrit et al., 2007)

( à developper …).

 

############################################################################

4- On rentre dans les méthodes et quelques encadrés de success-stories (version session 1)

A/ Analyse d’un jeu de données (observations ou résultats de simulation). Identification d’échelle pertinente pour représenter la variabilité du processus ou phénomène observé.

Quoi de neuf dans ces méthodes (en lien avec le multi-échelle) ?

 

  • Agrégation / compression de données, théorie de l’information.
  • Traitement du signal.
  • Les traitements des données restent souvent qualitatifs et les statistiques descriptives à  un niveau  d’échelle ou  un niveau d’organisation à  un temps donné et dans un espace donné.  L’intégration passant par des échelles et niveaux d’organisation différents et à  travers le temps et l’espace,  avec des modélisations  quantitatives et des simulations multi-niveaux non linéaires devraient être proposées et validées par des résultats expérimentaux.

 

B/ Analyse des mécanismes de l’émergence et de la propagation de l’information ou de l’incertitude (entre échelles)

La capacité d’une organisation à détecter efficacement des menaces est critique pour la survie de cette organisation. Cette question peut être abordée comme un processus darwinien et multi-niveaux. Au niveau de l’agent, l’enjeu est de le munir de processus de détection et d’émissions d’alarmes et de diverses fonctionnalités qui  pourront alors être mises en oeuvre et contrôlées par des boucles de régulation. Mais l’optimalité éventuelle de ces processus à l’échelle de l’agent n’induit pas forcément une optimalité au niveau de l’organisation. L’optimalité à l’échelle de l’organisation globale repose aussi sur les dynamiques temporelles d’interactions. L’étude de l’optimalité et de la résilience de la détection de menaces doit être menée à l’échelle de l’organisation, en modélisant (i) les caractéristiques, éventuellement hétérogènes, des agents, (ii) leurs interactions, synchrones ou asynchrones, dans le temps et l’espace et (iii) les processus de sélection les plus appropriés.  Les processus en oeuvre dans les systèmes sociaux et biologiques suggèrent une fertilisation croisée dans l’étude de cette problématique.

 

Quoi de neuf dans ces méthodes ?

 

  • Renormalisation, transition de phase, classes d’universalité.

 

 

 

C/ Implémentation et validation des modèles intégrants des échelles et niveaux multiples.

 

Le modèle étant donné, la simulation reste un enjeu. Les processus, individus ou structures en interactions sont très nombreux, les formalismes très divers (événements discrets, temps continu, …), les rapports d’échelle quasi-infinis, les données d’entrée nombreuses et de natures différents, autant de caractéristiques qui nécessitent de considérer un environnement et une architecture informatique permettant l’intégration de toutes ces caractéristiques.

 

L’exploration numérique de modèles couvre un très large spectre de méthodes allant de la planification d’expérience à l’analyse de sensibilité en passant par la propagation d’incertitude, la calibration, l’optimisation, etc. Due à la complexité croissante des modèles, elle est aujourd’hui devenue un outil indispensable des modélisateurs. Comment explorer un espace de très grande dimension en raison d’un très grand nombre de paramètres ou de paramètres d’entrée fonctionnels (météo, cartes, cellules…), paramètres souvent corrélés ou contraints ?

 

  • De nouveaux outils sont apparus pour simuler numériquement des systèmes caractérisés par une quasi-infinité des rapports d’échelles temporelles et spatiales (Cf “Teapot in the stadium” en synthèse d’image). Ces outils sont statistiques et s’appuient sur les fondements de la méthode de Monte Carlo, notamment sur son aptitude à “passer la dimension infinie”. Si ces vieilles méthodes de la physique statistique sont aujourd’hui devenues praticables dans le contexte de la complexité, ce n’est pas seulement lié au pouvoir théorique de Monte Carlo de gérer une infinité d’échelles emboitées. Il s’agit beaucoup plus du résultat d’un travail théorique face à la gestion des données, qui croissent bien sûr et se diversifient avec la dimension de l’emboitement. Si les images de synthèse actuelles atteignent de tels niveaux de raffinement de la petite échelle dans des scènes de grande dimension, c’est avant tout parce que les algorithmes actuels assurent une orthogonalité donnée-traitement. La connaissance des conditions plus générale de cette orthogonalité, notamment en lien avec la non-linéarité des emboitements, reste un enjeu majeur. Lorsqu’elle est assurée, il devient possible d’intégrer sur 100 ans une phénoménologie à la minute tout en gérant conjointement l’ensemble des échelles spatiales dans des temps de calculs compatibles avec les algorithmes d’optimisation et de contrôle.
  • Intégration des données à des échelles multiples (lié à incertitude).

 

  • Multi-agents
  • Multi-temporel

 

  • Validité du modèle (méthodologie de validation): ayant affaire à une multiplicité de modèles à articuler se pose la question de leur couplage mais aussi de la validation de l’assemblage réalisé. Les méthodologies de modélisation,  mathématiques ou  informatiques,  continues ou  discrètes peuvent apporter des  variations de comportement des simulations qui  devront être discutées par rapport aux situations observées et mesurées afin de calculer des nouvelles valeurs de paramètres qui  ne pourraient être mesurées directement.

 

  • Passage à l’échelle.

####################

ajouts à  faire:

Modèle : peut être théorique, conceptuel, statique, dynamique, probabiliste, formel , exécutable pour réaliser des simulations …

Echelle : c’est un aspect quantitatif, une mesure physique dans l’espace et le temps

Niveau : c’est une abstraction conceptuelle et qualitative des objets, des processus associés et de leur contexte.

C’est tout d’abord la relation entre l’observateur et le niveau de l’entité qui fixe le niveau à étudier: par exemple un niveau macroscopique ou microscopique qui dépend des technologies et de sa discrimination, sa sensibilité dans les mesures pour générer des observations et des données qualitatives et quantitatives.

Variables: quand on modélise il s’agit d’identifier les variables du modèle conceptuel ou formel :c’est le choix de l’observateur dans son cerveau, d’après ses connaissances, puis de caractériser les variables à observer, à mesurer ce qui dépend des outils de mesure à disposition, avec des niveaux et des échelles.

La relation est hiérarchisée entre les variables ou observables dans un modèle multi-niveau ou multi-échelle. Elle peut être décrite sur la base d’ontologies, permettant de connaître le niveau des éléments (entités ou processus) décrits dans le modèle.

Les variables sont des entrées et des sorties du  modèle  (les paramètres aussi  non ?) .

Il existe des variables intensives et extensives sur lesquelles on peut agir ou pas.( à  revoir….)

Paramètre:

Le paramètre est fixe dans un modèle : il représente une contrainte du modèle (par exemple selon les domaines étudiés, la température, la pression, ou un taux de prolifération ou de mortalité etc…Pourtant les taux peuvent varier en fonction du contexte du système comme avec l’âge ou  l’état (physiologique/pathologique/thérapie)

 

 

 

 

 

 

Épistémologie formelle : des Big Data aux modèles intégrés

A ajouter : questions ethiques

2017 : Rapporteur : Paul Bourgine. Contributeurs : Paul Bourgine (Complex System Digital Campus CS-DC), Rémy Cazabet (LIP6, Paris), Valérie Gouet-Brunet (IGN/LaSTIG/MATIS, Saint-Mandé), José Halloy (Université Paris Diderot, LIED UMR8236), Bertrand Jouve (XSYS, Toulouse), Robin Lamarche-Perrin (LIP6, ISC-PIF, Paris), Evelyne Lutton (INRA, Grignon), Pierre  Parrend (ECAM, Strasbourg-Europe), Nadine Peyrieras (USR3695 Bioémergences, Gif-sur Yvette, ISC-PIF, CS-DC).

2008 : (Épistémologie formelle, expérimentation, apprentissage automatique) :

Rapporteur : Nicolas Brodu (INRIA – Rennes). Contributeurs : Paul Bourgine (CREA, École polytechnique), Nicolas Brodu (INRIA – Rennes), Guillaume Deffuant (CEMAGREF), Zoi Kapoula (CNRS), Jean-Pierre Müller (CIRAD), Nadine Peyreiras (CNRS).

Mots clés : Big Data dynamique, Modèles partiels, Modèles intégrés, Protocole d’acquisition et d’organisation de données, Nomadisme de concepts, Partage et interopérabilité des données et des logiciels, Deuxième révolution internet.

  1. Contexte et définition

            1.1 Concept de données massives

Le big data peut se  définir par le fait que dans la discipline dont les données relèvent, l‘augmentation de la quantité de données disponibles et l’évolution de leur nature, leur variété, nécessitent d’autres stratégies que celles pratiquées couramment. La caractérisation de la frontière vers le « Big Data » est donc différente suivant les disciplines. L‘informatique donnerait comme limite celle de la puissance informatique nécessaire au traitement des données ou de la capacité des algorithmes à les traiter.  En sciences humaines ou dans les domaines de la biologie ou de la santé, il s’agit de la nécessité de concevoir de nouvelles méthodes d’analyse qui vont de paire avec de nouveaux modes de collecte et d’organisation des données, sans qu’il s’agisse nécessairement de PetaBytes d’information.  Le concept de Big Data s’accompagne de nouvelles stratégies d’organisation des données et d’extraction des informations qu’elles peuvent contenir. 

            1.2 Données massives et approches systèmes complexes : un lien très fort

Les approches systèmes complexes sont consubstantielles de l’analyse de données plus ou moins massives, même si la question de paramètres permettant de quantifier et plus encore de qualifier de façon pertinente la massivité des données n’est pas évidente,  ne serait-ce que du fait de l’évolution de la perception qu’on en a, en fonction des moyens d’acquisition et d’analyse dont on dispose. Les approches systèmes complexes sont conçues pour traiter, reconstruire et modéliser des données multiéchelles et multiniveaux dans un contexte nécessairement interdisciplinaire et pour de ce fait accompagner les disciplines expérimentales dans une transition épistémologique. Les données requises peuvent ne pas prendre en compte un grand nombre d’éléments ni même tenter de capturer tous les niveaux possibles, mais seront éventuellement massives par le nombre d’instances des mêmes phénomènes qu’il sera nécessaire d’analyser pour rendre compte des processus en jeu au moyen d’un cercle vertueux expérimentation- reconstruction- modélisation- validation. L’importance des données et de leurs caractéristiques pour atteindre les objectifs d’une modélisation intégrée multi-niveaux justifie de penser un guide des bonnes pratiques (section 2). Il s’agit, à la lumière de l’expérience acquise dans le domaine, de rationaliser les démarches de mise au point de protocole d’acquisition, d’organisation et d’analyse de données massives en fonction des questionnements qui les motivent.

            1.3 Utilisation de données massives déjà acquises

Définir cohorte.

Le concept de BigData s’est imposé avant que ne soient véritablement pensées les stratégies pour les analyser et donc pour les acquérir et les organiser. On se trouve ainsi avec des corpus de données dont les caractéristiques ne permettent pas une analyse de la dynamique des systèmes ou de la topologie, de la temporalité et de la probabilité des phénomènes. Il peut cependant s’avérer indispensable de les prendre en compte parce qu’ils correspondent à des cohortes uniques et portant la trace de l’historicité des processus. Les difficultés liées à l’utilisation de telles données (c’est le cas par exemple de données –omics en biologie (genomics, transcriptomics, proteomics, metabonomics, etc..)) sont aussi le fait de l’hétérogénéité de leur format, de leur documentation et de leur annotation. Ce type de problème  devrait être en principe résolu  lors de nouvelles acquisitions qui pourraient aussi occasionner la réorganisation de bases de données existantes. Il est en particulier souhaitable que les stratégies de documentation et d’annotation des données permettent leur utilisation sans la nécessité de l’intervention forte de l’expert à l’origine de leur acquisition et/ou de leur organisation.  Les masses de données similaires mais organisées en fonction de points de vues différents compromettent les stratégies d’apprentissage supervisées qui sont cependant nécessaires à la catégorisation  et à l’analyse des corpus de données.  Pour donner un exemple concret parmi d’autres, l’observation des micro-organismes à la surface du fromage conduit à un groupage intrinsèque qu’il est extrêmement difficile de confronter aux bases de données existantes. L’absence de standards uniques dans l’organisation de données de même type est un problème qui peut compromettre leur utilisation. Mais la question de la possibilité même de standards uniques se pose.  Elle est cependant cruciale pour l’interopérabilité de bases de données qui sont sans doute appelées à rester distribuées.

            1.4 Utilisation des données  à acquérir, données du passé et longues durées

Il existe des masses de données archivées, par exemple historique, sur des supports hétérogènes (papier, iconographie, objets, architecture, etc.). Ces données n’ont pas été récoltées dans un but de modélisation mais pour des raisons très variées, par exemple pour être utiles à des professions (notaires, architectes, sociologues, etc.) ou pour des statistiques d’Etat (écologie du paysage, etc.). Les défis sont d’acquérir ces données par une numérisation intelligente et surtout une re-construction intelligente, incluant l’organisation et l’interopérabilité de ces données, qui ne présupposent pas des usages qui en seront faits. D’autres défis concernent la re-construction de données manquantes de faire des retro-prédictions basées sur des modèles. Enfin c’est données pourront être utilisées dans une perspective d’analyses sur la longue durée des sociétés humaines. Ces données peuvent alors nourrir des démarches de prospectives pour répondre aux défis sociaux (voir section 3).

           1.5 Épistémologie formelle et appliquée (partie reprise de 2009, revoir éventuellement l’intégration)

Le monde moderne, notamment dans le domaine de la médecine, de l’environnement et de la sphère sociale, est de plus en plus dépendant de et confronté à de vastes systèmes constitués d’un grand nombre d’entités en interaction. Les données collectées à partir de ces systèmes, généralement à très grande échelle, représentent des défis considérables en termes d’efforts à déployer pour la reconstruction des dynamiques multi-échelles et leurs diverses influences descendantes et ascendantes. Ce travail requiert non seulement l’appui de l’épistémologie formelle et des calculs massifs, mais aussi une généralisation dite « science ouverte » inspirée par la communauté de la physique des hautes énergies. La compréhension d’un phénomène consiste à découvrir une approche suffisamment précise et concise pour expliquer sa structure et son comportement, pouvant être comprise par l’esprit humain. Dans la situation actuelle, l’intuition humaine se trouve souvent désemparée pour traiter les subtilités intrinsèques et les propriétés des systèmes complexes. En théorie, une technique formelle optimale permet d’obtenir des concepts candidats et des liens pouvant servir de base aux expérimentations menées par l’être humain. Si les formes optimales découvertes grâce aux méthodes théoriques s’opposent aux concepts optimaux conçus par le travail cérébral humain, la raison de cette divergence fera elle-même l’objet de recherches complémentaires. Pour comprendre les systèmes complexes, il faut définir et mettre en œuvre une épistémologie formelle et appliquée spécifique. De nouveaux outils et méthodes doivent être développés pour assister le travail de conception et d’interprétation des expérimentations en vue de :

  • identifier les entités pertinentes à une échelle spatio-temporelle donnée,
  • caractériser les interactions entre les entités,
  • évaluer et formaliser le comportement du système.

La stratégie allant de la conception d’une expérimentation jusqu’aux analyses postérieures des données devrait associer les approches fondées sur des hypothèses et celles appuyées sur des données par :

  • la définition de protocoles pour produire des données appropriées à la reconstruction des dynamiques multi-échelles,
  • l’initialisation, à travers une construction simultanée, d’un cadre théorique pour la prédiction et la falsification ultérieures des résultats issus d’expérimentations,
  • une approche fonctionnelle à différents niveaux pour permettre de concevoir des formalismes appropriés à ces mêmes niveaux tout en sachant que les méthodes théoriques ne permettent pas de garantir qu’un niveau formel puisse être déduit d’un autre, mais cela n’a pas d’importance puisque : pour comprendre un système, il est préférable d’étudier les étapes de reconstruction phénoménologique à chaque niveau pertinent.

La méthodologie débute par l’observation et la collecte de données. Toutefois, il arrive un moment où il n’est pas opportun de collecter des données sans savoir si celles-ci sont réellement nécessaires à la compréhension du comportement du système étudié. La reconstruction phénoménologique a pour résultat le paramétrage des données, et les mesures réalisées devraient permettre de détecter et de retracer ultérieurement les motifs transitoires et récurrents. Or, ces caractéristiques ne sont significatives que si elles sont intégrées dans un modèle permettant de valider les hypothèses. Notre objectif ici est de trouver un modèle compatible avec les observations. Le simple fait de construire un modèle nécessite déjà la formalisation des hypothèses sur le comportement du système ainsi que les processus sous-jacents. Une partie de la compréhension en découle, et la partie restante résulte de la possibilité de valider les prédictions relatives au modèle par l’expérimentation. Ce dernier point est représenté à droite de l’illustration ci-dessous. Épistémologie formelle et appliquée

Formal

Déroulement des opérations de reconstruction théorique

A supprimer (Valérie) :

——–

L’intégration de la science informatique est une composante essentielle de cette épistémologie. Elle a pour but de fournir ainsi que de permettre :

  • des outils d’exploration pour une approche fondée sur les données ; l’apprentissage automatique non supervisé peut fournir des motifs candidats et des relations qui échappent à l’intuition humaine ; l’apprentissage automatique actif sert à déterminer l’expérimentation la mieux appropriée pour tester un modèle qui est au centre de l’épistémologie dont il est question,
  • des outils permettant d’établir des comparaisons entre les modèles (fondés sur des hypothèses) et les observations ; l’apprentissage supervisé équivaut à l’exploration de l’espace des paramètres d’un modèle avec pour objet une correspondance optimale des données ; l’apprentissage auto-supervisé est appliqué quand un aspect temporel permet de corriger en continu les prédictions du modèle à partir des données observées concernant ces prédictions.

Les méthodes et les outils de la science informatique sont nécessaires lors des étapes suivantes :

  • les interactions entre l’humain et la machine : la visualisation et l’interaction à partir des données, des ontologies et des simulations,
  • la construction d’ontologies relatives à des entités fonctionnelles pertinentes à différents niveaux,
  • l’élaboration d’hypothèses, la formalisation des relations entre les entités, la conception de modèles,
  • la validation des modèles.

Nous attendons des méthodes et des outils issus de la science informatique qu’ils offrent les caractéristiques fondamentales spécifiques suivantes :

  • les outils génériques doivent être aussi indépendants que possible par rapport à une structure logique (d’interprétation) ; en particulier en raison des habitudes culturelles variables des différentes disciplines et des spécificités de chaque système, il est préférable de proposer une série d’outils indépendants et adaptables plutôt qu’un environnement intégré qui, de toute façon, ne pourra jamais englober tous les cas de figure,
  • l’indépendance doit également être de mise dans le choix des logiciels (en termes d’usage, d’évolution et d’adaptation des outils aux besoins spécifiques) ; cela exige des logiciels libres comme condition nécessaire, mais non pas suffisante,
  • les outils doivent être fonctionnels pour les spécialistes, mais également utilisables par des non spécialistes ; cela est réalisable, par exemple, s’ils offrent des caractéristiques spécifiques à un domaine avec une valeur ajoutée pour les spécialistes sous la forme d’extensions (modules, etc.) des outils génériques,
  • des outils prêts à utiliser ; les conditions requises pour l’application de l’outil doivent être minimales ; l’utilisation de l’outil ne doit pas impliquer de gros efforts techniques.

——–

 

  1. Défis : un guide des bonnes pratiques

            2.1 Du monde aux données : les protocoles expérimentaux

Les protocoles sont ici le point crucial : quelle est la question théorique mise à l’épreuve des faits ? quelles sont les dispositifs matériels assurant une production des données dans des conditions reproductibles ? la durée de la reproductibilité est elle compatible avec la précision requise ? quels sont les protocoles computationnels de validation des données et de reconstruction des données manquantes ? quelles sont les méthodes de dépouillement statistiques des données requises pour la science des systèmes complexes conduisant à de nouvelles disciplines intégratives et prédictives ou transdisciplines soucieuses de falsifiabilité, par exemple pour l’étude de la matière complexe, des systèmes biologiques, cognitifs ou territoriaux. Les objets d’études étant les systèmes complexes in Natura d’intérêt pour les hommes et leur planète, il s’agit d’avoir des résultats scientifiques auxquels un large public doit pouvoir faire confiance.

Peu d’ouvrages s’intéressent à l’analyse de protocoles expérimentaux. Un lien est fourni dans la bibliographie pour l’ouvrage de Herbert Simon, “Protocol Analysis”. Comme dans toutes disciplines ou sous-disciplines et a fortiori dans une nouvelle transdiscipline, il s’agit de se mettre d’accord sur des protocoles au fil d’un processus dynamique de construction guidé par l’évolution d’a priori qualitatifs. Dans bien des cas d’études de grands systèmes complexes, il est important dans les protocoles d’acquisition de données de pouvoir tenir compte de la rétroaction du système sur lui-même (cf: la matrice généralisée des Nations Unis sur les implications économiques, sociétales et écologiques). Dans un objectif de préconisation par exemple, l’acquisition doit être fortement dynamique et “en temps réel” puisque l’action des gouvernants ou des individus sur le système peut créer des cascades et des bifurcations que nous devons être en mesure d’identifier assez précisément et rapidement au vu des délais d’enchaînement des cascades. Dans le cadre de démarches participatives de récolte de données (crowdsourcing) en particulier, la conscience des individus ou de groupes d’individus à participer à une telle action partagée doit être prise en compte selon principes ci-dessous.

Pour traiter des questions relatives à l’adéquation des données au problème posé, de nouvelles stratégies de construction et de partage  de protocoles sont à inventer.

– Les discussions épistémologiques sur les théories, les concepts, les méthodes et les protocoles pour augmenter leurs interactions et leur nomadisme dans les réseaux scientifiques. Pour les partager de la façon la plus ouverte possible, des e-workshops sans frais peuvent être organisées, enregistrées et disséminées. S’il reste des désaccords sur les protocoles, le e-workshop peut déboucher sur l’organisation d’un e-tournoi entre protocoles sur une même classe d’objets scientifiques: ce e-workshop décide du (meta)protocole pour comparer les divers protocoles restés en débat.

– La validation, ou qualification, des données peut se faire par le biais d’experts, d’hommes de l’art et/ou de scientifiques, ou encore par le croisement avec d’autres données déjà validées, selon la classe de données considérées. Un principe très général de validation est de mettre en place un programme d’apprentissage actif avec un nombre quelconque d’experts volontaires pour distribuer l’effort. Ce programme apprend de façon active à partir de la différence entre son anticipation et la validation de l’expert chaque fois que ce programme est suffisamment sûr de la qualité de sa propre validation: de la sorte, l’apprentissage actif devient de plus en plus automatique et expert, et finit par ne demander à l’expert que les cas les plus intéressants.

            2.2 Des données aux modèles :

Ici les deux questions cruciales sont l’interopérabilité des données et le choix des protocoles de reconstruction phénoménologique et théorique.

a) Les protocoles de reconstruction phénoménologique organisent le passage des données dynamiques brutes multi-échelles à la phénoménologie augmentée des dynamiques multi-niveaux symboliques (catégorisation des entités) et hypersymboliques (catégorisation des relations binaires des networks ou n-aires des hypernetworks – réf Jeffrey Jonhson). Les protocoles de reconstruction théorique partent des reconstructions qualitatives phénoménologiques et des mesures associées aux entités et aux liens relationnels. La discussion autour de ces protocoles peut s’organiser de la même manière que pour les théories et les concepts avec des e-workshops et, éventuellement catalyser des dispositifs de comparaison  des méthodes de reconstruction restées candidates après discussion dans les e-workshops.

b) Afin de faciliter l’accès des communautés scientifiques aux approches systèmes complexes, il est important de disposer de données interopérables qui soient compatibles avec des analyses de dynamiques multi-échelles.  Ces données portent sur les entités élémentaires du système mais, dans la mesure du possible, sont aussi acquises sur des niveaux méso (un ou plusieurs). Pour chaque étude il est important de définir une méthodologie adéquate qui permette d’identifier les différents niveaux d’échelles pertinents et de s’accorder sur les paramètres les mieux à même de décrire le système à chacun de ces niveaux. Ce questionnement conduit à mieux penser les protocoles d’acquisition (voir paragraphe 2.1).

Dans une approche systèmes complexes, les données doivent aussi nécessairement renseigner les interactions entre les entités et les niveaux (cf b.ci-dessus). Entre les entités, il s’agit d’acquérir des données à même de rendre compte des dynamiques des interactions. Entre les niveaux, il s’agit souvent de penser en amont de l’acquisition des données, les conditions d’un recollement d’échelles qui sont souvent abordées par des méthodes et outils différents. Ce recollement d’échelles se fera par l’intégration de modèles opérant à des niveaux différents (voir paragraphe suivant) mais aussi par des couplages de données entre niveaux différents, couplage que l’on doit chercher à expliciter. On peut être amené à coupler des données de natures très différentes, par exemple qualitatives (connaissances expertes, données d’observations cliniques ou données sociales) et quantitatives (dénombrements, suivis de trajectoires, caractéristiques phénotypiques). Il est essentiel de travailler à construire des interopérabilités qui préservent au mieux le partage des cohortes pour la la richesse des coopérations interdisciplinaires. En outre, il est fréquent qu’il soit incontournable de prendre en compte des données de qualité différentes, soit comme évoqué plus haut du fait de l’existence de corpus de données uniques mais incomplets ou du fait d’artefacts expérimentaux persistant au delà de l’optimisation des protocoles. L’intégration des données nécessite alors de savoir évaluer la propagation des incertitudes dans la modélisation multi-niveaux du système, ainsi que d’être en mesure de les exploiter, notamment dans les cas d’usage.

L’interopérabilité  peut être résolue soit en forçant la mise en place de standards universaux sur la forme des données soit sur des systèmes “universels” de conversion de chaque format dans les autres formats. Ce travail de conversion est de la responsabilité de tout nouveau format. C’est un problème qui reste néanmoins souvent difficile à résoudre étant donné l’évolution et la variété des données, rendant leurs différentes natures quelquefois difficilement interopérables.

 

            2.3 Des modèles partiels aux modèles intégrées

Le paragraphe précédent traitait de la reconstruction de modèles phénoménologiques et théoriques (cf le § précédent). Ces modèles sont partiels comme liés à une cohorte ou un ensemble homogène de cohortes. La question est à présent de traiter le passage des modèles partiels à un modèle intégré portant sur une même classe d’entités multi-niveaux. Les niveaux d’une entité sont le plus souvent composés d’entités hétérogènes. A nouveau ce passage peut être traité par des e-workshops et, en cas de désaccords persistants par des e-tournois. Il est essentiel de comprendre que la chaîne des e-workshops s’enchaîne depuis les protocoles de données jusqu’aux protocoles de modèles intégrés, chaque fois en anticipant l’étape suivante. Mieux encore, les débats sur le protocole du modèle intégré boucle sur le protocole initial épistémologique sur les théories, les concepts et les méthodes (comme cela se fait dans les feuilles de route!).
Chaque modèle partiel agit comme un résumé des données dynamiques multi-échelles et multi-niveaux pour la cohorte. Cette étape est ainsi le “guide méthodologique” pour parvenir à un modèle intégré qui “résume” au mieux toutes les cohortes de données relatives à une même classe de systèmes complexes tout en restant le plus intelligible (rasoir d’Occam). En raison de cette double contrainte, le meilleur modèle intégré n’est pas l’ensemble des champions des modèles partiels. La métaphore du décathlon en sport illustre ce concept. 
De meilleures opportunités pour la synthèse du modèle intégré peuvent venir de modèles présentés pour les e-tournois ou des Olympiades. Le flux régulier de nouveaux modèles partiels produit un processus continu de révision des modèles intégrés existants 
La question du modèle partiel (resp. intégré) qui résume au mieux la (resp. les) cohorte(s) peut être traitée avec l’aide du nouveau domaine de la géométrie de l’information. Ce cadre est remarquable parce qu’il permet de comparer des méthodes en apparences diverses: deep learning fondé sur différentes représentations internes ou statistiques “optimales” maximisant l’entropie du modèle probabiliste sous contraintes des mesures statistiques et incrémentales en provenance  des protocoles de reconstruction phénoménologique.
  1. Répondre aux grands enjeux sociétaux : défis sociétaux et big data dynamiques multiéchelles
L‘ensemble des 17 objectifs de développement durable des Nations Unies (http://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable) pour 2030 propose une synthèse des défis eco-socio-économiques posés par les grandes classes de systèmes complexes à différents niveaux territoriaux. Les communautés scientifiques ont défini des ensembles de critères pour mesurer les avancées vers ces 17 objectifs. L’ICSU est l’organisation scientifique  qui fédère les communautés scientifiques internationales pour conseiller les Nations Unies sur de tels critères. 
Les Nations Unies proposent un nouveau système input/output de comptabilité nationale pour généraliser les tableaux purement économiques (dits de Léontief) de façon à intégrer progressivement l’ensemble des 17 défis éco-socio-économiques. Cette extension est nécessaire pour anticiper les cascades d’impacts multi-factoriels (écologiques, sociétaux et économiques) de toute décision aux différents niveaux territoriaux. Mais cette extension pose de redoutable problèmes pour estimer de façon fiable, durable, économique de tels tableaux, voire de valider en temps réels les impacts.
Le contexte international offre des opportunités globales efficaces pour aller dans cette direction:
a. La 2ème révolution internet apporte dès maintenant l’opportunité de partager les données comme si chacun travaillait sur le même ordinateur avec IPFS (InterPlanetary File System). Plus fondamentalement encore, elle apporte avec les Smart Contracts et la BlockChains une manière de garder une trace stigmergique non effaçable des interactions entre les individus et les groupes d’individus de toute taille: ces traces garantissent un niveau de confiance très élevé au sein de chaque Organisations Autonomes Décentralisée (OAD) créée par chaque Smarts Contracts. 
b. Pour les données individuelles et de groupes, le General Data Protection Regulation (GDPR) est un nouveau Règlement de l’Union Européenne qui rend obligatoire à partir de mai 2018 la mise à disposition de ses données personnelles à chacun. il sera donc nécessaire d’obtenir les consentements des intéressés pour utiliser (de façon anonymisées) les données qui les concernent.  La mise à disposition de leurs données dynamiques est d’une importance capitale pour la Science. Mais la publication de leurs dynamiques en interaction est aussi essentielle  i) pour des indicateurs éco-socio-économiques en “temps continu” représentant la “santé” des territoires à toutes les échelles ii) les initiatives participatives en temps réel des organisations associatives, gouvernementales et non gouvernementales et iii) des conseils personnalisés à chacun en matière d’orientation personnelle, d’éducation personnalisée ou de santé personnalisée tout au long de la vie basée sur les trajectoires multifactorielles de larges cohortes d’alter egos.
c. Pour les données relatives aux interactions entre les hommes et la nature, l’internet des objets peut jouer un rôle fondamental avec une régulation du partage organisée là aussi avec des Smart Contracts. Le  règlement GDPR s’applique aussi à l’internet des objets dont chacun dispose à la maison, à la ferme, dans les lieux de travail et dans la ville pour mieux réguler leurs dépenses, leurs approvisionnement alimentaire ou leur consommation/production en énergie.
d. Les principaux courants de la nouvelle économie (économie verte et bleue, économie sociale et solidaire, économie numérique et digitale) ont tous comme objectif de prendre en compte les multiples défis issus des 17 objectifs de l’UN. Par exemple, le dernier congrès mondial des coopératives (2 milliards de coopérateurs sur la planète) a voté son adhésion aux 17 objectifs de l’UN. 
4. Success stories
Les exemples de réussite (success stories) permettent de valider la pertinence de la construction et de l’analyse de corpus de données dans des approches systèmes complexes. 
4.1 INCALIN: optimisation de la production industrielle du Camembert
Dans le domaine de l’agro-alimentaire, le projet ANR INCALIN, sur la modélisation du Camembert, a pu à la fois atteindre un stade industriel, servir de socle au projet européen DREAM, et enfin permettre d’établir différentes thématiques de recherches fondamentales dans la communauté (modélisation interactive, exploration de tubes de viabilité, couplage visualisation/exploration/optimisation)
– Sicard, M., Perrot, N., Reuillon, R., Mesmoudi, S., Alvarez, I., Martin, S. (2012) A viability approach to control food processes: Application to a Camembert cheese ripening process. Food Control, 23, 312-319.
– Perrot, N., Baudrit, C., Trelea, I.C., Trystram, G., Bourgine, P. (2011). Modelling and analysis of complex food systems: state of the art and new trends. Trends in Food Science and Technology, 22(6), 304-314.
– Baudrit, C., Sicard, M., Wuillemin, P.H., Perrot N. (2010). Towards a global modelling of the Camembert-type cheese ripening process by coupling heterogeneous knowledge with dynamic Bayesian networks, Journal of Food Engineering, 98 (3), 283-293.
4.2 Human Problem Solving
Herbert Simon and Alan Newell for Human Problem Solving: 600 pages dont 100 dernières pour les conclusions et 500 pour les protocoles
4.3 Les états causaux musicaux
Voir les travaux de Jean-Louis Giavitto
4.4 Reconstruction et modélisation des dynamiques cellulaires dans la morphogenèse embryonnaire
Voir les travaux de l’USR3695 BioEmergences
4.5 Reconstruction et modélisation des comportements collectifs chez les insectes sociaux
Voir les travaux de Guy Théraulaz
4.6 Exploitation de données géo-spatiales hétérogènes et volumineuses pour la prise de décision
Le projet européen IQmulus (2012-2016) permet l’utilisation optimale de données géo-spatiales hétérogènes et de grand volume pour une meilleure prise de décisions. Il se fonde d’une part sur la fusion de données, et, d’autre part sur le développement de plateformes de gestion d’information et d’analyse.
4.7 Etude collaborative des évolutions territoriales à différentes échelles
Le projet Geohistoricaldata regroupe des chercheurs, dans une démarche collaborative, autour de deux objectifs : l’étude des évolutions territoriales à différentes échelles (de la parcelle cadastrale au territoire national) et la création d’outils spécialisés et flexibles permettant de traiter ces questions.
5. Références
    – Site de l’ICSU : https://www.icsu.org/
    – http://www.un.org/sustainabledevelopment/fr/objectifs-de-developpement-durable/
    –  Big Data à Découvert, eds M. Bouzeghoub et R.Mosseri, CNRS éditions, 2017
    – Dynamiques hyper symboliques: Jeffrey Jonhson et Paul Bourgine
    – Hypernetworks: Jeffrey Jonhson    
    – Digital Method Initiative: https://wiki.digitalmethods.net/Dmi/DmiAbout

 

 

 

Durabilités et Gouvernance

viabilité, systèmes décentralisés, hétérarchies,

Durabilités et Gouvernances

Rapporteur: José Halloy (Université Paris Diderot, LIED UMR8236)

Contributeurs: Isabelle Alvarez, Frédéric Amblard (Université Toulouse 1 Capitole, IRIT UMR 5505), Nadia Boukhelifa Sariali (INRA, GMPA UMR782), Cyrille Bertelle (Normandie Université, Le Havre, LITIS EA4180), Jérémie Bosom (Ecole Pratique des Hautes Etudes, CHArt EA4004 – Energisme), José Halloy (Université Paris Diderot, LIED UMR8236), Maud Loireau (IRD, ESPACE-DEV 228), Nathalie Méjean Perrot, Anna Scius-Bertrand (Ecole Pratique des Hautes Etudes, CHArt EA4004 – Energisme), Fabien Tarissan (ENS Cachan, ISP UMR7220.

Mots-clés : durabilité, système Terre, gouvernance, politique, aide à la décision, prospective, climat, énergie, ressources

Introduction

Aujourd’hui, la mondialisation du système de production et de partage d’information, d’énergie et de produits agroalimentaires dans un contexte global de changement climatique, de dégradation des terres et de perte de biodiversité pose la question de la durabilité du système terre telle qu’elle existe aujourd’hui et de celle de l’humanité en son sein, des transitions nécessaires mais aussi celle de ses gouvernances.
Quelque soit l’échelle et la nature du système considéré, quelles que soient les organisations qui en découlent, il appartient à un méta système complexe et contribue à son fonctionnement et sa dynamique, volontairement (e.g. via la régulation / les échanges) ou involontairement (e.g. via ses impacts).
Ces organisations sont plus ou moins socio-écosystémiques, plus ou moins artificielles, plus ou moins projetées dans un espace géographique (cf. territoire). 
C’est ce contexte de globalisation qui nous amène à élargir la question de développement durable et d’intelligences territoriales précédemment posée  à celles de la durabilité et de la gouvernance des systèmes et territoires, du plus local au plus global, et à considérer que l’approche systèmes complexes est propice à étudier ces questions.
Ce positionnement élargi pose le concept de territoire dans sa plus large acception, en tant que réalité spatiale (étendue, matérialité), réalité sociale (acteurs) et complexe représentationnel (identités) (Dérioz, 2012), et à toutes les échelles selon la question posée par les sociétés (Fargette et al., 2017).
Il pose la question de la société numérique “multi-culturelle”. En effet, au cours de son édification, la société numérique met au point des  outils de partage d’information, et de certification distribuée inédits  qui posent de manière nouvelle les questions d’éthique et de gouvernance du groupe social (la mise à disposition des outils suffit-elle à garantir l’utilisation par tous ; comment garantir l’égalité de traitement dans une société distribuée ; quelles garanties offrent les processus de décision distribués, etc.). Ces outils et leur utilisation sont une opportunité pour l’expérimentation en SHS (l’analyse des contenus, des flux de données sont par exemple utilisés pour étudier les dynamiques d’opinion ou en marketing) ; pour la diffusion de l’information scientifique, etc.
Les questions de gouvernance appellent à faire intervenir des politistes pour éclairer les problématiques de gouvernance à la lumière des réflexions contemporaines sur ce concept. Le terme gouvernance peut également être utilisé pour affaiblir le gouvernement centralisé et faire intervenir dans la définition et la mise en œuvre des politiques publiques des parties prenantes différentes des représentants officiels de la puissance publique.
La gouvernance inclut aussi bien le monde des affaires, la “société civile” (au sens des associations), les contre-pouvoirs comme la presse, etc. L’idée est de ne pas perdre de vue que la gouvernance se pratique dans les rapports de force, conflits, négociations caractérisant la démocratie et que les principes de cette dernière doivent être présents dans la réflexion sur la gouvernance.
Le terme “démocratie” ne doit pas disparaître de la réflexion des systèmes complexes sur la gouvernance sous peine d’adopter une position technocratique et scientiste qui n’est pas dans l’esprit des approches dites “systèmes complexes”. Les décisions qui engagent l’avenir de l’humanité appartiennent-elles à une minorité de scientifiques / technocrates ou d’autocrates qui se croient capables de prendre les “bonnes décisions” pour tous les autres ? Même si l’on pense que le système complexe que l’on observe ne peut que s’effondrer, n’y a-t-il pas un moment où l’on sort de la physique ? La réflexion sur la gouvernance ne peut se dispenser de la question du moment où l’on sort de la physique et des modèles quantitatifs.
Par ailleurs, la réflexion, la prise de décision et le contrôle de l’application des actions mise en place au sein d’un système font parties des questions de recherche. Ces mécanismes peuvent être envisagés sous différentes modalités (centralisée, décentralisée ou distribuée) et font appel à des réseaux d’acteurs diversifiés.
L‘ensemble des 17 objectifs de développement durable des Nations Unies pour 2030 propose une synthèse des défis eco-socio-économiques posés par les grandes classes de systèmes complexes à différents niveaux territoriaux. Les communautés scientifiques ont défini des ensembles de critères pour mesurer les avancées vers ces 17 objectifs. L’ICSU est l’organisation scientifique  qui fédère les communautés scientifiques internationales pour conseiller les Nations Unies sur de tels critères.  
 
Exemple de l’agriculture, du local au global et gouvernance dans un cadre de réchauffement climatique.

Exemples de réussites

ComMod : comment échapper à la tragédie des biens communs au niveau local ? La modélisation comme outil d’accompagnement.
ComMod (https://www.commod.org/) est un protocole d’accompagnement des acteurs, usagers et décideurs, dans un processus participatif de gestion de ressources renouvelables. La modélisation (principalement multi-agent) et le jeu de rôle agissent comme un intermédiaire d’échange de connaissances et de scénarios dans un cadre multi-disciplinaires et multi-acteurs.

Exemples remarquables de démarche

GIEC : La partie modélisation du GIEC est une démarche qui devrait s’appuyer plus nettement sur une approche  systèmes complexes. On peut considérer que le système Terre d’un point de vue geophysique est un système complexe. De plus de nouvelles modélisations en économie prennent en compte la complexité des sociétés humaines. Pour le moment, d’une part, des scientifiques développent des modèles pour le système climatique Terre pour décrire les dynamiques climatiques sur des échelles de temps couvrant des millénaires. D’autre part, en plus de ces modèles issus des sciences naturelles, s’ajoutent des modèles économiques pour estimer la dynamique de l’économie mondiale. Ces deux types de modélisations sont ensuite couplées  par les estimations des émissions de gaz à effet de serre. Ces modèles couplés servent alors à élaborer des scénarios qui guident la gouvernance mondiale sur le changement climatique.

Le GIEC n’est pas né au contact des chercheurs des systèmes complexes, pourtant c’est un bel exemple de réussite de travail interdisciplinaires multi-échelle. C’est aussi une réussite du point de vues des science sociales, de la politique et de la gouvernance.

Appels à exemple : e-democratie, outils auto-organisation…

Grandes questions

 1. Comment étudier les durabilités des systèmes complexes ?

  • Pérennité des sociétés humaines incluses dans le système Terre
  • Durabilité des écosystèmes
  • Durabilité des systèmes informatiques

2. Quelle gouvernance pour les phases de transitions ?

  • Climatiques, énergétiques, des ressources et des territoires
  • Économique, politique.

3. Comment intégrer les questions éthiques à différents niveaux ?

  • L’éthique de la gouvernance
  • L’éthique algorithmique et les systèmes adaptatifs

4. Quelles données, quelle modélisation pour la question de la durabilité et de la gouvernance ?

  • Problématiques des données : collecte et recueil participatif
  • Modèles :  question de la co-construction des modèles, convocation croisés des expertises, co-évolution et modélisation participative.

Autres thèmes pertinents

Du contrôle à la gouvernance multi-niveaux. Du contrôle optimal à la gouvernance mutli-échellesIntelligence territoriale et développement durableÉpistémologie formelle : des Big Data aux modèles intégrésStructure et dynamique des réseaux complexes.

Défis

De la donnée au modèle, à la gouvernance et  à la durabilité

1. Intégration de tous les acteurs des systèmes dans les questions de durabilité et de gouvernance (via la modélisation comme méthode)

  • Intégrer au delà des acteurs locaux les structures intermédiaires (ni usager ni décideur par exemple).
  • Représenter des acteurs absents (Exemple : prendre en compte l’équité inter-générationnelle. Des mécanismes de modélisation plus efficaces que la simple introduction de mécanisme d’actuarisation (discounting factor) sont nécessaires.

2. Gouvernance de la durabilité et durabilité de la gouvernance

La durabilité de l’humanité dépend en partie des prises de décision et des actions issues de ces décisions. Cette gouvernance est multi-niveau et collective; elle peut revêtir différentes formes (centralisée, décentralisée, distribuée). Dans une gouvernance distribuée (ex: blockchain), les prises de décisions sont prises de manière autonome par les entités constitutives du système, contrairement à une gouvernance décentralisée dans laquelle les décisions des entités sont coordonnées pour servir un même objectif.
Certaines formes de gouvernance peuvent apparaitre plus ou moins robustes, résiliantes, efficaces et durables en fonction du contexte. On distingue les formes de gouvernance robustes aux perturbations (non sensibles) des formes résiliantes (absorption des perturbations et retour à un état d’équilibre). La durabilité d’une gouvernance centralisée nécessite qu’elle soit robuste, quand la durabilité d’une gouvernance décentralisée ou distribuée repose sur sa résilience.
La durabilité de la gouvernance passe par la construction de modèles de ces systèmes complexes permettant de tester des alternatives, d’étudier les impacts de mesures incitatives sur le système et ainsi d’évaluer, suivant plusieurs dimensions, l’efficacité de la mise en place de ces mesures.

3. Développer des modèles interdisciplinaires multi-niveaux

La gouvernance des systèmes complexes mêlant plusieurs grands enjeux sociétaux (environnement, économie, culturel) dans un contexte de développement durable, implique l’inclusion de connaissances interdisciplinaires (expertises croisées) et multi-niveaux dans les modèles proposés.

L’articulation au sein de mêmes modèles, de connaissances et représentations hétérogènes provenant de disciplines différentes, potentiellement à des niveaux/échelles différents et reposant sur le croisement d’ontologies différentes représente un véritable challenge.

De même, le fait de pouvoir introduire dans ces modèles l’articulation entre différents niveaux pour penser une gouvernance associant le local et le global est essentiel.

La prise en compte de la dynamique du système aux différentes échelles dans les modèles peut permettre une évolution et une adaptation des solutions proposées.

Les modèles développés dans ce cadre peuvent permettre d’identifier des états critiques du système et de mieux comprendre l’importance de certains paramètres du modèle et des leviers d’actions en terme de gouvernance (ex: éco-responsabilité).

Les démarches participatives peuvent en particulier permettre d’inclure dans des modèles co-construits, les points de vue et attendus des acteurs et opérationnels qui sont parties prenantes des systèmes. Elles peuvent également faciliter l’acceptabilité des solutions et l’appropriation de nouveaux dispositifs ou mesures (ex: apprentissage de l’éco-mobilité).

Développer des outils pour la gouvernance de cohortes moyennes

cf. Isabelle Alvarez

4. Tenir compte de l’hétérogénéité des données en volumes, en qualités en types, du manque de données

Dans différents domaines, géographie et territoires, systèmes agri-food, systèmes biologiques, …, le big data n’est pas une réalité mobilisable et les données à disposition sont plutôt hétérogènes en volume, en qualité, elles peuvent être de différentes natures, symboliques ou numériques. Sous un éclairage de durabilité et gouvernance, la coopération entre les Hommes et les modèles est de plus en plus incontournable et dans ce cas tenir compte de données formalisées symboliquement et très hétérogènes est indispensable.

5. Intégrer la connection entre humains, numérique et symboliques

Faire émerger les modèles mentaux détenus par les acteurs nécessite une mise en situation, une interaction entre un système numérique et des informations détenues à un niveau symbolique. Pour cela une interaction visuelle, un travail en visualisation en lien avec les sciences cognitives pour mettre en connection humains et machines est une clé de cette connection.

6. Défis éthiques: l’éthique des systèmes algorithmiques

Les questionnements éthiques autour du numérique diffusent dans toutes les composantes de notre société et à différents niveaux organisationnels. Dans ce contexte, il devient important de définir précisément ce qu’on appelle éthique, ou plus précisément de quel aspect éthique on parle. Car plusieurs notions d’éthique peuvent être associées ou étudiées dans le cadre d’un système algorithmique. À titre d’illustration, les contextes suivants, bien qu’ayant tous des enjeux en terme d’éthique, ne mettent pas en avant la même notion.

Ainsi le système APB (Admission Post-Bac), qui effectue l’affection des lycéens qui viennent d’obtenir le bac dans l’enseignement supérieur, met plutôt en jeu des questions liées à la loyauté (est-ce que les choix opérés par l’algorithme correspondent à ceux annoncés aux utilisateurs ?), à la transparence (le code est-il accessible ?) et à l’intelligibilité (la décision est-elle accompagnée d’une explication des processus de la prise de décision ? cf. aussi les choix algorithmes d’obtentions de prêts par exemple).

Dans le cas des systèmes autonomes en revanche (tels les véhicules autonomes, le trading haute fréquence, les armes létales autonomes, …), c’est plutôt la question de la responsabilité qui est en jeu. En cas d’accident, qui est responsable (propriétaire, le conducteur passif, le concepteur) ? De même, comment déterminer l’échelle de valeurs qui amène à une prise de décision.

Alors que dans le cas des algorithmes de recommandations sur le web, qu’ils soient économiques (Amazon) ou informationnels (Newsfeed de Facebook, média en lignes, …), la question de la diversité devient centrale. Ici il s’agit de savoir quels impacts ont ces algorithmes sur la diversité de l’information disponible et la diversité des choix auxquels ont accès les utilisateurs (voir le débat sur les bulles informationnelles). Se pose alors la question de l’espace de liberté individuelle laissée par ces systèmes de recommandation.

Ainsi, les enjeux de ce défi pourraient être de:

  1. contribuer à une typologie claire et robuste des différents aspects éthiques qui sont mis en jeu dans le contexte des systèmes algorithmiques
  2. identifier les critères permettant d’évaluer et de contrôler les différents aspects éthiques d’un système algorithmique.
  3. étudier les effets de ces algorithmes sur les systèmes dans lesquels ils sont mis en œuvre : un objectif pourrait être de participer à une sorte d’observatoire des impacts des algorithmes dans le domaine de la gouvernance par exemple.

À noter que cette notion d’éthique n’est pas toujours à rechercher au niveau de l’algorithme, mais plutôt du contexte dans lequel il est mis en œuvre ainsi que de la finalité de sa mise en œuvre.

Quelques projets/collectifs en relation :

7. Co-évolution des modèles et des pratiques / Co-organisation et co-evolution entre l’expertise humaine, les modèles et la politique

L’expert, le modèle et le politique

7.1 Suivi et gouvernance (observatoires)

Le défi consiste à développer des systèmes opérant, qui puissent articuler dispositifs scientifique, technique et organisationnel  pour comprendre et documenter les processus relatifs à une question posée par la société sur un territoire, faciliter les discussions et négociations entre acteurs et, in fine, renseigner en préalable les décisions des gestionnaires de territoire.

Le dispositif scientifique articulerait modèle théorique, modèle d’observation et modèle de suivi, et ferait se succéder des séquences recherche et des séquences de suivi. Le modèle théorique décrirait le système en relation avec la question posée sur la base de connaissance scientifique experte ou à dire d’acteurs; le modèle d’observation pointerait et décrirait dans le modèle théorique les observations nécessaires à la compréhension du système et l’étendue spatiale, ou périmètre, dans laquelle elles doivent être opérées; le modèle de suivi sélectionnerait et décrirait dans le modèle d’observation les observations nécessaires et suffisantes pour définir et valider un jeu minimum d’indicateurs et leurs modalités d’acquisition dans le temps. Le dispositif technique assurerait les services d’acquisition, analyse, et pérennisation des données, informations et connaissances. Le dispositif organisationnel organiserait les compétences des opérateurs et fonctions de l’observatoire, garant de la robustesse, répétitivité, maintenance des services rendus.

Le défi serait de construire ces observatoires de telle sorte qu’ils puissent être considérés comme le miroir d’un territoire sous le point de vue de la question posée, et par là même un système complexe opérant, brique de l’édifice du système de décision territorial. Ces observatoires auraient la capacité (scientifique, technique et organisationnelle) de relancer une séquence recherche si les changements détectés sont majeurs et justifient une adaptation de ses modèles.

7.2 Interactions hommes/machines

Si les modèles mathématiques sont fondamentaux pour aider à comprendre ou prendre des décisions pour un système, ils sont toujours une représentation déformée de la réalité et liés à l’état des connaissances à cet instant à différents niveaux. Ils peuvent aussi représenter une formalisation majoritairement admise d’un système ne prenant pas en compte toutes les particularités ou connaissances régionales et locales capitalisées. L’enjeu est de donner la capacité à nos modèles de correspondre, co-évoluer avec les humains afin que des connaissances qui n’ont pas percolé ou qui sont formalisables ou emergent au travers de l’interaction avec le modèle soient prises en compte. Cette co-évolution va permettre de passer du local au global, qui remis en cause par des pratiques locales vont faire évoluer et enrichir le modèle global. Pour faire cela un défi est d’avoir la capacité à mettre en connection des modèles mentaux symboliques, des informations numériques et des simulations d’un système.

Apprentissage visualisation interactifs: la visualisation permet de comprendre mieux et plus vite des données numériques, en s’appuyant sur nos capacités de perception et de cognition et sur nos acquis. C’est une spécialité informatique issu du domaine de l’Interaction Homme-Machine (IHM), et qui s’intéresse principalement à (1) la conception des représentations visuelles efficaces des données; (b) la création des interfaces intuitives et conviviales et des techniques d’interaction pour aider les utilisateurs à mieux comprendre et naviguer dans des grandes masses de données, et (c) l’évaluation de ces techniques et interfaces. Un système de visualisation est interactif s’il permet à l’utilisateur de controller un aspect de la representation, et avoir un retour dans un délais d’interaction acceptable (≈ 100 milliseconds). Coupler la visualisation interactive avec des techniques automatiques tels que l’apprentissage par machine ou l’optimisation multi-critère, permet d’une part, à améliorer les résultats de prediction de ces algorithmes / modèles car on prend en compte les préférences, connaissances et expertise humaine. D’autre part, ces techniques peuvent être déployées pour guider efficacement la recherche d’utilisateurs dans les systèmes de visualisation exploratoire (Boukhelifa et al. 2017).

Schéma

Etat actuel (avec des petits cercles pour symboliser que l’état actuel est la résultante de sous-états) -> permet de définir -> durabilité -> gouvernance (qui modifie l’état et se sert de la durabilité et de l’état antérieur).

Références

Dérioz P. (2012). L’apparence des choses : analyser les paysages pour comprendre les systèmes territoriaux. HDR, Volume 2. UPVD, 371 p.

Fargette, M., Loireau, M. & Libourel, T. (2017-under editing process). Society-environment relationships: a systemic approach of viability. In : Olivier Barrière, Serge Morand, Mohamed Behnassi, Gilbert David, Vincent Douzal, Voyner Ravena Canete, Catherine Prost, Thérèse Libourel, Mireille Fargette, Maud Loireau, Laurence Pascal, Frédérique Seyler (Eds): Co-viability of Social and Ecological Systems. Reconnect Man to the Biosphere in a Global Era of Change, Springer

Hardin G. The tragedy of the commons. Science 1968, 162, 1243–1248.
Ostrom E. Governing the Commons, the Evolution of Institutions for Collective Action; New York, Cambridge UniversityPress, 1990.

Loireau M, Fargette M, Desconnets JC, Habiba Khiari, H. 2017. Observatoire Scientifique en Appui aux GEstionnaires de territoire: entre abstraction OSAGE et réalité ROSELT/OSS. Cas ROSELT/OSS pour la lutte contre la désertification. Numéro spécial « Autour du concept d’observatoire en environnement » de la revue internationale de géomatique – RIG. Eds Hermès, Lavoisier. 30 p. Sous presse.

Schuster P. The commons’ tragicomedy: Self-governance doesn’t come easily. Complexity 2005, 10, 10–12.

N. Boukhelifa, A. Bezerianos, W. Cancino, and E. Lutton. 2017. Evolutionary visual exploration: evaluation of an IEC framework for guided visual search. Evol. Comput. 25, 1 (March 2017), 55-86. DOI: https://doi.org/10.1162/EVCO_a_00161

 

 

 

 

Notes (restantes)

 

 

Intégrer dans les objectifs observatoires: désertification -> disciplines concernées -> dialogues

co-évolution modèles/disciplines humains / modèles/ pratiques

Application en biologie: processus de fermentation alcoolique , explorer les solutions optimales dans un objectif de durabilité

L’identification des arômes dans le vin

Théorie des jeux problèmes d’un petit nombres de joueurs

Petites communautés, tailles finies (cohorte moyenne)

Gouvernance éthique équité, transparence, intégrité

Défis : études de communautés de communautés, hétérogénéité des données, grandes masses de données, traitements des données hétérogènes

Maitrise de la consommation d’énergie, problème du tier de confiance

Gouvernance décentralisée et transparence basée sur le blockchain

10. Modèle

  • Modélisation des incertitudes (cf. lien avec l’autre groupe)
  • Validité du modèle
  • Analyse du modèle
  • Robustesse
  • Contradiction entre modèles
  • (analogie Titanic)

 

 

Science des réseaux

Structure et dynamique des Réseaux multi-niveaux

Rédaction en cours...

Structure et dynamique des réseaux multi-niveaux

 

Contributeurs (ordre alphabétique) :

2017 : Rémy Cazabet, David Chavalarias, Guillaume Deffuant, Jean-Loup Guillaume, Laura Hernandez, Emmanuel Lazega

2011 : Jean-Baptiste Rouquier (rapporteur), Cyril Bertelle, Jean-Philippe Cointet, Jean-Pierre Gaudin, Matthieu Latapy, Damien Olivier, Lionel Tabourier

 

Keywords

Complex networks, Metrology, Hierarchical clustering, Communities, Graphs,  Dynamics, Robustness, Partial data, Contextual data, Diffusion processes.

 

Concepts-clé :

réseaux multi-couches ou réseau de réseaux : réseaux constitués de plusieurs couches, chaque couche étant constituée d’entités appartenant à la même catégorie d’objets (ex. personnes, institutions, gènes, proteines, etc.). Les liens au sein d’une couche sont de même nature (ex. liens d’amitié, de co-auteur, etc.) et il peut y avoir des liens entre éléments de couches différentes (une personne appartient à une institution, une même personne est caractérisée par divers type de liens dans les différentes couches avec d’autres personnes : amitiés, travail, famille).

Réseau multi-niveaux : réseaux multi-couches où les objets d’une couche prennent part à la définition des objets de la couche supérieure (les cellules/les organes, les personnes/les institutions, etc.).

 

Réseau multiplex : réseau multi-couches où chaque couche comporte les mêmes nœuds mais les liens sont différents d’une couche à l’autre, exprimant différents types de liens (ex : liens d’amitiés, professionnels, familiaux).

 

Introduction

 

Les réseaux complexes sont un outil incontournable pour la modélisation des systèmes complexes à chaque fois que les interactions entre les éléments du système étudié  doivent être prises en compte dans leur multitude et leur diversité.

 

Concept mathématique abstrait pour lequel il existe déjà un corpus de métriques et modèles rendant compte des propriétés locales et globales, la modélisation par réseaux ou graphes fournit aussi un cadre pour la modélisation de systèmes appartenant à des disciplines très diverses, tant théoriques que basées sur les données.

 

Initié au 20ème siècle par des disciplines telles que la sociologie (Moreno, 1934; White 1970), l’anthropologie (Mitchell, 1969), la géographie (ref), l’écologie [May1972]  ou la génétique théorique (Kauffman & McCulloch 1967), l’approche de modélisation réseaux a connu en quelques années un essor considérable, grâce notamment à l’avènement des masses de données accessibles par les réseaux sociaux informatiques. Elle apporte un éclairage complémentaire aux analyses spécialisées propres aux disciplines traditionnelles.

 

L’analyse de la structure des réseaux complexes et de leurs dynamiques donnent le moyen de représenter l’articulation multi-échelle (associée aux propriétés qui se manifestent lorsqu’on observe le système aux échelles différentes, en agrégeant des éléments, par exemple) qui caractérise la plupart des systèmes complexes, en mettant en avant des interactions situées et les positions structurelles de certains éléments du réseau ainsi que leur rôle dans la transformation du réseau. Cela permet aussi une analyse multi-niveau, qui souvent inclut  la notion d’agrégation, mais qui intègre additionnellement les notions de fonction et organisation spécifique du niveau supérieur.

 

Quels sont les verrous actuels de l’étude des réseaux ? Quelles sont les problématiques communes à plusieurs disciplines ? Au fil des pages de la feuille de route, les réseaux sont mentionnés plusieurs fois. Le but est ici de décrire  les avancées récentes, de montrer comment la théorie des réseaux donne un éclairage nouveau aux problèmes des diverses disciplines et d’identifier les axes de développement futur et les questions ouvertes.

 

Une approche transversale aux disciplines

 

Les progrès théoriques des deux dernières décennies ont été spectaculaires et souvent motivés par des applications pratiques, comme par exemple, la caractérisation de très grands réseaux particuliers (ex. Twitter, le web, le protéome, etc.). En conséquence, il existe un corpus assez complet pour décrire les différentes structures, locales et globales, des réseaux simples (où tous les noeuds et liens sont de la même classe). Ces travaux ont été étendus pour caractériser différent types de réseaux : les réseaux pondérés (liens ayant  des poids différents), ou avec de la sémantique (contenu textuel, opinion, etc.) associée aux liens, les réseaux où il y a différent types de noeuds avec des liens connectant seulement des noeuds de type différent (réseaux bi ou multi-partis) [Newmann2010, Albert,Barabasi1999, Bocaletti et al..2006], ou encore les hyper-réseaux, dans lesquels les liens relient des groupes de noeuds (réseaux non diadiques). Les processus dynamiques ayant lieu dans ce type des réseaux, les modèles de diffusion sur réseaux  ainsi que la dynamique de formation du réseau lui même ont aussi été largement étudiés cette dernière décennie [Barrat et al.2008].

 

Récemment plusieurs  évolutions ont eu lieu, introduisant des nouveaux concepts qui ouvrent la voie à des applications nouvelles ou à des changement d’approche des anciens problèmes,  apportant un nouvel éclairage. C’est le cas de la théorie des réseaux spatiaux , qui sont des réseaux plongés dans l’espace réel (souvent bi-dimensionnelle) de telle sorte que la distance entre nœuds du réseau est définie en tenant compte de la  métrique spatiale [Barthélemy 2011] , ce type des réseaux permet des applications fructueuses dans les problèmes de transport et urbanisme.

Un saut qualitatif dans la description des divers systèmes, est la notion de réseau de réseaux ou réseaux multicouches. Dans cet approche chaque couche est un réseau avec ses liens intra-couche qui sont à la fois couplées par des interactions inter-couche. Ainsi les processus ayant lieu sur une couche peuvent affecter dramatiquement la dynamique des autres, comme c’est le cas par exemple dans le couplage entre le réseau informatique et le réseau électrique [Buldyrev et al. 2010].

Un cas particulier de réseau multi-couches pour lequel la théorie générale est déjà bien avancée est celui des multiplexes. Dans ces réseaux chaque couche comporte les mêmes nœuds mais les liens sont différents d’une couche à l’autre, le couplage entre couches est dit “parallèle”, matérialisé simplement par le fait que si l’état d’un nœud change dans une couche, ce changement est transmis aux autres. Ce type est très utile pour  modéliser une société où les nœuds représentent les individus et chaque couche modélise les liens entre ces individus dans leurs différents espaces de la société (famille, travail, ville…) [Kivelä et al.].

 

La disponibilité de nouveaux jeux de données temporels a stimulé le développement de nouvelles méthodes d’analyse des réseaux dynamiques. De plus en plus de travaux sur les systèmes complexes cherchent ainsi à caractériser la dynamique de l’articulation entre le niveau local et global. Celle-ci dépend de la nature des relations entre les entités qui les composent, ce qui oriente la méthodologie adoptée.

 

Dans le cas où ces relations sont de l’ordre d’une intensité de co-présence (ex. co-occurrence de termes dans la littérature scientifique, co-activation de protéines, etc.) des méthodes de suivi d’évolution de communautés ont été proposées (Palla et al. 2005, Aynaud et al. 2013) et développées dans plusieurs domaines d’application comme par exemple les groupes sociaux (Palla et al. 2007) ou la scientométrie (Chavalarias & Cointet 2013). Dans ce cas, les réseaux dynamiques sont pensés comme une extension des réseaux statiques, chaque instant de l’évolution du réseau correspondant à un réseau statique pouvant être étudié avec les outils classiques de l’analyse de réseaux. Dans ce contexte, les liens du réseau correspondent à des relations, persistantes dans le temps.

 

Certains types de données issues du web et des dispositifs sociotechniques (ex. réseaux sociaux) a conduit à s’intéresser à des données de type interactionnelles. Dans ce contexte, les relations entre entités sont instantanées (ou de durée très courte par rapport à la période d’étude). Dans ce cas, la notion de réseau à un instant donné n’est généralement pas pertinente et les formalismes et méthodes définis sur les réseaux statiques ne sont pas trivialement généralisables. De nouveaux formalismes et de nouvelles approches ont été développés pour travailler sur ce nouveau type d’objets (temporal networks, flots de liens, time varying networks, etc.) [Gauvin et al.2014].

 

La modélisation par réseaux complexes a ainsi connu un engouement considérable au sein de la communauté scientifique avec plusieurs applications notoires ces dernières années dans des domaines aussi variés que l’épidémiologie, la sociologie, l’économie, la biologie (voir les exemple en  annexe de ce chapitre), certaines méthodes proposées ces dernières années étant devenues des standards de l’analyse de données.

2. Grandes questions et défis

 

2.1 Incomplétude des données

 

La non-exhaustivité des données peut provenir de différents facteurs : coût de rassemblement, soucis de confidentialité, stratégie de rétention des possesseurs de données (capitalisation de l’information). Une partie de ce défi peut être aujourd’hui surmontée par des protocoles innovants de collecte de données. Notamment, l’obstacle des coûts ou de faisabilité peut être réduit par le recours à des protocoles qui s’appuient sur des dispositifs d’information embarqués, comme les téléphones portables, les dispositifs munis de puces RFID (type navigo/oyster), des logiciels proposés à l’utilisateur, etc.

Ces difficultés sont encore augmentées lorsque l’on souhaite faire un recueil longitudinal (encore appelé dynamique, ou diachronique) de données. La dynamique est par exemple cruciale pour étudier un réseau de déplacement de population (qui montre des cycles journaliers et saisonniers) et sa réaction aux incidents, ou bien l’infrastructure internet (le réseau de routeurs et serveurs) dont la dynamique est plus rapide que le processus de mesure.

Ces difficultés de collecte peuvent induire une description lacunaire des réseaux. Plusieurs voies existent pour travailler avec des données lacunaires :

utiliser des modèles artificiels pour compléter les trous ;

s’appuyer sur d’autres sources pour combler les manques (par exemple, utiliser des méthodes statistiques et démographiques pour estimer les données manquantes)

prendre en compte, dès la mesure, un indicateur de confiance sur toutes les données (par exemple la probabilité qu’un lien dans les données existe réellement dans le système mesuré, ou bien un intervalle de confiance sur le poids d’un nœud). Puis adapter les méthodes à ce type de données.

 

 

2.2 Méthodes contrôlées de changement d’échelle dans les réseaux.

Pour des modèles basés sur les données, comme dans l’étude des phénomènes de contagion, on doit souvent faire appel aux données issues de sources très diverses avec des structures et résolutions très différentes, il est alors nécessaire de développer un formalisme contrôlé permettant d’identifier des échelles d’agrégation intermédiaires qui soient à la fois optimales pour décrire le phénomène, tout en restant tractables mathématiquement ou numériquement, et qui permettent l’identification des interactions dominantes, responsables des régularités observées. De la même façon pour les très grands réseaux, il est nécessaire de trouver des mécanismes d’agrégation itératifs contrôlés qui pourraient s’inspirer de la renormalisation en Physique, où à chaque étape on intègre les  informations aux petites échelles (par rapport à la taille caractéristique du système) en diminuant les degrés de liberté via une transformation du modèle.

 

2.3 Structure et hiérarchie

Morphogenèse du réseau

Plusieurs modèles de réseaux ont été développés en parallèle, permettant de capturer différentes propriétés structurelles des réseaux (cœur/périphérie, block model, communautés, homophilie/hétérophilie, embedding, etc.). Ils se basent sur des hypothèses concernant les principes générateurs de nouvelles connexions au niveau micro. Cependant, la plupart de ces travaux partent du principe que les noeuds du réseaux sont homogènes dans leur manière de créer des connections aux autres noeuds du réseau. Cette hypothèse d’homogénéité n’est pas vérifiée dans de nombreux systèmes naturels et artificiels, notamment en sciences sociales ou en écologie. Un des enjeux futurs de la modélisation des réseaux complexes est donc d’arriver à modéliser la relation entre hétérogénéité au niveau micro des processus de formation des liens et structure globale.

 

Structures hiérarchiques

La hiérarchie peut signifier simplement un ordre d’importance entre les nœuds. Ordonner les nœuds permet d’accorder plus d’importance à certains noeuds afin de les protéger (vaccination, sécurité, renforcement), les contrôler et surveiller, ou les mesurer.  En théorie des réseaux il s’agit en général, d’une caractérisation topologique.

Mais de façon plus importante, parler de hiérarchie c’est parler de structures et sous-structures telles qu’elles peuvent être identifiées par des dendrogrammes ou des algorithmes de détection de communautés hiérarchiques. Comprendre cette organisation multi-échelles est crucial pour comprendre à la fois comment les structures à grande échelle émergent à partir des interactions locales (de bas en haut) et réciproquement comment comment la structure globales influe sur les entités locales.

 

Beaucoup de méthodes fructueuses pour hiérarchiser les noeuds ou détecter des structures dans un réseau sont déjà bien intégrés dans la communauté et diffusés dans les divers domaines applicatifs: petit mondes et navigabilité, mesures de centralité, détection de communautés (cf. “Community detection in graphs”, Santo Fortunato, 2010).  Il est maintenant nécessaire de revisiter ces questions dans deux directions, d’une part pour les réseaux dynamiques, il faut comprendre comment la dynamique affecte la restructuration des communautés et d’autre part,  les outils de hiérarchisation des noeuds ou des groupes des noeuds doivent être adaptés aux réseaux multicouches en général.

 

2.4 Mesures et caractérisation des réseaux dynamiques

 

La dynamique des réseaux peut s’exprimer de différentes façons non nécessairement exclusives :

la dynamique dans les réseaux et sous-réseaux telle que la variation des flux portés par la connectivité du réseau,

la dynamique des réseaux eux-mêmes, correspondant à la variation de la topologie/structure du réseau.

l’évolution des noeuds du réseaux lorsque ceux-ci sont des entités elles-mêmes complexes (ex. individus, cellules, etc.)

Dans certains cas, il y a coévolution entre les noeuds et les liens qu’ils forment entre eux, c’est-à-dire un mécanisme de différenciation interindividuelle concomitante à la formation du réseau (individus, cellules).

Mesure de la dynamique

Il s’agit ici de pouvoir étudier et qualifier la trajectoire de l’évolution du réseau, avec la mise en évidence de certains comportements caractéristiques tels que des dynamiques lentes ou rapides ou encore des phénomènes de bifurcations.

L’inscription de cette dynamique dans le réseau conduit à des constructions morphologiques. L’étude de ce phénomène peut s’effectuer sous différents angles :

la genèse de l’apparition de ces formes (aspect stigmergique du processus : lien important entre la forme en construction et la dynamique),

la détection de formes localisées dans le réseau (réseaux sociaux, …) et la dynamique des processus d’auto-organisation qui en sont à l’origine,

La mesure de l’influence du réseau global sur les processus émergents locaux.

Ces différents éléments amènent des questions telles que :

le réseau conserve-t-il les mêmes caractéristiques au cours de sa constitution ?

existe-t-il des étapes structurelles au cours de sa dynamique ?

Avec quelle granularité caractériser la dynamique ?  stabilité des structures, des rôles, des positions, etc. (échelle trop fine : instable. échelle trop large: perte d’information.)

 

Propriétés et maîtrise du réseau dans sa dynamique

 

La manipulation des grands réseaux en tant qu’outils de modélisation appelle à identifier des propriétés et des méthodes de contrôle ou de régulation.

On peut s’intéresser à l’expression de lois de conservation sur les réseaux en tant que structures discrètes et notamment transposer ces lois de manière opératoire sur des très grands réseaux. A l’opposé, on peut être amené à modéliser des effets dissipatifs.

 

Étudier la dynamique, c’est implicitement étudier la robustesse et la résilience. Comment des perturbations introduites sur le réseau modifient les trajectoires de diffusion ?

 

Enfin, un problème important est celui du contrôle des trajectoires par des actions locales sur le réseau, et des dynamique multi-échelle. Comment une modification à une échelle donnée (par exemple au niveau méso : application d’une politique publique) se répercute sur les autres échelles ?

 

 

Dynamiques multi-niveaux

 

Alors que l’analyse de la dynamique des réseaux est devenue un domaine très dynamique,  les développements futurs devront prendre en compte le fait que le formalisme de la modélisation réseaux s’est développé principalement sur une approche strictement relationnelle (et homogène en termes de noeuds). Celui-ci doit être adapté de manière à s’approcher des systèmes réels aux structures plus complexes qui sont composé de plusieurs sous-réseaux en co-évolution : les réseaux multi-couches (dont multi-niveaux et multiplex).

Par exemple en sociologie, un des enjeux est de comprendre l’articulation du niveau méso et macro qui constitue une caractérisation importante l’institution, comment co-évoluent les comportements et des structures. Il serait alors envisageable d’étendre les formalismes statistiques à la Snijders au multi-niveau pour constituer une base pour de nouveaux modèles de coévolution des niveaux.

 

Ce type d’approche ouvrira de nouvelles perspectives sur l’analyse des mobilités (trajectoires individuelles) au sein de structures multi-niveau.

 

Coevolution noeuds/topologie

 

Dans plusieurs domaines, les réseaux complexes sont utilisés pour modéliser des interactions entre entités qui sont elles-même complexes et sont dotées de capacités d’évolution, y compris dans leur manière de constituer de nouveaux liens ou d’en supprimer. Ceci introduit un bouclage entre morphogenèse d’un réseau et différenciation des types de noeuds.

 

Dans ce cas, les nœuds du réseau sont caractérisés par un ensemble de variables qui décrivent son type, ses capacités à modifier son réseau local et les possibilités d’évolution du type lui-même en fonction de son environnement. On appelle ce type de dynamique co-évolution des nœuds et des liens. Ce couplage est nécessaire pour modéliser des situations dans lesquelles les temps caractéristiques de la dynamique des nœuds et de l’évolution topologique sont comparables comme par exemple dans le cas des dynamiques culturelle (ex. dynamique d’opinions, Gracia-Lázaro et al. 2004 ; dynamique de préférences – Chavalarias 2006).

 

L’un des enjeux des prochaines années consistera à comprendre ce lien entre les structures du réseau et les processus de différenciation des nœuds. La validation de ces modèles pourra tirer partie des nouvelles opportunités offertes par les masses de données issues du web (co-évolution des réseaux de chercheurs, co-évolution des réseaux sociaux, etc.) ou des nouveaux protocoles d’expérimentation en ligne à grande échelle.

Plongement des réseaux (network embedding)

 

L’objectif du network embedding est de projeter des réseaux dans des espaces de dimension inférieure ce qui permet d’utiliser des méthodes classiques de fouille de données. Cependant, la projection doit pouvoir se faire de manière efficace et préserver des propriétés des réseaux originaux afin que les calculs effectués en dimension inférieure puissent être retransférés sur les réseaux.

Plusieurs résultats montrent que malgré la perte d’information liée à la projection, il est possible d’obtenir de meilleur résultats en dimension inférieure (par exemple pour la prédiction de lien ou la visualisation [Tang 2015]), ceci pouvant être lié au fait que la projection ne conserve que les facteurs dominants et élimine le bruit.

Les techniques simples préservent les proximités locales, deux sommets proches dans le réseau restent proches dans la projection, mais les techniques plus avancées essayent aussi de préserver des propriétés plus globales (par exemple, toutes les distances) ou complexes (par exemple, la structure communautaire).

3 Impacts societaux

La notion de réseaux s’est démocratisée en une décennie avec notamment l’avènement des réseaux sociaux. Même si ces nouvelles plateformes ne constituent en premier abord, qu’un

 

Les outils et méthodes de la science des réseaux sont déjà largement utilisés en dehors du monde académique, que ce soit par les acteurs du numérique (algorithmes de recommandation, PageRank), ou dans d’autres domaines (Ref ? Supply chain networks ?).

 

Le grand public est lui aussi de plus en plus souvent confronté aux réseaux complexes, en particulier par le biais de visualisations. Dans les médias d’une part, en complément aux représentations de type cartes ou graphiques comme support d’articles, en particulier dans le cadre du journalisme de données. Mais aussi à travers des plateformes et outils que cherchent à donner aux utilisateurs une meilleure vision, un meilleur contrôle de leurs données ou de leur position dans un réseau social, comme par exemple la plateforme de réseautage professionnel Linkedin, offrant une visualisation du réseau égo-centré à ses utilisateurs, ou indiquant la distance (degrés de séparation) dans le réseau entre l’utilisateur et les autres membres. Dans ce domaine une vulgarisation est nécessaire pour bien faire comprendre, par exemple comment la théorie des réseaux peut s’utiliser pour une exploitation automatique des données personnels ou même des métadonnées rendant les activités humaines traçables bien au delà des limites dont le public a conscience aujourd’hui.

 

Le champ des réseaux complexes pourra être amené à jouer dans le futur un rôle primordial dans la société, par sa capacité à faire face à des bouleversements, tels que la possible réorganisation de pans de la société suite à la désintermédiation, ou la démocratisation de nouvelles technologies de décentralisation des services comme les blockchains.

 

Le développement de macroscopes, plateformes et outils pour l’exploration et la compréhension de systèmes organisés complexes multi-niveaux (ex. Politoscope.org, Gargantext.org) qui ont été rendu possible par les récents développement des outils théoriques d’analyse des réseaux complexes, pourront être le moteur de changements sociétaux important, par la capacité qu’ils offrent aux acteurs de la société d’acquérir une vision de celle-ci, et de la place qu’ils occupent dans son organisation.

 

References

[RB2008] M. Rosvall, C.T. Bergstrom. Maps of random walks on complex networks reveal community structure. PNAS 2008 105 (4) 1118-1123.

[BGLL2008]VD Blondel, JL Guillaume, R Lambiotte, E Lefebvre. Fast unfolding of communities in large networks. Journal of Statistical Mechanics: Theory and Experiment 2008 (10), P10008.

[Fortunato2010] S Fortunato. Community detection in graphs. Physics reports, 2010, Elsevier.

Chavalarias, David (2006). ‘Metamimetic Games: Modeling Metadynamics in Social Cognition’. Journal of Artificial Societies and Social Simulation 9(2)5 <http://jasss.soc.surrey.ac.uk/9/2/5.html>.

Aynaud, T., Fleury, E., Guillaume, J. L., & Wang, Q. (2013). Communities in evolving networks: definitions, detection, and analysis techniques. In Dynamics On and Of Complex Networks, Volume 2 (pp. 159-200). Springer New York.

[May1972] Will a large complex system be stable? RM May, Nature, 238, 5364, p413-414,(1972)

[Newmann2010] Networks, an Introduction, Newmann M.J.E. Oxford University Press, 2010

[Albert,Barabasi1999]Statistical mechanics of complex networks. R Albert, AL Barabasi, Rev. of Mod. Phys. 74, 47-97 (1999).

[Bocaletti et al.2006] Complex Networks: Structure and Dynamics S. Boccaletti, V. Latora, Y. Moreno, M. Chavez, D.U. Hwang. “”, Physics Reports 42 4(2006), pp 175-308

[Barrat et al.2008] Dynamical processes on complex networks, A Barrat, M Barthelemy, A Vespignani, Cambridge University Press, 2008.

[Colizza et al. 2006] The role of the airline transportation network in the prediction and predictability of global epidemics. Vittoria Colizza, Alain Barrat, Marc Barthélemy, Alessandro Vespignani, PNAS

103, Numéro 7, Pages 2015-2020;

[Pastor-Satorras, Vespignani 2001) Epidemic spreading in scale-free networks

R Pastor-Satorras, A Vespignani, Phys.Rev.Lett. 86 (14), 3200

 

[Barthélemy 2011]  Spatial networks, M. Barthélemy. Physics Reports, Vol.499, Issues 1–3, Pages 1-102 (February 2011).

[Buldyrev et al. 2010] Catastrophic cascade of failures in interdependent networks

SV Buldyrev, R Parshani, G Paul, HE Stanley, S Havlin – Nature, 464, 7291,p1025-1028 (2010).

[Kivelä et al.] Multilayer networks, Mikko Kivelä, Alex Arenas, Marc Barthelemy, James P. Gleeson, Yamir Moreno, Mason A. Porter, J Complex Netw (2014) 2 (3): 203-271.

DOI:https://doi.org/10.1093/comnet/cnu016

[Gauvin et al. 2014] Detecting the community structure and activity patterns of temporal networks: a non-negative tensor factorization approach, L. Gauvin, A. Panisson, C. Cattuto

PLoS ONE 9(1), e86028 (2014)

[Menezes & Roth 2014] Menezes, T., Roth, C., 2015. Symbolic regression of generative network models. Scientific Reports 4. doi:10.1038/srep06284

[Hausmann et al.] The Atlas of Economic Complexity, Mapping Paths to Prosperity

Ricardo Hausmann, César A. Hidalgo, Sebastián Bustos, Michele Coscia, Alexander Simoes and Muhammed A. Yildirim, The MIT Press (2014). https://www.hks.harvard.edu/centers/cid/publications/books/atlas

[Gracia Lázaro, et al.] Coevolutionary network approach to cultural dynamics controlled by intolerance. Carlos Gracia-Lázaro, Fernando Quijandría, Laura Hernández, Luis Mario Floría, and Yamir Moreno, Phys.Rev. E 84, 067101 (2011)

 

Brailly, J. (2016), Dynamics of networks in trade fairs—A multilevel relational approach to the cooperation among competitors, Journal of Economic Geography, 16: 1279–1301

Brailly, J. and Lazega, E., 2012. Diversité des approches de la modélisation multiniveaux en analyses de réseaux sociaux et organisationnels. Mathématiques et Sciences Sociales 198, 5-32

Breiger, R. L. (1974), “The Duality of Persons and Groups”, Social Forces, 53: 181-190

Chavalarias, D., Cointet, J.-P., 2013. Phylomemetic patterns in science evolution—the rise and fall of scientific fields. PloS one 8, e54847.

Fararo, T. J. and Doreian, P. (1980), Tripartite structural analysis: generalizing the Breiger Wilson formalism, Social Networks, 6:141-175.

Anna Goldenberg, Alice X. Zheng, Stephen E. Fienberg and Edoardo M. Airoldi, “A Survey of Statistical Network Models”, 2009

Grossetti, Michel, 2011, « L’espace à trois dimensions des phénomènes sociaux. Echelles d’action et d’analyse », SociologieS, http://sociologies.revues.org/index3466.html

Santo Fortunato, “Community detection in graphs”, 2010

  1. da F. Costa, F. A. Rodrigues, G. Travieso and P. R. Villas Boas, “Characterization of Complex Networks: A Survey of measurements”, Advances in Physics 57, 2007

Lazega, E., Jourda, M.-Th., Mounier, L. & Stofer, R. (2008), “Catching up with big fish in the big pond? Multi-level network analysis through linked design”, Social Networks, 30:157-176.

Lazega, E., Mounier, L., Snijders, T.A.B. & Tubaro, P. (2012), “Norms, status and the dynamics of advice networks”, Social Networks, 34:323-332

Lazega, E., S.Sapulete, L.Mounier (2011), “Structural stability regardless of membership turnover? The added value of blockmodelling in the analysis of network evolution”, Quality & Quantity, 45:129-144

Snijders, T. A. B. (1996), Stochastic Actor-Oriented Models for Network Change, Journal of Mathematical Sociology, 21, 149-172.

Snijders, T. A. B. (2005). “Models for Longitudinal Network Data”. Chapter 11 in Peter Carrington, John Scott and Stanley Wasserman (eds.). Models and Methods in Social Network Analysis. New York: Cambridge University Press.

Snijders, Tom A.B. (2016). The Multiple Flavours of Multilevel Issues for Networks. In Lazega, E. and Tom A.B. Snijders (eds.), Multilevel Network Analysis for the Social Sciences, Cham: Springer, p. 15-46.

Mitchell, J. C. (Ed.). (1969). Social networks in urban situations: Analyses of personal relationships in Central African towns. Manchester University Press.

Moreno, J. L., & Jennings, H. H. (1934). Who shall survive? (Vol. 58). Washington, DC: Nervous and mental disease publishing company.

Tang, Jian, et al. “Line: Large-scale information network embedding.” Proceedings of the 24th International Conference on World Wide Web. ACM, 2015.

Wang, P., Robins, G., Pattison, P., & Lazega, E. (2013). Exponential random graph models for multilevel networks. Social Networks 35(1), 96-115.

Wasserman, S. & Iacobucci, D. (1991). “Statistical modeling of one-mode and two-mode networks: Simultaneous analysis of graphs and bipartite graphs.” British Journal of Mathematical and Statistical Psychology, 44, 13–44.

White, H. C. (1970), Chains of Opportunity : System Models of Mobility in Organizations, Cambridge, ma, Harvard University Press.

 

 

 

Annexe : exemples des réussite de l’application de la théorie des réseaux

Sans être exhaustifs, voici quelques exemples de développements illustrant des avancées théoriques et méthodologiques récentes.

 

Emergence de nouveaux outils pour la sphère académique, industrielle et citoyenne

L’analyse des réseaux est en train de changer les pratiques dans un grand nombre de domaines : éducation, management, santé, etc.

A développer : mentionner la diffusion d’outils tels que Gephi, Cortext, Gargantext, Sci², etc.)

 

Modeles épidémiologiques et prescriptions de politiques de santé

L’adoption des modèles de réseau pour décrire les interactions entre les individus a permis d’important progrès dans la compréhension des mécanismes de propagation d’épidémies. Après l’étude des modèles théoriques de diffusion sur des réseaux ayant différentes topologies (Vespignani2001), des modèles épidémiologiques ont intégré des réseaux de transport modernes pour décrire la diffusion des épidémies à large échelle. En particulier, un modèle épidémiologique stochastique intégrant la base de donnée de l’Association Internationale de Transport Aérien (IATA) et un recensement de population a permis de déterminer le rôle du réseau aérien dans le pattern de diffusion des maladies émergentes. La pertinence de ces scénarios prédictifs a été évaluée par une analyse a posteriori de cas réels (Colizza et al. 2006).

 

Réseaux et controverses : de l’effet des normes sur la dynamique des structures

Dans une enquête sur le fonctionnement du Tribunal de Commerce de Paris, une institution judiciaire consulaire, dont les juges sont des hommes et des femmes d’affaires, les sociologues observent les effets d’une controverse normative sur l’évolution, au sein de l’organisation, du turnover relationnel entre les juges et sur la structure relationnelle qui en résulte. Les données empiriques issues d’une enquête en longitudinal (mesures en 2000, 2002 et 2005) concernent 228 juges interviewés sur leurs relations de conseil à l’intérieur du tribunal et sur leur raisonnement et manière de prendre des décisions de justice, en particulier sur leur degré de punitivité dans des affaires de concurrence déloyale et d’attribution de dommages et intérêts. Une dynamique cyclique de centralisation – décentralisation – recentralisation du réseau est d’abord mise en évidence et expliquée (Lazega, Sapulete et Mounier, 2011). Des hypothèses sont ensuite testées sur l’effet des normes sur l’évolution de la structure et sur la dynamique de l’apprentissage intra-institutionnel (Lazega, Mounier, Snijders et Tubaro, 2009) à l’aide du formalisme du modèle Siena (Snijders, 2001, 2005). Les résultats suggèrent que les normes sociales peuvent exercer des effets différenciés sur les comportements, mais seulement au travers d’effets intermédiaires de la hiérarchie des statuts sociaux. D’une manière générale, le simple fait de partager les mêmes normes de punitivité n’est pas suffisant pour rapprocher les acteurs sociaux. Cette approche de l’apprentissage par alignement épistémique et normatif dans les controverses procure donc des éléments nouveaux dans l’étude des relations entre normes, structure et comportement.

 

Dynamique des réseaux multiniveaux pour la coopération entre concurrents dans les foires commerciales

Les foires commerciales mobilisent plusieurs niveaux d’action collective, en particulier individuelles et organisationnelles. Cependant, le caractère multiniveau de ces événements est souvent trop simplifié ou ignoré dans la littérature. Julien Brailly (2016) modélise les réseaux à niveaux multiples au fil du temps à l’aide de modèles de graphiques aléatoires exponentiels à plusieurs niveaux pour explorer la manière dont la proximité temporelle entre les représentants des ventes lors des foires commerciales facilite la coopération entre concurrents. Sont mises ainsi en évidence des configurations relationnelles durables à plusieurs niveaux qui façonnent la structure économique d’une industrie et peuvent introduire des asymétries qui dépendent de la taille des entreprises. On démontre que ces asymétries contribuent à l’augmentation des inégalités socioéconomiques entre les acteurs du marché.

 

Détection de communautés dans le cas d’un partitionnement statique

L’une des propriétés les plus importantes des réseaux complexes est leur organisation en groupes, ou communautés, qui correspondent généralement à des groupes des noeuds ayant une connexion intragroupe plus importante qu’avec le reste du réseau.  L’extraction automatique de tels groupes, ou détection de communautés, est un problème qui a été remis sur le devant de la scène au début des années 2000. Il peut se formaliser de différentes manières : partitionnement (une et une seule communauté par sommet) ou recouvrement (chaque sommet peut appartenir à plusieurs communautés), être étudié de manière locale ou globale, considérer des réseaux statiques ou dynamiques, simples ou multi-niveaux, etc. L’objectif est alors de proposer des algorithmes qui, étant donné un réseau, vont tenter d’en extraire les groupes les plus pertinents. Bien que de nombreux problèmes soient toujours ouverts, celui du partitionnement a connu plusieurs succès à la fin des années 2000 qui ont indiscutablement fait entrer certaines des méthodes proposées (ex. [BGLL2008] et Infomap [RB2008]) parmis les standards de l’analyse des réseaux. Celles-ci sont utilisées dans de très nombreux domaines [Fortunato2010] et logiciels (ex. NetworkX, Gephi, Tulip).

 

Complexité économique

La notion de réseau commence à percer en économie, où elle introduit un changement de paradigme. D’abord car cette notion permet le développement des modèles qui vont au delà de l’approche champ moyen dans lequel un “agent représentatif”, purement rationnel et disposant d’une information complète est supposé décrire le comportement du système. Ensuite cette approche permet de mettre en évidence la structure d’interaction entre les acteurs économiques, laissant apparaître des patterns caractéristiques. Un exemple de cette modification d’approche d’un problème économique est la modélisation du commerce international par un réseau biparti des pays producteurs et des produits qui permet une classification des économies des pays étudiés plus informative que celle basée sur le volume total des échanges de chaque pays. Cette approche donne une indication des pays ou régions ou des acquisitions et/ou innovations technologiques qui peuvent être espérées. (altas_complexity).