Dynamiques stochastiques multi-échelles, instabilités et robustesse (2008)

Dynamiques stochastiques multi-échelles, instabilités et robustesse

Rapporteur : Daniel Schertzer (Météo-France).

Contributeurs : Pierre Baudot (Inaf CNRS), Hughes Berry (INRIA), François Daviaud (CEA), Bérengère Dubrulle (CEA), Patrick Flandrin (CNRS ENS Lyon), Cédric Gaucherel (INRA), Michael Ghil (ENS Paris), Gabriel Lang (AGRP Paris Tech), Eric Simonet (CNRS).

Mots clés : systèmes dynamiques aléatoires, non-stationnarité, dépendance de longue/courte portée, interactions locales/non locales, échelonnage discret/continu, cascades, analyses par ondelettes/multifractales, modélisation multi-échelles et agrégation/désagrégation, reconnaissance des motifs, dynamiques graphiques, distribution extrême et déviations importantes.
Introduction
Les structures hiérarchisées qui s’étendent sur une vaste gamme d’échelles spatio-temporelles sont omniprésentes en géosciences, en sciences de l’environnement, en physique, en biologie et dans les réseaux socio-économiques. Elles sont les structures fondamentales qui illustrent la complexité de notre univers en quatre dimensions. L’échelonnage, appelé également « scaling », est un puissant outil mathématique pour caractériser ces structures et en déduire des propriétés à différentes échelles, au lieu de considérer seulement des propriétés relatives à une échelle. Si la mise à l’échelle de temps ou d’espace a été étudiée dans de nombreuses disciplines, les analyses et les modélisations en quatre dimensions sont encore relativement peu utilisées, voire sous-développées, même si elles sont indispensables pour décrire, évaluer, comprendre, simuler et prédire les dynamiques sous-jacentes. Assez complémentaire de cette approche, la théorie sur les systèmes dynamiques aléatoires est aussi une excellente démarche pour comprendre les dynamiques multi-échelles. Cette théorie est susceptible de fournir des méthodes de généralisation intéressantes sur ce que nous avons appris sur les systèmes dynamiques déterministes, notamment dans le cas des bifurcations. D’autres domaines de recherche majeurs concernent les transitions de phase, les motifs et les comportements émergents résultant du passage à une échelle supérieure dans les domaines complexes en quatre dimensions.

Grands défis
1. Le paradigme de la cascade
2. Systèmes dynamiques aléatoires et bifurcations stochastiques
3. Transitions de phase, motifs et comportements émergents
4. Échelonnage spatio-temporel en physique et en biologie


1.2.1. Le paradigme de la cascade
Le concept sur les structures imbriquées à l’intérieur de structures plus grandes, elles-mêmes imbriquées dans des structures encore plus vastes, et ainsi de suite, le tout sur un grand nombre d’échelles spatio-temporelles, existe depuis longtemps en physique. Il figure, par exemple, dans l’ouvrage de Richardson (Weather Prediction by Numerical Processes, 1922) sous une présentation humoristique intitulée « Paradigme de la cascade ». Ce paradigme a été largement utilisé, au-delà de son contexte initial traitant des turbulences atmosphériques, dans les domaines de l’écologie, des théories financières et de la physique des hautes énergies. En général, un processus en cascade peut être compris comme une hiérarchie spatio-temporelle de structures où les interactions avec la structure mère sont, d’une certaine manière, similaires à celles avec ses structures filles. En physique stochastique multi-échelles, ce processus occupe une place prédominante, et c’est aussi le cas dans l’étude des systèmes complexes. En effet, chaque système complexe n’est autre qu’un système composé de ses propres répliques présentes à différentes échelles.

Les modèles en cascade ont été définis de façon progressive, tout particulièrement dans le cadre d’un échelonnage, c’est-à-dire quand les interactions filles sont une transcription rééchelonnée des interactions mères. Cette méthode a permis d’obtenir toute une série de résultats précis qui servent de puissante boîte à outils multifractale pour comprendre, analyser et simuler des champs extrêmement variables sur une vaste gamme d’échelles, au lieu d’une seule échelle donnée. L’adjectif multifractal traduit le fait que ces champs peuvent être compris comme une hiérarchie de fractales enchâssées à l’infini, par exemple, celles qui confirment les valeurs de ce champ en dépassant une valeur seuil donnée. Ces techniques ont été appliquées dans de nombreuses disciplines avec d’excellents résultats.

Un certain nombre de questions concernant les processus en cascade restent néanmoins ouvertes et concernent, entre autres, les classes d’universalité, les notions généralisées du terme échelle, les valeurs extrêmes, la prédictibilité et, de façon plus générale, leur rapport avec les systèmes dynamiques qu’ils soient déterministes (les équations de Navier-Stokes, par exemple) ou aléatoires (le sujet sera examiné dans le chapitre suivant). Il est sans doute important d’étudier plus en détail leurs rapports avec les transitions de phase, les motifs et les comportements émergents, également traités dans des chapitres séparés. Une attention toute particulière doit être portée aux analyses spatio-temporelles ou aux simulations, comme cela est souligné dans le dernier chapitre où la question générale de l’échelonnage spatio-temporel est abordée.


1.2.2. Systèmes dynamiques aléatoires et bifurcations stochastiques
Parallèlement à l’intérêt des mathématiciens pour les effets produits par le bruit dans les systèmes dynamiques, les physiciens ont également commencé à s’intéresser à ce sujet dans le cadre de travaux de laboratoire et de modélisation. L’influence du bruit sur les dynamiques à long terme a souvent été attribuée à des effets non locaux incompréhensibles et, à ce jour, aucune théorie générale n’existe à ce sujet. Dans ce contexte, L. Arnold et son « groupe de Brême » ont introduit une approche fort novatrice et prometteuse. Vers la fin des années 1980, ce groupe a développé de nouveaux concepts et outils pour aborder les systèmes dynamiques triviaux en association avec les processus stochastiques. La rapide croissance du champ des systèmes dynamiques aléatoires (SDA) fournit des concepts géométriques essentiels parfaitement adaptés et utiles dans le cadre de la modélisation stochastique.

Cette approche centrée sur la géométrie applique la théorie sur les mesures ergodiques de manière tout à fait ingénieuse. Au lieu de traiter un espace de phase S, elle étend cette notion à un faisceau de probabilités, S x espace de probabilité, où chaque fibre représente une source de bruit. Le bruit extérieur est paramétré dans le temps à travers un système préservant les mesures appelé « measure-preserving driving system ». Ce système « colle » simplement les fibres entre elles pour permettre de définir réellement la notion de circulation (cocycle). L’une des difficultés, présente aussi dans les cas de forçage non autonome (déterministes), est qu’il devient impossible de déterminer à l’avance et sans ambiguïté un attracteur indépendant du temps. Cette difficulté peut être surmontée grâce à l’application de la notion d’attracteurs à rétroaction. Cette rétroattraction traduit l’idée selon laquelle les mesures sont effectuées au moment (t) lors d’une expérimentation qui a commencé à un moment s<t dans un lointain passé. Nous pouvons alors observer l’« état invariant d’attraction » au moment t. Ces objets géométriques clairement définis peuvent être généralisés grâce à la stochasticité associée à un système et, dans ce cadre, sont appelés attracteurs aléatoires. Un tel objet invariant aléatoire décrit les statistiques figées au moment t si l’histoire de la variable a été « suffisamment » prise en compte, et si l’objet évolue dans le temps. Il codifie en particulier les phénomènes dynamiques liés à la synchronisation et à l’intermittence des trajectoires aléatoires.

Cette jeune théorie présente plusieurs grands défis mathématiques. Par ailleurs, une théorie plus complète sur les bifurcations stochastiques et les formes canoniques est en cours de développement. De fait, nous pouvons distinguer deux notions de bifurcation. La première est celle de bifurcation-P (P pour phénoménologique) qui correspond, grosso modo, à des changements topologiques de la fonction de densité de probabilité (FDP). La seconde est la notion de bifurcation-D (D pour dynamique) où l’on considère une bifurcation dans le spectre de Lyapunov associée à une mesure invariante de Markov. En d’autres termes, nous cherchons une bifurcation d’une mesure invariante comme nous cherchons la stabilité d’un point fixe dans un système dynamique autonome déterministe. Les bifurcations-D sont en effet utilisées pour définir le concept de robustesse stochastique à travers la notion d’équivalence stochastique. Ces deux types de bifurcations peuvent parfois, mais pas toujours, être en relation, et leur lien n’est pas encore établi. Bien que la théorie de la forme stochastique soit considérée comme plus étoffée que la théorie de la forme déterministe, elle reste incomplète et plus difficile à élaborer. Il va sans dire que la théorie de la bifurcation pourrait être appliquée aux équations aux dérivées partielles (EDP) tout en tenant compte que le fait de prouver l’existence d’un attracteur aléatoire puisse paraître fort problématique.


1.2.3. Transitions de phase, motifs et comportements émergents
Les transitions de phase sont généralement associées à l’émergence de motifs et de comportements collectifs non triviaux, en raison, par exemple, d’une divergence de longueur de corrélation. Au-delà de l’exemple classique des systèmes vitreux, ces caractéristiques ont été récemment observées dans les flux de cisaillement dans lesquels la transition du stade laminaire au stade turbulent se produit de manière discontinue par une croissance graduelle du nombre de Reynolds. Dans ce cas, le paramètre d’ordre est la fraction du volume occupée par la turbulence, si celle-ci s’organise lentement en mode de bandes, avec une longueur d’onde importante par rapport à n’importe quelle taille caractéristique du système.

Une transition similaire semble se produire dans la dynamique corticale lorsque les expérimentateurs accentuent le forçage du flux sensoriel, en utilisant des mesures spectrales ou informationnelles comme paramètre d’ordre. Lorsque le processus neuronal est soumis à une simple impulsion visuelle, il est presque linéaire, et l’activité de la population présente des motifs blob localisés. En revanche, s’il est exposé à des stimuli plus informatifs et réalistes, le processus neuronal semble hautement non linéaire, intégrant l’impulsion sur de vastes échelles spatiales (interaction autour d’un centre) et les motifs de population deviennent plus complexes et spatialement distribués.

Le défi consiste ici à élaborer un modèle stochastique simple pouvant prendre en compte les structures émergentes générées par la dynamique et leur dépendance au forçage. Un objectif plus essentiel à long terme est de saisir les dynamiques des flux vitreux et turbulents à l’aide de ce formalisme.

Une nouvelle approche consiste à considérer une population d’agents ayant leur propre dynamique et à caractériser leur comportement collectif à différentes échelles d’observation par agrégation progressive.

La manière la plus simple d’agréger des agents est d’en ajouter un nombre croissant de ces agents. S’ils sont distribués de façon identique et si les variables aléatoires sont indépendantes, c’est la loi des grands nombres et le théorème central limite qui s’appliquent, et l’évolution collective qui en résulte est analogue à l’évolution individuelle. Le résultat reste inchangé si le niveau de dépendance est faible ; ce serait l’équivalent de la phase laminaire. La nature du comportement collectif évolue parallèlement à l’augmentation de la dépendance spatiale (taux de convergence plus faible, processus de limites différentes). En modifiant la gamme des interactions, il devient possible d’induire une transition de phase.

Une autre forme de transition peut être observée si l’on tient compte des effets non linéaires dans le processus d’agrégation. Dans ce cas, le processus qui en résulte peut être une dépendance de courte portée ou de longue portée, même si les dynamiques propres à l’individu sont simples (dépendance auto-régressive de courte portée dans le temps et dans l’espace).

Un premier travail consiste à développer ces méthodes d’agrégation pour les modèles individuels simples et d’étudier l’effet conjoint de la dépendance et du processus d’agrégation. Les exemples d’application comprennent des problèmes de géophysique, d’hydrologie, d’hydrographie, de biologie intégrative et de sciences cognitives.


1.2.4. Échelonnage spatio-temporel en physique et en biologie
1.2.4.1. Arrière-plan empirique
Les systèmes présentant une hiérarchie de structures à une vaste gamme d’échelles spatio-temporelles sont presque omniprésents en physique et en biologie.

En géosciences, les « diagrammes de Stommel » qui établissent un rapport entre la durée de vie d’une structure et sa taille (habituellement représenté par les graphiques log-log) couvrent plusieurs ordres de grandeur, mais il nous manque toujours une explication satisfaisante de cet état de fait.

En biologie, la métagénomique a été récemment développée pour explorer la biodiversité et l’évolution microbienne à partir des déchets urbains afin d’améliorer les connaissances sur « l’arbre de vie », mais nous ne disposons toujours pas d’évaluations fiables de la structure temporelle.

Dans le domaine des réseaux informatiques et sociaux, le Web est l’exemple le mieux connu, mais des réseaux à échelle invariante et des réseaux de petit monde sont également présents partout ; dans ce cas, les chercheurs ont commencé à étudier les aspects temporels de ces réseaux, mais la relation entre l’évolution dans le temps et la structure spatiale requiert une plus grande attention.
1.2.4.2. État présent
a) L’hypothèse de la turbulence gelée de Taylor (1935), appliquée notamment en hydrologie, est probablement le plus simple passage de l’échelonnage temporel à l’échelonnage spatial. Cela est possible si l’on suppose que le système est advecté d’une vitesse caractéristique.

b) Dans d’autres cas, la relation entre l’échelonnage spatial et l’échelonnage temporel est moins évidente. Comme cela a déjà été souligné, tel est le cas des réseaux informatiques : jusqu’à présent, la topologie des réseaux (espace) et le trafic des informations (temps) ont été étudiés séparément. Or, la morphogenèse est un domaine de recherche qui requiert le développement d’analyses de l’échelonnage spatio-temporel.

c) Plus récemment, la comparaison de l’échelonnage temporel par opposition à l’échelonnage spatial a été utilisée pour déterminer un exposant d‘anisotropie (ou exposant dynamique) pour l’échelonnage spatio-temporel.
1.2.4.3. Quel est l’enjeu ?
a) Pourquoi devons-nous réaliser des analyses/modélisations spatio-temporelles ?
En principe, il est impossible de comprendre les dynamiques sans considérer les facteurs espace et temps. Par exemple, si de précédentes études sur les chromosomes ont été conduites uniquement sur les positions ADN 1D, les analyses à partir d’un échelonnage en 4D sont indispensables pour comprendre la relation entre la structure chromosomique et le processus de transcription.

b) Analyses des données
Nous avons besoin de nouvelles méthodologies :

  • pour réaliser des analyses conjointes multi-échelles spatio-temporelles pour les les explorations comme pour les estimations des paramètres et des incertitudes,
  • pour extraire des informations de données rares et hétérogènes,
  • pour l’assimilation de données en 4D prenant davantage en compte la variabilité multi-échelles des champs observés,
  • pour les modèles dynamiques lors de l’exploration des données.

c) Modélisations et simulations
Nous devons également développer de nouvelles méthodologies :

  • pour sélectionner un espace de représentation approprié (ondelettes, par exemple),
  • pour définir des générateurs économes et efficaces,
  • pour mettre en œuvre des paramétrages stochastiques à une échelle de maillage inférieure.

 

 

Épistémologie formelle, expérimentation, apprentissage automatique

Épistémologie formelle, expérimentation, apprentissage automatique

Rapporteur : Nicolas Brodu (INRIA – Rennes). Contributeurs : Paul Bourgine (CREA, École polytechnique), Nicolas Brodu (INRIA – Rennes), Guillaume Deffuant (CEMAGREF), Zoi Kapoula (CNRS), Jean-Pierre Müller (CIRAD), Nadine Peyreiras (CNRS). Mots clés : méthodologie, outils, informatique, expérimentation, modélisation, validation, apprentissage automatique, épistémologie, visualisation, interaction, entité fonctionnelle, formalisation, reconstruction phénoménologique.

Introduction

Le monde moderne, notamment dans le domaine de la médecine, de l’environnement et de la sphère sociale, est de plus en plus dépendant de et confronté à de vastes systèmes constitués d’un grand nombre d’entités en interaction. Les données collectées à partir de ces systèmes, généralement à très grande échelle, représentent des défis considérables en termes d’efforts à déployer pour la reconstruction des dynamiques multi-échelles et leurs diverses influences descendantes et ascendantes. Ce travail requiert non seulement l’appui de l’épistémologie formelle et des calculs massifs, mais aussi une généralisation dite « science ouverte » inspirée par la communauté de la physique des hautes énergies. La compréhension d’un phénomène consiste à découvrir une approche suffisamment précise et concise pour expliquer sa structure et son comportement, pouvant être comprise par l’esprit humain. Dans la situation actuelle, l’intuition humaine se trouve souvent désemparée pour traiter les subtilités intrinsèques et les propriétés des systèmes complexes. En théorie, une technique formelle optimale permet d’obtenir des concepts candidats et des liens pouvant servir de base aux expérimentations menées par l’être humain. Si les formes optimales découvertes grâce aux méthodes théoriques s’opposent aux concepts optimaux conçus par le travail cérébral humain, la raison de cette divergence fera elle-même l’objet de recherches complémentaires. Pour comprendre les systèmes complexes, il faut définir et mettre en œuvre une épistémologie formelle et appliquée spécifique. De nouveaux outils et méthodes doivent être développés pour assister le travail de conception et d’interprétation des expérimentations en vue de :

  • identifier les entités pertinentes à une échelle spatio-temporelle donnée,
  • caractériser les interactions entre les entités,
  • évaluer et formaliser le comportement du système.

La stratégie allant de la conception d’une expérimentation jusqu’aux analyses postérieures des données devrait associer les approches fondées sur des hypothèses et celles appuyées sur des données par :

  • la définition de protocoles pour produire des données appropriées à la reconstruction des dynamiques multi-échelles,
  • l’initialisation, à travers une construction simultanée, d’un cadre théorique pour la prédiction et la falsification ultérieures des résultats issus d’expérimentations,
  • une approche fonctionnelle à différents niveaux pour permettre de concevoir des formalismes appropriés à ces mêmes niveaux tout en sachant que les méthodes théoriques ne permettent pas de garantir qu’un niveau formel puisse être déduit d’un autre, mais cela n’a pas d’importance puisque : pour comprendre un système, il est préférable d’étudier les étapes de reconstruction phénoménologique à chaque niveau pertinent.

La méthodologie débute par l’observation et la collecte de données. Toutefois, il arrive un moment où il n’est pas opportun de collecter des données sans savoir si celles-ci sont réellement nécessaires à la compréhension du comportement du système étudié. La reconstruction phénoménologique a pour résultat le paramétrage des données, et les mesures réalisées devraient permettre de détecter et de retracer ultérieurement les motifs transitoires et récurrents. Or, ces caractéristiques ne sont significatives que si elles sont intégrées dans un modèle permettant de valider les hypothèses. Notre objectif ici est de trouver un modèle compatible avec les observations. Le simple fait de construire un modèle nécessite déjà la formalisation des hypothèses sur le comportement du système ainsi que les processus sous-jacents. Une partie de la compréhension en découle, et la partie restante résulte de la possibilité de valider les prédictions relatives au modèle par l’expérimentation. Ce dernier point est représenté à droite de l’illustration ci-dessous. Épistémologie formelle et appliquée

Formal

Déroulement des opérations de reconstruction théorique

L’intégration de la science informatique est une composante essentielle de cette épistémologie. Elle a pour but de fournir ainsi que de permettre :

  • des outils d’exploration pour une approche fondée sur les données ; l’apprentissage automatique non supervisé peut fournir des motifs candidats et des relations qui échappent à l’intuition humaine ; l’apprentissage automatique actif sert à déterminer l’expérimentation la mieux appropriée pour tester un modèle qui est au centre de l’épistémologie dont il est question,
  • des outils permettant d’établir des comparaisons entre les modèles (fondés sur des hypothèses) et les observations ; l’apprentissage supervisé équivaut à l’exploration de l’espace des paramètres d’un modèle avec pour objet une correspondance optimale des données ; l’apprentissage auto-supervisé est appliqué quand un aspect temporel permet de corriger en continu les prédictions du modèle à partir des données observées concernant ces prédictions.

Les méthodes et les outils de la science informatique sont nécessaires lors des étapes suivantes :

  • les interactions entre l’humain et la machine : la visualisation et l’interaction à partir des données, des ontologies et des simulations,
  • la construction d’ontologies relatives à des entités fonctionnelles pertinentes à différents niveaux,
  • l’élaboration d’hypothèses, la formalisation des relations entre les entités, la conception de modèles,
  • la validation des modèles.

Nous attendons des méthodes et des outils issus de la science informatique qu’ils offrent les caractéristiques fondamentales spécifiques suivantes :

  • les outils génériques doivent être aussi indépendants que possible par rapport à une structure logique (d’interprétation) ; en particulier en raison des habitudes culturelles variables des différentes disciplines et des spécificités de chaque système, il est préférable de proposer une série d’outils indépendants et adaptables plutôt qu’un environnement intégré qui, de toute façon, ne pourra jamais englober tous les cas de figure,
  • l’indépendance doit également être de mise dans le choix des logiciels (en termes d’usage, d’évolution et d’adaptation des outils aux besoins spécifiques) ; cela exige des logiciels libres comme condition nécessaire, mais non pas suffisante,
  • les outils doivent être fonctionnels pour les spécialistes, mais également utilisables par des non spécialistes ; cela est réalisable, par exemple, s’ils offrent des caractéristiques spécifiques à un domaine avec une valeur ajoutée pour les spécialistes sous la forme d’extensions (modules, etc.) des outils génériques,
  • des outils prêts à utiliser ; les conditions requises pour l’application de l’outil doivent être minimales ; l’utilisation de l’outil ne doit pas impliquer de gros efforts techniques.

Grands défis 1. Outils informatiques pour l’exploration et la formalisation 2. Interactions entre humains assistées par ordinateur


Outils informatiques pour l’exploration et la formalisation

L’ordinateur doit être considéré comme un outil d’exploration et de formalisation, et intégré dans l’épistémologie des systèmes complexes.
Certains domaines de recherche adoptent actuellement cette approche et les efforts déployés en ce sens doivent être encouragés. La mécanique numérique, avec la reconstruction de son régime de causalité, est une technique candidate susceptible de pouvoir automatiser la reconstruction phénoménologique, mais il existe des obstacles à son application réelle, par exemple, l’élaboration d’un algorithme pratique dans le cas continu ou la construction de distributions statistiques significatives à partir d’une quantité limitée d’échantillons (relatifs à l’espace exploré). La complexité statistique peut également servir de filtre d’exploration fort utile pour identifier les zones prometteuses et les entités en interaction à l’intérieur d’un système. Un autre domaine de recherche qui pourrait également être intégré dans l’épistémologie est la quantification des capacités de généralisation des systèmes d’apprentissage (Vapnik et coll., par exemple). La sélection automatisée d’hypothèses ou d’exemples de données les plus prometteurs est l’objet phare dans l’apprentissage actif. Son application est particulièrement appropriée pour explorer le comportement des modèles informatiques dynamiques, mais plus délicate quand il s’agit de systèmes complexes multi-échelles. Le problème pourrait être, par exemple, de déterminer les surfaces de réaction qui entraînent un changement majeur du comportement (l’effondrement d’un écosystème, par exemple). Si le système est de grande dimension, l’espace de recherche devient immense et déterminer les expérimentations qui apporteront le plus d’informations devient primordial. Certaines techniques d’analyse sont par nature multi-échelles (par exemple les formalismes fractals/multifractals) et devraient également être intégrées. Les régimes dynamiques sont une partie essentielle des systèmes complexes, et les phénomènes durablement variables ou transitoires maintiennent le système en état hors équilibre statique. Certains outils mathématiques et algorithmiques existants devront être adaptés à ce contexte dynamique, d’autres être spécialement créés. Des recherches devront en outre être entreprises pour trouver comment intégrer directement ces aspects dynamiques aux approches expérimentales et formelles relatives à l’épistémologie.


Interactions entre humains assistées par ordinateur

L’ordinateur, en tant qu’extension des outils de travail de l’expérimentateur, est devenu une composante indispensable de l’épistémologie scientifique. Trois formes d’interactions entre l’humain et la machine sont à prendre en compte.

  • De la machine à l’humain : le système sensoriel humain (visuel, auditif, etc.) est extrêmement efficace pour réaliser certaines tâches comme la détection de motifs dans une image, par exemple. En revanche, il est assez inefficace quand il s’agit de visualiser des relations dans des espaces ou des graphiques de grande dimension. Des recherches sont nécessaires pour étudier la manière dont les machines peuvent fournir une représentation appropriée d’un système complexe sous une forme adaptée au système sensoriel humain.
  • De l’humain à la machine : de manière analogue, le retour d’information et le contrôle qu’un être humain non assisté par la machine peut réaliser sur un système complexe sont limités. Par exemple, si un humain intervient comme agent discriminateur dans un processus de décision répété (par exemple, sélectionner et valuer des critères d’adéquation d’un modèle), le temps nécessaire à l’humain pour prendre une décision freine la vitesse d’exécution de l’algorithme. Parallèlement au problème de visualisation, les capacités relatives à l’interaction humaine dans une simulation de grande dimension sont relativement faibles, notamment si des périphériques conventionnels, comme la souris et le clavier, sont utilisés. Découvrir des moyens de contrôle (logiciel ou matériel) adaptés à la morphologie humaine ainsi qu’à ses limites constitue un autre aspect du défi de l’interaction entre l’être humain et les systèmes complexes.
  • D’humain à humain : l’ordinateur a pour objet de faciliter la communication entre humains. Par exemple, certaines connaissances des experts d’un domaine spécifique sont souvent perdues quand des informaticiens non spécialistes du domaine formalisent et conçoivent les expérimentations dont les experts ont besoin en retour. Dans l’idéal, l’ordinateur doit être un outil qui améliore la communication interdisciplinaire, sans l’entraver, et doit être directement utilisable par les experts eux-mêmes pour concevoir des expérimentations, des modèles et des simulations. Toutefois, l’utilisation de l’ordinateur pour faciliter la relation d’humain à humain ne se limite pas aux seuls aspects interdisciplinaires. L’ordinateur doit devenir partie intégrante du processus de collaboration et indispensable pour travailler sur les systèmes complexes.