Épistémologie formelle, expérimentation, apprentissage automatique

Épistémologie formelle, expérimentation, apprentissage automatique

Rapporteur : Nicolas Brodu (INRIA – Rennes). Contributeurs : Paul Bourgine (CREA, École polytechnique), Nicolas Brodu (INRIA – Rennes), Guillaume Deffuant (CEMAGREF), Zoi Kapoula (CNRS), Jean-Pierre Müller (CIRAD), Nadine Peyreiras (CNRS). Mots clés : méthodologie, outils, informatique, expérimentation, modélisation, validation, apprentissage automatique, épistémologie, visualisation, interaction, entité fonctionnelle, formalisation, reconstruction phénoménologique.

Introduction

Le monde moderne, notamment dans le domaine de la médecine, de l’environnement et de la sphère sociale, est de plus en plus dépendant de et confronté à de vastes systèmes constitués d’un grand nombre d’entités en interaction. Les données collectées à partir de ces systèmes, généralement à très grande échelle, représentent des défis considérables en termes d’efforts à déployer pour la reconstruction des dynamiques multi-échelles et leurs diverses influences descendantes et ascendantes. Ce travail requiert non seulement l’appui de l’épistémologie formelle et des calculs massifs, mais aussi une généralisation dite « science ouverte » inspirée par la communauté de la physique des hautes énergies. La compréhension d’un phénomène consiste à découvrir une approche suffisamment précise et concise pour expliquer sa structure et son comportement, pouvant être comprise par l’esprit humain. Dans la situation actuelle, l’intuition humaine se trouve souvent désemparée pour traiter les subtilités intrinsèques et les propriétés des systèmes complexes. En théorie, une technique formelle optimale permet d’obtenir des concepts candidats et des liens pouvant servir de base aux expérimentations menées par l’être humain. Si les formes optimales découvertes grâce aux méthodes théoriques s’opposent aux concepts optimaux conçus par le travail cérébral humain, la raison de cette divergence fera elle-même l’objet de recherches complémentaires. Pour comprendre les systèmes complexes, il faut définir et mettre en œuvre une épistémologie formelle et appliquée spécifique. De nouveaux outils et méthodes doivent être développés pour assister le travail de conception et d’interprétation des expérimentations en vue de :

  • identifier les entités pertinentes à une échelle spatio-temporelle donnée,
  • caractériser les interactions entre les entités,
  • évaluer et formaliser le comportement du système.

La stratégie allant de la conception d’une expérimentation jusqu’aux analyses postérieures des données devrait associer les approches fondées sur des hypothèses et celles appuyées sur des données par :

  • la définition de protocoles pour produire des données appropriées à la reconstruction des dynamiques multi-échelles,
  • l’initialisation, à travers une construction simultanée, d’un cadre théorique pour la prédiction et la falsification ultérieures des résultats issus d’expérimentations,
  • une approche fonctionnelle à différents niveaux pour permettre de concevoir des formalismes appropriés à ces mêmes niveaux tout en sachant que les méthodes théoriques ne permettent pas de garantir qu’un niveau formel puisse être déduit d’un autre, mais cela n’a pas d’importance puisque : pour comprendre un système, il est préférable d’étudier les étapes de reconstruction phénoménologique à chaque niveau pertinent.

La méthodologie débute par l’observation et la collecte de données. Toutefois, il arrive un moment où il n’est pas opportun de collecter des données sans savoir si celles-ci sont réellement nécessaires à la compréhension du comportement du système étudié. La reconstruction phénoménologique a pour résultat le paramétrage des données, et les mesures réalisées devraient permettre de détecter et de retracer ultérieurement les motifs transitoires et récurrents. Or, ces caractéristiques ne sont significatives que si elles sont intégrées dans un modèle permettant de valider les hypothèses. Notre objectif ici est de trouver un modèle compatible avec les observations. Le simple fait de construire un modèle nécessite déjà la formalisation des hypothèses sur le comportement du système ainsi que les processus sous-jacents. Une partie de la compréhension en découle, et la partie restante résulte de la possibilité de valider les prédictions relatives au modèle par l’expérimentation. Ce dernier point est représenté à droite de l’illustration ci-dessous. Épistémologie formelle et appliquée

Formal

Déroulement des opérations de reconstruction théorique

L’intégration de la science informatique est une composante essentielle de cette épistémologie. Elle a pour but de fournir ainsi que de permettre :

  • des outils d’exploration pour une approche fondée sur les données ; l’apprentissage automatique non supervisé peut fournir des motifs candidats et des relations qui échappent à l’intuition humaine ; l’apprentissage automatique actif sert à déterminer l’expérimentation la mieux appropriée pour tester un modèle qui est au centre de l’épistémologie dont il est question,
  • des outils permettant d’établir des comparaisons entre les modèles (fondés sur des hypothèses) et les observations ; l’apprentissage supervisé équivaut à l’exploration de l’espace des paramètres d’un modèle avec pour objet une correspondance optimale des données ; l’apprentissage auto-supervisé est appliqué quand un aspect temporel permet de corriger en continu les prédictions du modèle à partir des données observées concernant ces prédictions.

Les méthodes et les outils de la science informatique sont nécessaires lors des étapes suivantes :

  • les interactions entre l’humain et la machine : la visualisation et l’interaction à partir des données, des ontologies et des simulations,
  • la construction d’ontologies relatives à des entités fonctionnelles pertinentes à différents niveaux,
  • l’élaboration d’hypothèses, la formalisation des relations entre les entités, la conception de modèles,
  • la validation des modèles.

Nous attendons des méthodes et des outils issus de la science informatique qu’ils offrent les caractéristiques fondamentales spécifiques suivantes :

  • les outils génériques doivent être aussi indépendants que possible par rapport à une structure logique (d’interprétation) ; en particulier en raison des habitudes culturelles variables des différentes disciplines et des spécificités de chaque système, il est préférable de proposer une série d’outils indépendants et adaptables plutôt qu’un environnement intégré qui, de toute façon, ne pourra jamais englober tous les cas de figure,
  • l’indépendance doit également être de mise dans le choix des logiciels (en termes d’usage, d’évolution et d’adaptation des outils aux besoins spécifiques) ; cela exige des logiciels libres comme condition nécessaire, mais non pas suffisante,
  • les outils doivent être fonctionnels pour les spécialistes, mais également utilisables par des non spécialistes ; cela est réalisable, par exemple, s’ils offrent des caractéristiques spécifiques à un domaine avec une valeur ajoutée pour les spécialistes sous la forme d’extensions (modules, etc.) des outils génériques,
  • des outils prêts à utiliser ; les conditions requises pour l’application de l’outil doivent être minimales ; l’utilisation de l’outil ne doit pas impliquer de gros efforts techniques.

Grands défis 1. Outils informatiques pour l’exploration et la formalisation 2. Interactions entre humains assistées par ordinateur


Outils informatiques pour l’exploration et la formalisation

L’ordinateur doit être considéré comme un outil d’exploration et de formalisation, et intégré dans l’épistémologie des systèmes complexes.
Certains domaines de recherche adoptent actuellement cette approche et les efforts déployés en ce sens doivent être encouragés. La mécanique numérique, avec la reconstruction de son régime de causalité, est une technique candidate susceptible de pouvoir automatiser la reconstruction phénoménologique, mais il existe des obstacles à son application réelle, par exemple, l’élaboration d’un algorithme pratique dans le cas continu ou la construction de distributions statistiques significatives à partir d’une quantité limitée d’échantillons (relatifs à l’espace exploré). La complexité statistique peut également servir de filtre d’exploration fort utile pour identifier les zones prometteuses et les entités en interaction à l’intérieur d’un système. Un autre domaine de recherche qui pourrait également être intégré dans l’épistémologie est la quantification des capacités de généralisation des systèmes d’apprentissage (Vapnik et coll., par exemple). La sélection automatisée d’hypothèses ou d’exemples de données les plus prometteurs est l’objet phare dans l’apprentissage actif. Son application est particulièrement appropriée pour explorer le comportement des modèles informatiques dynamiques, mais plus délicate quand il s’agit de systèmes complexes multi-échelles. Le problème pourrait être, par exemple, de déterminer les surfaces de réaction qui entraînent un changement majeur du comportement (l’effondrement d’un écosystème, par exemple). Si le système est de grande dimension, l’espace de recherche devient immense et déterminer les expérimentations qui apporteront le plus d’informations devient primordial. Certaines techniques d’analyse sont par nature multi-échelles (par exemple les formalismes fractals/multifractals) et devraient également être intégrées. Les régimes dynamiques sont une partie essentielle des systèmes complexes, et les phénomènes durablement variables ou transitoires maintiennent le système en état hors équilibre statique. Certains outils mathématiques et algorithmiques existants devront être adaptés à ce contexte dynamique, d’autres être spécialement créés. Des recherches devront en outre être entreprises pour trouver comment intégrer directement ces aspects dynamiques aux approches expérimentales et formelles relatives à l’épistémologie.


Interactions entre humains assistées par ordinateur

L’ordinateur, en tant qu’extension des outils de travail de l’expérimentateur, est devenu une composante indispensable de l’épistémologie scientifique. Trois formes d’interactions entre l’humain et la machine sont à prendre en compte.

  • De la machine à l’humain : le système sensoriel humain (visuel, auditif, etc.) est extrêmement efficace pour réaliser certaines tâches comme la détection de motifs dans une image, par exemple. En revanche, il est assez inefficace quand il s’agit de visualiser des relations dans des espaces ou des graphiques de grande dimension. Des recherches sont nécessaires pour étudier la manière dont les machines peuvent fournir une représentation appropriée d’un système complexe sous une forme adaptée au système sensoriel humain.
  • De l’humain à la machine : de manière analogue, le retour d’information et le contrôle qu’un être humain non assisté par la machine peut réaliser sur un système complexe sont limités. Par exemple, si un humain intervient comme agent discriminateur dans un processus de décision répété (par exemple, sélectionner et valuer des critères d’adéquation d’un modèle), le temps nécessaire à l’humain pour prendre une décision freine la vitesse d’exécution de l’algorithme. Parallèlement au problème de visualisation, les capacités relatives à l’interaction humaine dans une simulation de grande dimension sont relativement faibles, notamment si des périphériques conventionnels, comme la souris et le clavier, sont utilisés. Découvrir des moyens de contrôle (logiciel ou matériel) adaptés à la morphologie humaine ainsi qu’à ses limites constitue un autre aspect du défi de l’interaction entre l’être humain et les systèmes complexes.
  • D’humain à humain : l’ordinateur a pour objet de faciliter la communication entre humains. Par exemple, certaines connaissances des experts d’un domaine spécifique sont souvent perdues quand des informaticiens non spécialistes du domaine formalisent et conçoivent les expérimentations dont les experts ont besoin en retour. Dans l’idéal, l’ordinateur doit être un outil qui améliore la communication interdisciplinaire, sans l’entraver, et doit être directement utilisable par les experts eux-mêmes pour concevoir des expérimentations, des modèles et des simulations. Toutefois, l’utilisation de l’ordinateur pour faciliter la relation d’humain à humain ne se limite pas aux seuls aspects interdisciplinaires. L’ordinateur doit devenir partie intégrante du processus de collaboration et indispensable pour travailler sur les systèmes complexes.

 

 

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply