Posts

Thématique : Épistémologie des systèmes complexes

Ou « comment » réaliser et appliquer la méthode scientifique dans le cadre des systèmes complexes, en publiant à 500 contributeurs dans 20 disciplines.

Contributeurs : Nicolas Brodu

Afin de réaliser les grands projets de demain et de répondre aux questions scientifiques posées par les systèmes complexes, il nous faut passer la barrière de la publication par quelques individus isolés et travailler de façon collaborative et pluridisciplinaire. Ce changement de pratique peut être grandement facilité, voire même tout simplement permis, par des outils et infrastructures permettant d’adapter et d’appliquer la méthodologie scientifique dans ce cadre nouveau.

Voici une proposition qu’il est possible d’intégrer dans l’infrastructure du campus numérique. Cette page sert de lieu de discussion sur comment mettre en œuvre une épistémologie des systèmes complexes. N’hésitez pas à commenter et ajouter vos idées. Le résultat sera intégré dans le document final sous une forme encore à définir, par exemple dans l’axe transverse «Infrastructures» du campus numérique qui comprendrait cette section ainsi que celle concernant les «Modèles intégrés».

L’infrastructure de recherche à mettre en œuvre comprendrait :

Un outil sur le modèle des wikis, amélioré. En plus de l’édition à plusieurs, il faut également un mécanisme pour assurer l’authentification (ex: clef de cryptographie privée, à valeur légale dans de nombreux pays) ainsi qu’un système de versions généralisé (historique de l’article + commentaires + données utilisées + code des expériences). Mais également des outils pour gérer et améliorer la bibliographie, rentrer des formules de math, etc. Bref, un système d’édition collaborative dédié à la rédaction scientifique, assurant tant la paternité des idées que leur expression facile en ligne et leur diffusion. Et un moteur de recherche très efficace pour voir dans les références si une idée existe déjà, ainsi que dans les articles en cours de construction (cf point suivant). Le tout avec une interface réellement utilisable par des non-informaticiens…

Un « marché des articles en cours ». Que chacun puisse proposer une idée nouvelle et commencer un article, avec le système détectant automatiquement les articles similaires en cours de construction pour proposer de les fusionner (analyse sémantique). Ceci permettrait de travailler

potentiellement à beaucoup, d’éviter la frustration de voir une initiative similaire « publiée » avant soi, tout en gardant les paternités. Et tout en réduisant les risques de fraudes : toute tentative de copier/coller ou d’idées trop similaires serait détectée par le système et annoncée aux participants de chaque initiative similaire. Rien n’empêche également le système de fouiller d’autre bases de données comme arXiv à la recherche de similitudes.

Une possibilité également comme dans les « forges » logicielles de poster des annonces à la communauté, style « on cherche un spécialiste de XYZ », ou alors « on propose des données nouvelles sur XYZ, appel à participation pour le dépouillement ».

Quand un article/projet est suffisament abouti, les auteurs peuvent décider de le figer et le soumettre. Une fois accepté il entre dans les base de données bibliographique classiques (HAL, ArXiv, …), avec comme bonus dans la nouvelle infrastructure les traces et historiques des commentaires, fausses pistes tentées, etc, qui ont menées à sa construction. Plutôt que juste un PDF sur le site d’un éditeur qui ne garde rien de l’histoire de l’article. Problème de confidentialité ? de navigabilité dans l’historique ?

À terme un système de publication gérant le peer-reviewing au sein du système, et utilisant les dernières avancées en graphes de communautés pour s’assurer que le peer-reviewing ne devienne pas du copinage. Note: la notion même de peer-reviewing est à redéfinir si 5000 contributeurs soumettent un article. Il devient alors difficile de trouver 3 ou 4 reviewers dans le domaine, n’ayant à la fois pas contribué au projet et disposant des compétences pour juger le travail de 5000 autres personnes…

Les articles produits seraient en Creative Commons, soit aucun coût d’accès à la connaissance. Les coûts récurrents (travail d’édition, communication et animation, hébergement, équipe d’ingénieurs pour maintenir le système, etc.) seraient supportés en amont, chaque labo/organisation participant pour entrer dans le système, plutôt que pour accéder aux articles des éditeurs comme dans le système actuel. Les contributeurs à titre individuel ne paieraient rien pour obtenir un compte dans le système. Paierait seulement qui veut apparaître dans la liste des « affiliations » à un individu, ce qui résoud implicitement les cas des étudiants (affiliés) et des chômeurs/chercheurs précaires/isolés à l’étranger (pouvant soumettre à titre individuel), tout en jouant sur le fait que les labos/universités vont vouloir apparaître tôt ou tard (surtout si on publie un classement actualisé mensuellement des contributions par affiliation…).

C’est assez utopique, ça impliquerait un changement de pratiques conséquent, mais ça permettrait certainement des articles à 500 ou 5000. En fait, le souci n’est pas technique (c’est faisable avec les technologies actuelles, moyennant du temps et de l’argent pour mettre le système en place) mais surtout de convaincre/motiver une communauté suffisante pour l’utiliser et démarrer le processus : comme tout réseau de ce type, l’intérêt pour un nouvel entrant de participer au système dépend grandement du nombre d’utilisateurs existants. Le challenge serait ensuite de changer la façon de juger les gens par indice bibliométrique… ce qui est encore moins évident. Mais on peut rêver : qui ne tente rien n’a rien, et c’est souvent en lançant une dynamique qu’on fait évoluer les choses, même si on y arrive pas du premier coup 🙂

Références

Ne pas oublier le « Specific Program: Cooperation » du « FP7 »:

http://cordis.europa.eu/fp7/cooperation/home_en.html

Peut-être se rattacher aux initiatives existantes : What are e-Infrastructures?
Proposer un Flagship sur le sujet dans le cadre du programme Européen Future and Emergent Technologies – Proactive.

Thématique : Éthique et épistémologie des modèles intégrés

Reporter : Nicolas Brodu, Sara Franceschelli, Jean-Baptiste Rouquier

Contributors : François Arlabosse, Yves Burnod, Paul Bourgine, S. Randall Thomas, Alessandro Sarti, Roberto Toro.

Introduction

La construction de modèles intégrés pour l’énorme variété de systèmes complexes qui nous entourent, à toutes les échelles, est l’un des buts majeurs de l’institut numérique des systèmes complexes. Il paraît alors essentiel d’en discuter l’épistémologie, ce qui reviendra, de fait, à l’explicitation d’une méthodologie pour la construction et l’usage de tels modèles, et à une discussion sur leur portée de connaissance.

De pair, une nouvelle prise de conscience de certaines questions d’intérêt vital, rendue possible grâce aux connaissances fournies par les modèles intégrés et par les bases de données systématisées par l’institut numérique des systèmes complexes, devra s’accompagner, prioritairement au niveau de l’université numérique des systèmes complexes, de l’élaboration d’une éthique appropriée pour une innovation responsable.

Afin de favoriser une prise de conscience et la constitution d’un positionnement éthique situés, dans des situations d’innovation ou d’expérimentation potentiellement dangereuses ou en tout cas partiellement inconnues, que les connaissances gérées par l’institut numérique des systèmes complexes permettront de repérer et de signaler, la mise en place d’une observation participante d’un anthropologue (ou d’un sociologue), en étroite relation avec les experts dans le domaine, sera proposée. (e.g. modèle du rein avec entrées et sorties, mais si on considère le rein dans l’ensemble du système, lui-même est un composant qu’il s’agira d’intégrer au tout, ce qui ne peut pas se faire par simple juxtaposition).

Le but des modèles intégrés est d’universaliser les dynamiques microscopiques en dynamiques macroscopiques pour rendre compte des motifs émergent à une certaine échelle, motifs qui deviennent les entités élémentaires de l’échelle supérieure. Un modèle intégré présente différents niveaux hiérarchiques et une causalité à la fois montante et descendante. L’ambition est de connaître les dynamiques des motifs entre tous les niveaux, à la fois montantes et descendantes.

À chaque échelle, on peut modéliser les entités de base ou élémentaires de façon très simplifiée, mais ce sont l’hétérogénéité de ces entités et leurs interactions qui créent le comportement émergent. Par exemple, si tous les agents boursiers ont exactement le même comportement, par exemple tout le monde veut acheter ou vendre en même temps, aucune transaction ne se fait. De même, on a observé qu’au dessus d’une certaine température, certaines abeilles se placent à l’entrée de la ruche et battent des ailes pour la ventiler et la refroidir. La température seuil est spécifique à chaque abeille (hétérogénéité). Ainsi, quand la température augmente, il y a de plus en plus d’abeilles qui ventilent.

En général, on ne pourra pas tout expliquer en remontant ou en descendant, mais il sera nécessaire de se concentrer sur le niveau hiérarchique d’intérêt (middle-out).

Chaque fois qu’il y a une question à un niveau de détail donné, on crée donc un modèle adapté à ce niveau, en sachant que les modèles peuvent être imparfaits et/ou partiels à chaque niveau, ce qui n’empêche pas de viser à obtenir un modèle global intégré.

2.1.4.1 La valeur épistémique des modèles intégrés

La construction de modèles intégrés vise à une naturalisation des connaissances. Méthodologiquement, la posture adoptée est phénoménologique. A chaque niveaux de description, il est souhaitable avoir à la fois une connaissance des détails des équations, et une reconstruction des dynamiques symboliques. Cette deuxième voie offre la possibilité d’une comparaison avec le discours des experts dans les différent domaines disciplinaires que les modèles intégrés permettent d’aborder (biologistes, physiciens, géographes, médecins, sociologues, etc.). Il est donc nécessaire de connaître des données sur le comportement du système à chaque niveau. Cela suppose des entrées données / méta à différents niveaux (sémantique/vs syntaxique). Le seul moyen est peut-être de concevoir des systèmes apprenant, comme un enfant arrive à apprendre la sémantique en plus de la structure formelle (e.g. un dictionnaire).

Explication et prédiction

Un modèle mathématique peut avoir à la fois une fonction explicative, permettant une explication qualitative, et une fonction prédictive. Cela est vrai aussi pour les modèles intégrés, pouvant contenir à la fois des aspects qualitatifs (qui servent à comprendre, à expliquer) et quantitatifs (qui servent à prédire).

La théorie des catastrophes de René Thom constitue un exemple d’usage qualitatif des modèles mathématiques, visant plus à une compréhension qualitative qu’à une prédiction quantitative. Toutefois, compréhension et prédiction ne sont pas des exigences incompatibles, comme le montre bien l’utilisation de la théorie qualitative des équations différentielles pour l’étude de la transition vers le chaos déterministe dans certains systèmes dynamiques. Malgré l’imprédictibilité sur les trajectoires temporelles de certains systèmes – lorsqu’il présentent un régime chaotique – la notion de scénario de transition vers le chaos (défini par une suite générique de certaines bifurcations) permet en effet de réintroduire une certaine prédictibilité pour ces systèmes, même si en termes probabilistes. Le type de prédiction que les modèles intégrés permettent est, en général, probabiliste. Il s’agit de construire une physique statistique des systèmes complexes, dont l’hétérogénéité des éléments serait prise en compte.

2.1.4.2. Les conditions de la modélisation mathématique (rapport au système que l’on veut modéliser)

Il existe des propriétés intrinsèquement holistes des systèmes quantiques, présentées par les particules intriquées. Dans ce cas, le holisme est diffusé, pas organisable en niveaux séparables. La

difficulté de formuler des modèles intégrés pour ce type de systèmes semble intrinsèque; l’universalité de l’émergence et, a fortiori, des méthodes mathématiques pour modéliser des comportements émergent, peuvent donc être questionnés. Il faudra préciser quel est le domaine de validité de l’utilisation des modèles intégrés, et quelles en sont les conditions.

Conditions aux bords et questions d’identité

Pour pouvoir faire des prédictions concernant des systèmes particuliers, la connaissance des conditions aux bords est nécessaire: la connaissance des dynamiques à tous les niveaux d’un modèle intégré n’est pas suffisante. En fait, la non-connaissance des conditions aux bords, pose de problèmes sur l’identité même du système et sur sa localisation.

La question du «Bateau de Thésée» (une fois que toutes les pièces du bateau ont été remplacées, est-ce le même bateau ?) et ses variantes :

1. n’a pas forcément d’implication pratique sur les niveaux inférieurs, les composants du modèle; 2. a des conséquences éthiques en ce qui concerne les systèmes intégrés avec leur identité propre (ex: remplacement d’une partie du cerveau par une simulation, expérience sur les hypothalamus dégénérés de rats qui retrouvent une partie de leur comportement)

3. est liée à la question de l’autonomie, des relations avec les limites du système, des flux entrée /sortie (Prigogine & open-dissipative).

Déterminisme et stochasticité

Si j’ai un système dynamique, je peux toujours imaginer qu’il est perturbé par l’extérieur et je peux jouer entre déterminisme et stochastique. On peut avoir de la stochasticité à un niveau et du déterminisme au niveau supérieur. Également on peut avoir l’émergence du continu : des éléments microscopiques séparés et discrets, mais une modélisation macroscopique continue. E.g. : des bactéries mangent de la nourriture qui n’est pas distribuée de façon uniforme sur l’ensemble du milieu. On modélise de façon uniforme et on ajoute un coefficient de diffusion stochastique. Cela donne une équation différentielle à dérivées partielles stochastiques.
La distribution de Schwartz, par exemple, est très difficile à maîtriser, mais c’est un bon outil pour passer de l’échelle micro à l’échelle macro.

2.1.4.3. Ethique des modèles intégrés

L’un des buts des modèles intégrés est de jeter des ponts entre ingénierie et société. « Si le savoir peut créer des problèmes, ce n’est pas l’ignorance qui les résoudra. » (L’univers de la science, Isaac Asimov, éd. InterÉditions, 1986, p. 15.)

Le manque de modèles intégrés dans plusieurs domaines pousse à appliquer systématiquement le principe de précaution, ce qui freine les avancées scientifiques.
C’est une obligation éthique d’essayer de connaître quelque chose à toutes les échelles d’un domaine d’étude. Cela permettra de palier les problèmes des connaissances mal partagées, et de l’isolement scientifique. Cette obligation éthique est de plus en accord avec les jurisprudences qui font obligation pour un concepteur de connaître tout au moment de la conception d’un artefact. La certification du modèle intégré dans une recherche particulière avec la dynamique des incertitudes liées à la masse des données utilisées sera d’un grand apport dans toute question faisant intervenir la justice.

La science des systèmes complexes, par l’usage des modèles intégrés qu’elle emploie, permettra de mieux cerner les risques, de lancer des alertes dans des situations sociales diverses et variées. Par exemple dans le cadre de la santé, des modèles intégrés d’addiction sociale, comme

dans l’alimentaire, pourront être mieux cernés et circonvenus si besoin. Des alertes pourront être élaborées pour des technologies comme les nano-technologies qui échappent pour le moment à la toxicologie. La toxicité dans les chaînes alimentaires est par exemple relevant de l’approche modèle intégrée, en accord avec les directives européennes comme REACH. Les liens interdisciplinaires auront un impact sur l’élaboration d’alerte pertinente à des situations complexes. Cette même approche des systèmes complexes permettra outre le développement de la signature collective des travaux de mieux cerner la liste des recherches qu’il vaudrait mieux mener. L’effet toxique de certaines pratiques sociales devrait permettre une meilleure prise de conscience collective des effets de certaines pratiques sociales échappant à l’investigation scientifique.

Le développement de l’innovation responsable relève aussi du champ de l’approche des systèmes complexes. En évitant une concentration des connaissances sur un seul niveau d’échelle, toxique pour la société, on devrait pouvoir aider à influer sur les décisions des états pour l’allocation des budgets de R&D. L’approche multi-échelles sera à la source de nouvelles questions,

permettant à l’effort scientifique de mieux s’intégrer aux grandes questions sociétales du XXIe siècle.