Groupe 8 – Connaissances et systèmes complexes: conception de modèles

Auteurs par ordre alphabétique: Guillaume Chérel, Claire Lesieur, Maud Loireau, Maël Montévil, Micks Morvan, Jean-Louis Rouet, Véronique Thomas-Vaslin,  Alain Trubuil, Roger Waldeck, Romain Yvinec

Formaliser un système complexe sert à en construire une représentation partagée, à le décrire pour réduire les ambiguïtés, à tester des hypothèses et à comprendre son comportement. Il s’agit de formaliser au mieux les connaissances du moment pour résoudre certaines questions. Concevoir, représenter ou modéliser formellement un système complexe aide à expliciter le raisonnement à son sujet, rendre ce raisonnement rigoureux et le communiquer en réduisant les ambiguïtés. Ce travail nécessite des simplifications et approximations qui restreignent et idéalisent la complexité des phénomènes. Le cas particulier de la traduction sous forme informatique pour la simulation prend une place croissante dans de nombreuses communautés scientifiques. Ce type de représentation soulève des questions sur le sens que l’on donne à ces modèles dans le travail scientifique, sur les connaissances que l’on s’autorise à tirer d’expériences numériques ou de raisonnement mathématiques et logiques. Ces questions sont abordées dans la première partie de ce chapitre.  La construction de modèle idéalise toujours son objet, mais elle respecte aussi des critères théoriques plus généraux, propres aux disciplines (telle que la conservation de l’énergie en physique). Nous pointons dans une seconde partie plusieurs aspects qui nous semble nécessiter ce genre de développements théoriques dans le contexte de certains systèmes complexes.

La conception et la validation d’un modèle font intervenir un certain nombre de notions qu’il convient d’expliciter étant donné la diversité des pratiques et des situations. Dans les sciences naturelles, il convient de distinguer les relations heuristiques des modèles causaux. Les relations heuristiques imitent le comportement de l’objet d’étude sans viser à réellement comprendre ce comportement. Par contraste, les modèles stricto sensu visent à rendre compte de relations d’ordre causal dont le modélisateur fait l’hypothèse. C’est en ce sens que le modèle permet de comprendre le phénomène.  Dans les sciences sociales comme en biologie,  la modélisation à visée  conceptuelle est à distinguer de celle à visée empirique.   Le modèle à visée conceptuelle soulève la question de sa validité empirique et le modèle à visée empirique celui de sa généralisation théorique. Le choix d’une approche ou de l’autre va dépendre des objectifs de la modélisation, des connaissances générales disponibles, voire des possibilités du dispositif expérimental associé, le cas échéant. De nombreux modèles combinent ces approches, les relations heuristiques servant notamment lorsque les connaissances sont insuffisantes. De plus, nous voulons insister sur l’importance des cadres théoriques pour guider la conception de modèles. Ainsi, les principes de Newton facilitent la conception des modèles en mécanique classique tout en justifiant la forme qu’ils prennent. Enfin et bien évidemment, les résultats de l’analyse d’un modèle sont cruciaux pour sa validation et sa confrontation empirique. Pourtant il  est aussi  nécessaire de conceptualiser des modèles hors de la physique de Newton en particulier en biologie car la complexité dépasse les approches de la physique classique. Certains modèles se sont alors pas calculables ni simulables du  fait de la complexité sous-jacente.

Défis% A supprimer?

exploitation des outils de modélisation de connaissances dans le cas des systèmes complexe / faciliter l’actualisation  des modèles numériques à partir de l’enrichissement du modèle de connaissance

cf. KADS

Validation de modèles et adéquation avec l’objet d’étude

Introduction générale et enjeux :

Faire un modèle formel d’un système, c’est l’interpréter dans un langage qui fait apparaître aussi explicitement que possible tout ce qu’on y représente. L’interprétation peut être mathématique, informatique, ou algorithmique. Cette interprétation est contrainte par les règles du langage formel que l’on utilise et par les concepts que l’on est capable de représenter dans ce langage. Si cette interprétation particulière est intéressante, c’est parce que les langages formels nous donnent accès à des outils théoriques et techniques qui jettent une nouvelle lumière sur le système. Par exemple, lorsqu’un langage formel est traduisible sous forme algorithmique, on peut utiliser des ordinateurs pour effectuer des calculs très rapidement. On peut alors observer et faire des expériences avec cette interprétation particulière du système, en simulation.

Cette représentation formelle, simulée sur un ordinateur, produit des résultats que l’on peut l’observer, analyser et tester, avec le niveau de détail souhaité, ce qui n’est pas toujours réalisable avec l’objet d’origine. Pour les systèmes complexes, ceci veut dire que l’on peut:

  • observer les parties sans intervenir sur le système (sans être invasif, sans perturber son fonctionnement),
  • observer simultanément de nombreuses entités,
  • observer leurs interactions,
  • avoir simultanément un compte rendu à différents niveaux d’observation du système pour établir une correspondance entre comportement des parties et du tout, à différentes échelles spatiales et temporelles

Il se pose alors la question de l’adéquation entre cette représentation formelle étudiée en simulation et les phénomènes que l’on représente. Quelle rôle peut-elle jouer dans leur étude scientifique?

Il existe deux classes de conception de modèles, les modèles top-down et les modèles bottom-up. Dans le premier cas, la conception part de la connaissance des données pour arriver à leur simulation avec comme but une prédiction sur les données ou leur comportement, une tendance. Ces modèles portent souvent une responsabilité décisionnaire, ils sont donc support de discussion au sein d’une large communauté, et ont une visée exploratoire. Ce sont souvent des modèles avec des analyses statistiques supervisées ou  non.

Dans le deuxième cas, les connaissances ne sont pas considérées dans leur ensemble mais découpées en sous problèmes qui sont modélisés individuellement. Il s’agit de répondre à une question mécaniste visant à augmenter la compréhension d’un phénomène. Le travail est autour de l’architecture des connaissances plutôt que leur prédiction. Cependant ces modèles mécanistiquespeuvent aussi  servir à  des simulations et des prédictions permettant d’évaluer des paramètres quantificatifs.

Les deux conceptions partagent les mêmes règles de conduite: test et challenge du modèle pour validation et itération. Les données servent à construire le modèle et les simulations servent à comprendre les données et réadapter le modèle.

En sciences sociales, deux méthodologies sont souvent citées  :  l’individualisme méthodologique et le holisme.  Celles-ci influent aussi le rapport des modélisateurs aux données. Une approche fondée sur les données crée des heuristiques comportementales  et pose la question de leurs liens avec les raisons d’agir  des individus. Les règles comportementales spécifiées peuvent elles-mêmes être considérées comme potentiellement évolutives et donc se posent la question de la définition de méta-heuristiques.  L’individu “cognitiviste ” est plus proche d’une approche en termes d’individualisme méthodologique.  Quelle forme de rationalité  doit-on supposer pour les individus et quels liens peut-on faire entre modèles cognitifs, données observées et heuristiques comportementales?  L’économie expérimentale et la neuro-économie s’appliquent à comprendre l’individu dans un contexte d’interactions  sociales. La simple agrégation des  comportements observés en laboratoire pour comprendre un phénomène collectif ne va pas de soi par l’importance des interactions qui crée autant de contexte particulier dans lequel se prennent les décisions. En retour,  les observations au  niveau des individus dans des contextes hautement contrôlés  posent la question de  leur généralisation à des contextes réels et complexes.

Dans les modèles top-down un des enjeux est d’avoir une conception servant de support de discussion et de communication au sein de communautés diverses. La communication est une difficulté permanente dans les travaux interdisciplinaires, il existe des solutions pour y remédier qui dépendent de la perception et formation de chacun. Différentes spécifications plus ou moins précises peuvent être mise en œuvre,  elles vont de la spécification des entités et de leurs principales relations d’interdépendance, à l’usage de formalisme mathématiques, déterministe, probabilistes, stochastiques. Ainsi, les langages graphiques permettent un haut niveau d’abstraction pour les modèles, et facilitent la communication entre disciplines, sans nécessairement aller jusqu’à la simulation du système complexe modélisé.  Ils permettent une interopérabilité entre modèle par exemple continus et discrets, et l’exécution de processus en parallèle. Les formalismes mathématiques et informatiques permettent de spécifier formellement les dépendances entre les entités et donc d’aller jusqu’à la simulation  (Efroni et al 2005).

Succès:

La refactorisation de différents modèles continu ou  discret (ODE, agents) avec des processus parallèles, sous langage de haut niveaux exécutable,  et générant également les équations mathématiques  et state machine du  modèle (McEwan  et al. 2011,  Bersini et al.  2012, Thomas-Vaslin et al. 2013).

Enjeux sociétaux%?

Un exemple d’analyse computationnelle des modèles comme boîtes noires

Prendre le modèle comme une boîte noire, ici, c’est le voir comme une fonction qui prend des entrées et renvoie des valeurs de sorties, et étudier celles-ci sans regarder la manière dont elle est écrite. L’intérêt de l’approche boîte noire est de développer des méthodes génériques car indépendantes de l’implémentation particulière du modèle. En suivant cette approche, on peut aborder plusieurs questions qui se posent au cours d’un travail de recherche qui fait intervenir un modèle, et qui se ramènent à un problème d’exploration d’espace de paramètres.

Une première question est l’étalonnage (ou la calibration) du modèle: on estime les valeurs de paramètres avec lesquels le modèle reproduit une observation qu’on a fait par ailleurs sur le système d’origine. 

Dire qu’un modèle reproduit des données récoltées par ailleurs sur des phénomènes ne permet pas a priori de généraliser à d’autres phénomènes. Pour accroître la confiance en un modèle, on peut le mettre à l’épreuve en recherchant les différentes valeurs de sortie qu’il peut produire, et ainsi voir s’il en existe qui sont en contradiction avec les observations du système d’origine ou des connaissances théoriques. Ces valeurs de sortie inattendues donnent au modélisateur l’occasion de revenir sur son modèle et de se demander si les hypothèses qu’il y a inscrites sont justes.

Succès

Depuis 2008, la plateforme OpenMOLE est développée en collaboration avec des chercheurs de différentes disciplines pour piloter des expériences avec des modèles en simulation. Elle a été utilisée dans la production de plusieurs résultats scientifiques, pour:

  • étalonner un modèle de système de ville (Shmitt et al. 2015)
  • étudier le rôle de chaque paramètre d’un modèle pour reproduire des données (Reuillon et al 2015)
  • étudier la diversité des sorties d’un modèle de système de ville (Chérel et al 2015)
  • Et d’autres travaux… (TODO lien publications openmole)

Encadrer les modèles par des principes théoriques

La validité d’un modèle ne dépend pas que de son comportement en termes de boite noire. Une approche complémentaire consiste à baser l’écriture et l’interprétation de la formalisation des modèles sur des principes théoriques explicites, possédant une certaine généralité. Cette approche a plusieurs avantages. Elle facilite l’interdisciplinarité au sens où la discussion critique de ces principes est souvent plus aisée que celle de la formalisation mathématique de ces modèles. De plus, elle permet dans une certaine mesure de standardiser la manière d’élaborer les modèles, ou dans le cas contraire de comparer les hypothèses de modèles ayant des prémisses différentes.

Succès:

  • Comportement des cellules

Un exemple d’application est la manière dont est modélisé le comportement de cellules dans un contexte tissulaire. Ainsi, on peut supposer que l’état par défaut des cellules est la prolifération, auquel cas, l’écriture d’un modèle se focalisera sur l’explicitation des causes contraignant cet état par défaut, et pouvant conduire, dans certains cas à la quiescence (Montévil et al 2016). Cette voie nous semble mériter une attention particulière pour la modélisation dans des disciplines ne possédant pas de théorie générale encadrant la modélisation (biologie des organismes, systèmes sociaux).

Remplacer des relations heuristiques par des relations causales

L’élaboration de modèles s’intéressant à des objets nouveaux est souvent confronté à une connaissance insuffisante de la situation empirique. Il est alors souvent plus fructueux de proposer néanmoins des modèles en utilisant des relations heuristiques le cas échéant, puis des les élucider expérimentalement.

Succès:

  • Modélisation de la dynamique des lymphocytes du système immunitaire (Thomas-Vaslin 2015)

La conceptualisation de modèles expérimentaux et la modélisation et simulation de la dynamique de prolifération et sélection des lymphocytes T ont été proposées avec des approches de biologie de systèmes (Thomas-Vaslin, et al 2013a). Ces approches ont déjà permis de montrer que la dynamique de systèmes biologiques complexes comme le système immunitaire est très variable selon le contexte, et hétérogène  selon les type cellulaires, et sous l’influence des niveaux inférieurs et supérieur d’organisation. La conceptualisation initiale de cette dynamique des lymphocytes a été réalisée avec des boîtes “noires “ (Thomas-Vaslin et al 2008, Thomas-Vaslin et al. 2012). Puis des boites “blanches”, sous forme de diagramme de transition et les simulations validées sur des observations expérimentales ont été menées. Quand on augmente la granularité de l’observation et que l’on explore le temps (âge de l’organisme et les stades de différenciation des cellules), l’espace (les cellules évoluent et migrent dans différents tissus) et l’origine génétique des organismes, on découvre alors l’hétérogénéité et complexité du comportement des lymphocytes (Vibert et al 2017).

Des modèles pour la communication

L’utilisation de langage graphiques

Succès:

En biologie des systèmes, ce langage graphique a déjà permis une interopérabilité de modèles ODE (Ordinary Differential Equation) continus et déterministes, par exemple permettant de modéliser des populations, et des modèles discret, stochastiques, tels des automates cellulaires, avec des agents.

Par exemple, la différenciation, la sélection et la régulation des lymphocytes peut ainsi être modélisée à l’aide de diagramme de transition. Cela a permis aussi la refactorisation de modèles hétérogènes déjà publiés (McEwan et al 2011, Bersini et al 2012,Thomas-Vaslin et al 2013) mais aussi  l’exécution à  partir du  code sous jacent et des simulations dans différents contextes.

Défis:

  • La génération du code automatiquement à partir des graphes de haut niveau permettrait de proposer des interfaces afin que les biologistes puissent plus directement spécifier leur modèles et leur environnement.
  • L’intégration de substances et de processus depuis des ontologies ou bases de connaissances permettrait de faciliter la standardisation et l’articulation de modèles à différents niveaux. Par exemple en biologie on pourrait s’appuyer sur des ontologies décrivant le contexte physio-pathologique d’un organisme, le contexte anatomique, les types de cellules, les gènes et protéines comme cela est déjà utilisé dans le text mining pour l’extraction automatique de connaissance de la littérature (Bedhiafi et al) mais aussi les processus qui permettent les interactions entre ces entités.

Le problème des boîtes noires:

Lorsqu’un modèle est un succès se traduisant par un grand nombre d’utilisateurs, il conduit souvent à un problème d’opacité. Les mécanisme du modèles, ses hypothèses ne sont plus disponibles et accessibles aux utilisateurs, il devient une “boite noire”. Les conséquences des “boites noires” sont diverses et sont un grand enjeux des prochaines années. TEXTE MAUD.

  • Utilisation
  • Transfert à d’autres objets (territoires, type cellulaire, etc..)
  • Adaptation du modèle aux nouvelles connaissances

Le problème de la reproductibilité

L’utilisation de l’ordinateur concerne maintenant tous les domaines scientifiques. Les développements de modèles de plus en plus complexes (prises en comptes des interactions non linéaire entre agents), l’utilisation de logiciels ou progiciels dédiés ou non, le traitement de bases de données hétérogènes posent la question de la reproductibilité des résultats obtenus. Dans le domaine des sciences économiques, des études pointent la difficulté de reproduire des résultats publiés (William et al 1986, McCullough 2006). Cette constatation dépasse probablement ce seul cadre. La rapidité du développement des codes de calcul accroît les erreurs logiques ou numériques. Pour répondre à cette question et lever les doutes quant aux résultats publiés, des initiatives ont été prises. C’est le cas de Run My Code, site compagnon de revues qui permet aux auteurs de déposer leur codes et jeux de données afin qu’ils puissent être rejouées à la demande, ou encore la création de la revue ReScience qui encourage la réplications de résultats déjà publiés. Récemment, l’UMS Cascad, Agence de certification des publications scientifiques propose que les résultats de publications soient certifiées à un moment du processus d’évaluation des articles.

La question de la reproductibilité est aussi liée à celle de la résilience des codes dans le temps. Ces questions ou pratiques, si elles sont transversales, concernent évidemment aussi les résultats des modèles portant sur les systèmes complexes.

Défis

  • Les modèles devraient être validés sur des set de données indépendantes et d’observation expérimentales bien contextualisées, ou extraites automatiquement de la littérature selon leur contexte. Ceci nécessite un couplage du text mining et data mining et la définition du contexte précis, pour alimenter les modèles dynamiques.

Commentaires : Il est sans doute important de faire une distinction entre des modèles complexes destinés à être réutilisés pour de la prédiction   et des modèles supportant une hypothèse de recherche mais n’ayant pas vocation à réutilisés de manière intensive. Dans le premier cas, il est évident que des moyens sur le long terme doivent être mis pour faciliter la mise à jour du modèle, sa maintenance opérationnelle et son évolution par des tiers (accès pour une communauté). Dans le second cas même si cela serait souhaitable il semble difficile de garantir la reproductibilité sur le long terme et vérifier la reproductibilité dans un délai raisonnable autour de la publication du modèle semble plus réaliste.

Les questions qui se posent me semblent être :

Qu’est-ce qui serait utile pour faciliter la maintenance opérationnelle des codes, leur actualisation. Que pourrait proposer les ISC dans ce cadre?

Défis théoriques pour la modélisation

Commentaire:  je pense que toute cette partie (organisation, historicité, rapport tout partie,  émergence etc…) devrait être en tout premier, avant les modèles numériques et la validation: la théorie et la conceptualisation de modèles de systèmes complexes et de leurs caractéristiques devrait être en amont de la modélisation graphique, mathématique ou informatique qui  sont des formalismes d’exécution.

La problématique de l’organisation (auto-organisation) des systèmes vivants doit être abordée de façon théorique, notamment afin d’encadrer les modélisations. Questionner la forme et les caractères majeurs d’une organisation, quelle que soit ses échelles, doit permettre de mieux comprendre le comportement de telles organisations. Les organisations biologiques sont caractérisés par une historicité et une relation à leur extérieur qui sont problématiques. Interroger la variation, l’ordre, le désordre, la robustesse, la résilience, la stabilité toute relative, la fragilité, le passage d’un niveau à l’autre et l’émergence permettrait de concevoir aussi la désorganisation et le vieillissement au cours du temps, les points de rupture, l’effondrement et la disparition de ces systèmes ouverts, dissipatifs d’énergie.

La proposition de cadres théoriques mais aussi de modèles mathématiques et/ou informatiques permettant de rendre compte des changements de telles organisations pourrait être proposés.

Comprendre l’historicité dans les systèmes complexes

Les objets biologiques sont le produit d’une histoire évolutive et développementale. L’historicité de l’objet d’étude concerne aussi les sciences sociales, par exemple l’étude de paysages en géographie ou le développement technologique des biens échangés en économie. L’historicité existe dans certains modèles mathématiques sous la forme d’une dépendance au chemin parcouru.  Cependant, un certain nombre d’auteurs défendent l’idée suivant laquelle l’historicité des domaines sus-nommés requiert un traitement mathématique et théorique particulier (Kauffman 2002, 2016, Montévil 2016). Les conséquences de l’historicité en biologie apparaissent suivant deux plans. i) les objets vivants actuels sont le résultat d’une histoire longue de sorte que ses parties ne sont pas quelconques mais ont au contraire souvent des comportements très particuliers, fonctionnels. En particulier, ces objets historiques “intériorisent” les contextes qu’ils rencontrent au cours de leurs histoires et ces contextes sont alors décisifs pour comprendre leurs structures. Il s’agira alors de saisir toutes les conséquences de cette situation. Il s’ensuit une diversité qualitative des objets. ii) les changements de ces objets incluent l’apparition de nouveauté qualitative, pouvant typiquement nécessiter des changements d’espaces de descriptions et de règles les régissant. Cette question est précisément celle de l’apparition de nouveauté dans les systèmes biologiques, notion centrale en évolution et durant l’ontogénie. Elle est aussi pertinente pour l’économie, par exemple, comme innovation technologique. Le cadre épistémologique, théorique et mathématique nécessaire pour comprendre ce genre de phénomènes demande à être développé.

Défis:

  • Investiguer les conséquences de l’historicité des systèmes complexes où cet aspect est pertinent (systèmes sociaux, systèmes biologiques, écosystèmes…).

Rapports tout-partie

Claude Bernard note que “si l’on décompose l’organisme vivant en isolant ses diverses parties, ce n’est que pour la facilité de l’analyse expérimentale, et non point pour les concevoir séparément. En effet, quand on veut donner à une propriété physiologique sa valeur et sa véritable signification, il faut toujours la rapporter à l’ensemble et ne tirer de conclusion définitive que relativement à ses effets dans cet ensemble” (Bernard 1865). Cet impératif théorique ne se retrouve que très peu dans la modélisation mathématique des parties d’organismes. Elle a par contre été l’objet de plusieurs développements en biologie théorique, et correspond toujours à une interdépendance particulière entre les parties d’un être organisé tel qu’un organisme ou une cellule. Elle apparaît par exemple comme systèmes métabolisme/réparation (M, R) chez Rosen (1991), autopoièse chez Maturana et Varela (1974), et ensembles autocatalytiques et cycles travail/contrainte chez Kauffman (2012). Elle a été reformulée récemment comme clôture entre contrainte (la clôture, en référence à Piaget, correspondant à une circularité et allant toujours de pair avec l’ouverture thermodynamique du système, Montévil et al 2015, Moreno et al 2015, Mossio et al 2016). Ces approches pourraient ainsi permettre d’implémenter la remarque théorique de Claude Bernard dans la méthodologie de modélisation en biologie. Elles sont aussi essentielles pour comprendre l’émergence de la vie.  De manière générale, rendre ces approches opérationnelles pour la modélisation « de tous les jours » en biologie est un enjeux théorique majeur.

Articulation de modèles à différents niveaux, émergence

La modélisation devrait pouvoir intégrer différents niveaux d’organisation du vivant, des cellules aux organismes, aux écosystèmes et systèmes sociaux. Par exemple on cherchera à intégrer des modèles moléculaires, cellulaires, de comportement de populations de cellules ou d’organismes dans des écosystèmes. Dans le domaine de la modélisation des socio-écosystèmes, le dialogue interdisciplinaire a aussi été promu à l’aide de ces modèles qui vont permettre une intégration de la théorie à la programmation et simulation (Duboz et al 2013).

Défis:

Le défi est maintenant d’intégrer différents niveaux [ lien roadmap multiniveaux] et pouvoir simuler la percolation entre les échelles de temps et d’espace dans de tels modèles qui permettent de modéliser l’émergence de liens complexes, de comportement collectifs et des propriétés émergentes ou  immergentes.

Par exemple, dans le système immunitaire on voudrait pouvoir intégrer les modèles et simulations dans une plate forme,  car des niveaux différents sont concernés:

  • Des comportements collectifs et liens complexes émergents qui apparaissent pour rendre compte de la mémoire dynamique ou de la tolérance dominante qui sont des phénomènes supraclonaux (Coutinho 2000).
  • Ces hypothèses de régulation de systèmes biologiques par des boucles de régulation positives et négatives ont récemment été développées pour simuler la régulation de la réponse immunitaire (Almeida et al 2012).
  • Simuler des perturbations telles que le vieillissement, des maladies auto-immunes, inflammatoires de plus en plus fréquentes.
  • Cela permettrait de simuler des traitements tels que proposés précédemment (Cohen et al 2014). De tels traitements régulateurs permettent de re-connecter ce réseau dynamique complexe (Klatzmann, D., & Abbas, A. K. (2015), plutôt que de le détruire comme avec les traitements immunosuppresseurs de chimiothérapie ou anti-inflammatoires, encore classiquement utilisés dans des pathologies (Thomas-Vaslin et al. 2015) et la construction des répertoires immunitaires (Thomas-Vaslin et al 2014).

Cette perspective permettrait de prévenir des pathologies ou de proposer de nouvelles thérapies permettant d’augmenter la résilience aux perturbations et au vieillissement.

Commentaires : Pour la compréhension mais aussi la prédiction, il peut être nécessaire de coupler des modélisations opérant à différentes échelles ou niveaux d’organisation. Il en va ainsi dans la modélisation du vivant, de l’infra-cellulaire à la population cellulaire, d’écosystèmes ou encore de systèmes de production intégrant risques épidémiologiques et comportements économiques.

Peut-etre une reference :

Moslonka-Lefebvre, Mathieu, et al. “Epidemics in markets with trade friction and imperfect transactions.” Journal of theoretical biology 374 (2015): 165-178.

 

Defis : Amplifier les efforts consentis pour croiser les niveaux de modélisation, partager les savoir-faire et expériences

Pour ce qui est de l’exemple en immunologie, homogénéiser les items, montrer plus clairement les niveaux croisés.

Peut-etre une reference appropriée?
Go, Natacha, et al. “Integrative model of the immune response to a pulmonary macrophage infection: what determines the infection duration?.” PloS one 9.9 (2014): e107818.

Application : les systèmes organisés face aux perturbations, le défi d’une évaluation globale.

Le monde actuel voit le nombre et la puissance des techniques, en particulier industrielles, croître de telle manière qu’un changement qualitatif radical est nécessaire dans l’évaluation des effets systémiques de ces techniques. La méthode analytique classique, qui analyse les interactions locales entre objets simplifiés dans une relation causale linéaire n’est pas adéquate pour prédire le comportement de systèmes complexes (comme un écosystème, la biosphère, un système vivant…) en réponse à des perturbations multiples et simultanées. Or, il s’avère que nous sommes maintenant en train de perturber des systèmes qui permettent notre existence et donc de compromettre notre existence. Dans le cadre d’une approche tenant compte de la complexité des objets naturels, l’objectif n’est pas de prédire la “réponse” d’un système naturel à une perturbation, mais de chercher à savoir si cette perturbation (ou cet ensemble de perturbations) peut entraîner la désorganisation (ou le changement d’organisation) du système. C’est ce qui a été appelé “évaluation globale”, en réponse à un appel à projets de l’État français (programme “EvaGlo”). Parmi les pistes retenues, l’une, particulièrement fondamentale, concerne le concept d’organisation, que nous considérons dans le contexte d’auto-organisation ou d’autopoïèse. Un certain nombre de caractères concernant une forme, une organisation (abstraites) doivent faire l’objet de revues bibliographiques et d’enrichissements théoriques, via des approches formelles (modélisation notamment) mais aussi philosophiques. On peut déjà citer: la relation au hasard (une organisation se distingue essentiellement d’un assemblage aléatoire équiprobable, tout en étant issue du hasard et en s’en nourrissant), les principes fondamentaux de la restriction des possibles et de la permissivité systémique, l’historicité des objets complexes, … il s’agit aussi d’investiguer les propriétés des organisations existantes telles que les notions d’ordre/désordre, robustesse, stabilité, résilience, vulnérabilité, percolation, émergence, niveaux d’organisation et modes de franchissement (ou non) de ces niveaux (dépendance ou indépendance de ces niveaux). Ce champ de recherche devrait permettre une première reconstruction des problématiques d’évolution et de vieillissement des systèmes, de leur effondrement, des points de rupture qui les caractérisent ainsi que des signes annonciateurs permettant de prédire la disparition d’une organisation donnée.

Références

Almeida, A. R., Amado, I. F., Reynolds, J., Berges, J., Lythe, G., Molina-Paris, C., & Freitas, A. A. (2012). Quorum-Sensing in CD4(+) T Cell Homeostasis: A Hypothesis and a Model. Front Immunol, 3, 125. doi:10.3389/fimmu.2012.00125

Bedhiafi, W., Thomas-Vaslin, V., Benammar Elgaaied, A., & Six, A. (submitted). OntoContext, a new python package for gene contextualisation based on the annotation of biomedical texts.

Bernard, C. (1865). Introduction à l’étude de la médecine expérimentale. Paris : Baillière
Kauffman, S. (2002). Investigations. Oxford University Press, USA

Bersini, H., Klatzmann, D., Six, A., & Thomas-Vaslin, V. (2012). State-transition diagrams for biologists. PLoS ONE, 7(7), e41165. doi:10.1371/journal.pone.0041165

Chérel, G, Cottineau, C, Reuillon, R (2015) Beyond Corroboration: Strengthening Model Validation by Looking for Unexpected Patterns. PLoS ONE 10(9): e0138212. https://doi.org/10.1371/journal.pone.0138212

Cohen, I. R. (2014). Activation of benign autoimmunity as both tumor and autoimmune disease immunotherapy: A comprehensive review. J Autoimmun. doi:10.1016/j.jaut.2014.05.00

Coutinho, A. (2000). Germ-line selection ensures embryonic autoreactivity and a positive discrimination of self mediated by supraclonal mechanisms. Semin Immunol, 12(3), 205-213; discussion 257-344.

Dewald, W., Thursby, J. and Anderson, R., 1986, The American Economic Review, 76(4), pp. 587-603;

Duboz R., Müller J.P.. 2013. In : Eds. Franck Varenne & Marc Silberstein. Modéliser & simuler : épistémologies et pratiques de la modélisation et de la simulation. (Tome 1, volume 2). Paris : Editions Matériologiques, p. 865-896. (Sciences &, Philosophie).

Efroni, S., Harel, D., & Cohen, I. R. (2005). Reactive animation: Realistic modeling of complex dynamic systems. Computer, 38(1), 38–4)

Kauffman, S. (2002). Investigations. Oxford University Press, USA

Kauffman, S. A. (2016). Humanity in a Creative Universe. Oxford University Press

Klatzmann, D., & Abbas, A. K. (2015). The promise of low-dose interleukin-2 therapy for autoimmune and inflammatory diseases. Nat Rev Immunol, 15(5), 283-294. doi:10.1038/nri3823

McCullough, B., McGreary, K. and Harrison, T., 2006, “Lessons from the JMCB Archive,” Journal of Credit and Banking, 38(4),pp. 1093-1108

McEwan, C., Bersini, H., Klatzmann, D., Thomas-Vaslin, V., & Six, A. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems: Luniver press. ISBN.

Montévil, M. & M. Mossio (2015). « Biological organisation as closure of constraints ». In : Journal of Theoretical Biology 372, p. 179–191.

Montévil, M., Speroni, L., Sonnenschein, C., Soto, A.. « Modeling mammary organogenesis from biological first principles : Cells and their physical constraints ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 58–69. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.004

Montévil, M., Mossio, M., Pocheville, A., Longo, G. « Theoretical principles for biology : Variation ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 36–50. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.005

Moreno, A., & Mossio, M. (2015). Biological autonomy. History, Philosophy and Theory.

Mossio, M., M. Montévil & G. Longo (2016). « Theoretical principles for biology : Organization ». In : Progress in Biophysics and Molecular Biology 122.1. p. 24–35. issn : 0079-6107. doi :
10.1016/j.pbiomolbio.2016.07.005

Reuillon, R., Schmitt, C., De Aldama, R. and Mouret, J.-B. (2015) ‘A New Method to Evaluate Simulation Models: The Calibration Profile (CP) Algorithm’ Journal of Artificial Societies and Social Simulation 18 (1) 12. doi: 10.18564/jasss.2675

Rosen, R. (1991). Life itself : a comprehensive inquiry into the nature, origin, and fabrication of life. Columbia U. P. (cf. p. 8, 16).

Schmitt, C., Rey-Coyrehourcq, S., Reuillon, R., Pumain, D.. Half a billion simulations: evolutionary algorithms and distributed computing for calibrating the SimpopLocal geographical model. 2015. <hal-01118918>

Thomas-Vaslin, V., Altes, H. K., de Boer, R. J., & Klatzmann, D. (2008). Comprehensive assessment and mathematical modeling of T cell population dynamics and homeostasis. J Immunol, 180(4), 2240-2250.

Thomas-Vaslin, V., Six, A., Pham, H. P., Dansokho, C., Chaara, W., Gouritin, B., . . . Klatzmann, D. (2012). Immunodepression & Immunosuppression during aging. In M. B. Portela (Ed.), Immunosuppression (pp. 125-146). Brazil: InTech open acces publisher

Thomas-Vaslin, V., Six, A., Ganascia, J. G., & Bersini, H. (2013a). Dynamical and Mechanistic Reconstructive Approaches of T Lymphocyte Dynamics: Using Visual Modeling Languages to Bridge the Gap between Immunologists, Theoreticians, and Programmers. Front Immunol, 4, 300. doi:10.3389/fimmu.2013.00300

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013b). Lymphocyte Dynamics and Repertoires, Biological Methods, Modeling. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 1145-1149): Springer New York.)

Thomas-Vaslin, V. (2014). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Varela, F., Maturana, H., & Uribe, R. (1974). Autopoiesis: The organization of living systems, its characterization and a model. Biosystems, 5, 187 – 196. doi:10.1016/0303-2647(74)90031-8.

Vibert, J., & Thomas-Vaslin, V. (2017). Modelling T Cell Proliferation: Dynamics Heterogeneity, Depending on Cell Differentiation, Age, and Genetic Background. PLoS Comput Biol, 13 (3), e1005417. doi:10.1371

 

 

 

 

0 replies

Leave a Reply

Want to join the discussion?
Feel free to contribute!

Leave a Reply