Groupe 4 – Formation, consolidation, diffusion et valorisation

Rapporteurs : Luc Foubert, Claire Lesieur
Contributeurs : François Dubois, Mathieu Leclaire, Claire Lesieur, David Vandergucht, Micks  Morvan, Bertrand Jouve, Valentina Lanza, Luc Foubert.

Mots-clés

formation, logiciels, données, banc d’essais, partage de méthodes, mise en commun d’outils, diffusion grand public, vulgarisation, conseil, startup, partenariats socio-économiques.

 

Introduction

Les dernières itérations des feuilles de route ont permis de dégager les grandes idées, fédérer la communauté et spécifier les grandes questions et les grands thèmes. La mission initiale du RNSC (Réseau National des Systèmes Complexes) était d’essaimer en créant des instituts des Systèmes Complexes sur le territoire français. Nous pouvons estimer aujourd’hui que cette mission est un succès, avec la création de 6 instituts : ISC-PIF (Paris), XSYS (Toulouse), IXXI (Lyon),  ISCN (Le Havre),  MISC (Orléans – Tours), Strasbourg, une action internationale (Campus Numérique des Systèmes Complexes), et des Réseaux Thématiques.

Il s’agit maintenant de consolider le réseau, diffuser la connaissance et les outils, et le valoriser auprès des acteurs publics et du monde économique. Les interactions diffuses et continues entre ces différents modes d’échange à l’intérieur comme avec l’extérieur de la communauté des système complexes nous ont conduit à segmenter les actions à mener selon 3 grands champs en fonction principalement du public auquel ils s’adressent et de leur temporalité. Ces 3 champs sont 1/ l’enseignement académique, 2/ les événements de consolidations et 3/ les partenariats de valorisation avec le monde socio-économique, étant entendu que ces modes d’interaction agissent de concert et en synergie. Il nous a semblé pertinent d’associer les actions de diffusion, de vulgarisation et de communication avec le grand public, avec les sessions de consolidations afin qu’elles puissent bénéficier du caractère événementiel et informel associé à la délivrance et la mise en commun d’outils ou de méthodes partagés par la communauté.

Nous proposons ainsi les orientations suivantes pour mettre en œuvre ces objectifs:

  • l’enseignement académique, par la formation initiale et continue vers l’intérieur et l’extérieur de la communauté SC.
  • la consolidation, par la mise en commun entre les ISC et les partenaires, d’outils, de méthodes, de services, d’infra-structures, et leur diffusion auprès d’un plus large public (vulgarisation et animations socio-culturelles associées aux temps forts des événements de consolidation).
  • la valorisation, grâce à la mise en œuvre de formation continue, de prestations de conseils, de partenariats contractuels ou encore de la création de “start-up”s vers et avec la sphère socio-économique.

Formation(s)

Nous avons considéré le mot “formation” en un sens très large : introduction aux concepts fondamentaux, aux problématiques, aux méthodes et aux outils via l’enseignement initial traditionnel et la formation continue.

État des lieux

Enseignement existant

Formation continue

Les JEDI sont des sessions courtes (une journée maximum) pour former aux outils développés en interne par l’ISC-PIF ou à des outils utiles à la communauté SC.

Les écoles d’été MAPS regroupe pendant une semaine des apprentis modélisateurs et les sensibilise à la modélisation multi-agent.

École de physique des Houches Complex Networks Thematic School

Défis

Enseignement

Nécessité de la mise en œuvre de parcours d’enseignement académique afin d’avoir des étudiants se distinguant par leur formation des autres disciplines. C’est une étape nécessaire vers l’ouverture de formation académique spécifique en systèmes complexes pour favoriser l’interdisciplinarité autour des thématiques couvertes par les SC.

Niveaux ciblés: licence, IUT, école d’ingénieur, master, PhD

Les deux questions majeures sont: à quel niveau académique et quel syllabus?

Quel syllabus? Un enseignement systèmes complexes ou un enseignement interdisciplinaire? Au niveau actuel il est difficile d’imaginer un enseignement purement systèmes complexes. Donc, pour le moment on pourrait commencer avec un enseignement interdisciplinaire: on partirait d’un problème nécessitant une intervention de plusieurs disciplines et on sensibiliserait les étudiants aux données et à la connaissance des données, puis on présenterait les outils pour modéliser, analyser et simuler ces données. On traiterait plusieurs problèmes issues de différentes interdisciplines pour créer une ouverture d’esprit.

Par exemple: chaque année on travaille sur des outils issue d’une discipline “dure” (physique, mathématique, informatique) appliqués à des exercices et des données issues de disciplines “molles”.

On propose en parallèle un enseignement plus généraliste donné par des spécialistes en  philosophie, histoire des sciences, linguistique, episthemiologie.

Quel niveau académique? Le manque d’expérience d’enseignement purement systèmes complexes nous amène à proposer une entrée académique mineur-majeur avec une intervention soit au niveau licence  soit au niveau master. En première année l’enseignement généraliste serait proposé, à partir de la deuxième on traite des problèmes interdisciplinaires en fonction des outils et des connaissances traités respectivement dans les majeures. De coup, les étudiants sont obligés de travailler en groupe interdisciplinaire parce que individuellement ils n’ont pas la vision globale nécessaire pour traiter le problème. Ils vont donc apprendre leur discipline par les enseignements et des notions d’autres disciplines par le travail de groupe au sein de l’enseignement proposé dans la mineure interdisciplinaire.

Programme: interdisciplinarité, travaux communs et thématiques croisées autour des données, analyse de données et modélisation/simulation.

Implémentation: à la carte, package horaire proposé par les ISC individuellement ou ensemble. (à clarifier?)

Étudiants concernés: toutes les disciplines

Pérennisation: stockage des cours, mise à disposition sur les sites ISC, école doctorale des systèmes complexes?

Exemple: “Prospective Study Program National University of Singapore”
Les étudiants de différentes disciplines niveau licence et master y suivent sous forme de ‘mineur’, un programme interdisciplinaire offert par des intervenants de différents départements. Le programme repose sur des liants entre disciplines (maths appliquées, physique appliquée, biologie des systèmes,) ou un enseignement décliné en gestion de données, analyse de données, modélisation et simulation.

Formation continue

Cibles:

  • ISC
  • Académiques
  • Partenaires: Industries et organismes publics

Échelle de temps:

  • au fil de l’eau: Jedi, formation CNRS, journées IXXI
  • Ritualiser: école d’été, de printemps

Type d’actions:

  • Workshop: techniques/utilisation d’outils (logiciel, traitement de données, représentation, etc.)
  • Meeting: thématiques croisées
  • Groupe de travail: traitement d’un problème spécifique.

Par exemple pour une formation Industrie/Académique:
Service aux entreprises: soumettre aux étudiants une question/un problème issue du monde économique et industriel pour tester et valoriser leurs expertises auprès des industries/institutions/public, en s’inspirant aux Semaines d’Etude Maths-Entreprises organisées par l’AMIES.

Moyens:

  • Intégration des écoles d’été dans les formations offertes par les grands organismes (EMBO, FEBS, etc.)
  • Écoles doctorales
  • Labellisation: les ISC pourraient envisager de demander un label européen pour valoriser la formation en systèmes complexes. Cette labellisation permet d’accéder à des soutiens financiers, une visibilité européenne et introduit une notion de qualité des formations.

Consolidation

Les différents instituts ont orienté leurs recherches et ont créé au cours de leur développement des outils pour mettre en œuvre des méthodes innovantes dans ces directions de recherches. Nous faisons ici un tour d’horizon des réalisations mutualisées de ces Instituts et nous proposons des axes de consolidations plus forts.

Après l’effort de l’essaimage des Instituts des Systèmes Complexes, doit venir le temps de la cohérence et de la mutualisation. Cette mise en commun doit être un médium pour définir les Systèmes Complexes, référencer les outils existants, mettre en commun les ressources de calcul et les ressources humaines. Au fil des années, les ISC ont développé des outils permettant de mieux observer, modéliser, simuler des systèmes complexes. Ils ont été pensés pour être génériques et transdisciplinaires.

État des lieux

Systèmes complexes à l’international

Complex system Society (http://cssociety.org/home)
Young Researchers Network on complex system (http://yrncs.cssociety.org/)

Outils mutualisés

Les expérimentations systèmes complexes mettent en jeu des simulations lourdes en temps de calcul. Un effort de mutualisation des ressources de calcul a été initié dès 2008 avec l’acquisition de machines pour le calcul sur grille de calcul ( EGI ) par l’ISC-PIF. Des investissements logiciels pour permettre l’utilisation automatisé de ces ressources ont été mis en place (OpenMOLE). Cette mutualisation répond bien au type de simulations réalisées dans la communauté: des batchs de simulations très importants sont réalisés en pic, laissant ensuite les infrastructures disponibles pour le reste de la communauté On observe depuis 10 ans une montée en charge de l’utilisation de ces ressources sans encore arriver à une adoption massive. Cette adoption massive est étroitement liée à l’adoption des outils de calculs distribués. L’un n’ira pas sans l’autre.

Pour le moment, la mise en commun des outils et des méthodes se fait se fait depuis chaque ISC vers ses propres partenaires.

Liste des plateformes de calcul

Bioemergences

Bioemergences est une plateforme regroupant des outils d’observation multiéchelles et multi-modales dans le cadre d’une modélisation de processus biologiques. USR3695 / ISCPIF

Gama

La plateforme Gama est une plateforme de modélisation agent permettant de décrire des règles d’interactions, de simuler et de visualiser des modèles multiagents. Gama est développée de concert par 5 entités université de Rouen, université de Toulouse, université d’Hanoi, université Paris Sud, université de Can Tho

GarganText

GarganText est une plateforme de data mining qui permet de rechercher des cooccurrences de termes dans un corpus de textes et de générer une carte interactive de proximités des termes. Elle permet par exemple de générer un état de l’art en quelques secondes selon une base d’articles. Son développement a été impulsé et financé par l’ISC-PIF

Graphstream

Graphstream est une librairie Java pour la modélisation et l’analyse de graphes dynamiques. Elle a été développée par l’Université du Havre en collaboration avec l’Institut des Systèmes Complexes en Normandie

LinkrBrain

LinkrBrain est un outil en ligne pour l’exploration et la visualisation de données neurologiques.

Multivac

est une plateforme permettant d’accéder à de grandes quantités de données sous la forme d’API. Elle met à disposition des outils de traitement parallèle de ces données de manière polymorphe (Hadoop, Spark, etc). Elle a permis de générer des applications pour étudier le climat, les élections présidentielles 2017, etc. Son développement a été impulsé et financé par l’ISC-PIF

OpenMOLE

OpenMOLE est une plateforme d’exploration des modèles numériques. Initialement développée pour l’étude des modèles de systèmes complexes stochastiques, elle permet une approche générique pour explorer, optimiser et réaliser des analyses de sensibilité sur les modèles. OpenMOLE permet aussi de distribuer la charge de calcul des expériences numériques sur une grande variété d’architectures de calcul haute performance (serveur, cluster, grille de calcul, cloud, etc.). Son développement a été impulsé et financé par l’Institut des Systèmes Complexes Paris Ile de France (ISC-PIF)

A part les infrastructures logiciel, des lieux  de travail mutualisés permettent des échanges entre les chercheurs du domaine. Par exemple,   l’ISC-PIF  permet la réservation de salles de réunion, salles de séminaires (jusqu’à 60 personnes) et auditorium pour conférences (130 personnes).

Vulgarisation / communication

Des manifestations mettant en évidence le lien entre l’approche systèmes complexes et des problèmes de la vie quotidienne permettront , de sensibiliser le grand public à nos travaux et susciter des nouvelles vocations d’une part, et de mettre en évidence l’apport d’une démarche pluridisciplinaire de l’autre.  On pourrait s’inspirer de la “Caravane des Sciences” animé au Maroc par le  Réseau international de recherche en théorie des systèmes  regroupant neuf centres de recherche de huit Universités marocaines
et de nombreux centres de recherche dans le monde (http://www.theoriedessystemes.net
). 

La communauté SC participe deja à:

  • Fête de la Science
  • Articles de presse, journal télévisé (intervention sur TF1 deux jours avant le second tour de l’élection présidentielle) autour de l’outil politoscope (https://politoscope.org/press/).

Défis

La mise en commun des outils maison et des outils préconisés devrait être renforcée entre les ISCs à l’échelle nationale. L’objectif est double: nous connaître mieux nous-mêmes: que font les autres dans la communauté ? et également mieux orienter les personnes s’intéressant aux SC en leur donnant des points d’entrée cohérents avec leurs centres d’intérêt.

Promouvoir les outils

Nous avons une connaissance partielle des outils développés par les autres instituts. Nous en avons fait une liste non exhaustive dans le paragraphe précédent. Nous préconisons cependant la création d’un point d’entrée dynamique recensant ces outils. Un site web mutualisé semble indiqué. Il pourrait permettre également de recommander des technologies. Citons de manière non exhaustive:

  • Netlogo: Plateforme de modélisation multiagent permettant de faire prototyper rapidement un modèle multiagent par des non-informaticiens
  • Gephi pour la visualisation des graphes complexes.
  • Spark: framework de calcul distribué pour l’exploration de données massives.

Faire apparaître et mettre à jour ces recommandations dans une vitrine mutualisée permettrait d’avoir une vue à jour.

Promouvoir des pratiques

Un outil pour la communauté : une base de documents “hal”
Permettre le dépôt avant publication de documents de recherche juste terminée sur une sous-section de la base de données “HyperArchives en ligne” du Cnrs. Ceci permettrait de renforcer l’identité de la communauté des Systèmes Complexes.

Réaliser et publier des datasets

Rôle des ISC: encourager et accompagner les partenaires dans la réalisation des datasets.
Cet accompagnement peut se traduire par:

  • une aide méthodologique: quelles sont les informations à fournir pour bien documenter la production du dataset ?
  • une aide thématique: quels sont les datasets d’autres communautés qui peuvent servir un autre cas d’usage ? Peut-on s’en inspirer ?
  • une aide technique: Proposer des solutions d’hébergement des données, des solutions de présentation et d’accès aux données.
Produire des données / du code pour le bien commun:

La réalisation de jeux de données à un coût. Il faut trouver un mode de rémunération qui permet de gratifier le producteur de données tout en garantissant que la donnée produite reste libre et gratuite. La gratification ne doit aller qu’au producteur de la donnée pour éviter le problème récurent des rentiers de la donnée. Les avancées en termes de cryptoéconomie (blockchain) laissent entrevoir un large champ d’investigation en ce domaine: des producteurs de données pourraient répondre à un appel à production de données via une certification contractuelle dans la blockchain servant de tiers de confiance. Le producteur serait rémunéré après validation pour sa production seule.

L’objectif ici est de traiter la donnée comme faisant partie prenante d’un ensemble de composants contribuant à la démarche scientifique, et doit donc être disponible pour permettre à la science d’être reproduite.

Pour faciliter le croisement des communautés, les données comme les programmes doivent être ouverts, mais cet aspect va parfois à l’encontre des politiques internes des partenaires. Une offre de conseil et d’accompagnement peut s’avérer nécessaire afin de présenter des modes opératoires rendant compatible la mise à disposition ouverte des données ou des codes tout en garantissant une viabilité économique (conseil, expertise ?)

Piloter la réalisation de benchmarks

La maîtrise d’une base de données permet ensuite une confrontation aux modèles issus d’autres communautés. À la façon de la communauté de traitement d’images, une base de données a un intérêt pour quelqu’un qui développe un nouvel outil et a besoin de le confronter au réel existant. Il lui suffit de contacter le responsable de la base de données (supposé bien connu !) afin d’avoir en retour la performance de son simulateur. Ce type d’intervention peut donner lieu à une rémunération à définir.
Proposer des plateformes d’évaluation comparée des algorithmes sur un jeu de donnée connu et partagé. Les ISC peuvent fournir l’infrastructure nécessaire à l’évaluation (automatique) des codes soumis sur des datasets privés, la publication des résultats. Example: Kitti, Pascal VOC

Un défi : renforcer le réseau européen

Aux États-Unis, la biologie des réseaux, est fortement intégrée à la discipline “Science des Réseaux”, ce qui lui donne de fait une reconnaissance claire dans la communauté des biologistes. Ce n’est pas aussi évidemment dans la communauté française. Le réseau des systèmes complexes peut-il être amené à jouer un tel rôle vis-à-vis des équipes de recherche qui participent de ses travaux ?

Mise en commun d’infrastructures

En matière d’infrastructure technique, élargir l’offre pour mieux répondre à la diversité des besoins et prendre en compte que bien souvent, il n’y a pas chez les partenaires de moyens humains pour faire l’installation et la maintenance de “couches informatiques” nécessaires à, mais pas centrales dans le cadre des travaux de recherche. Exemple: Grille de calcul – > outil intégré de calcul distribué. Cloud: outil d’infrastructure, sur lequel tout est à bâtir. Il manque des niveaux intermédiaires (en s’inspirant des grands fournisseurs de service cloud): PAAS, Plateform as a Service et SAAS, Software as a Service.

Vulgarisation / communication

La définition des termes liée aux systèmes complexes fait souvent débat. Il est pourtant nécessaire de s’accorder sur une vision que la communauté veut donner de ces termes. La communication autour de ces définitions doit donc pouvoir prendre plusieurs formes afin d’adresser ces différentes perspectives, échelles et niveaux de difficulté.

Au-delà de l’aspect formation en enseignement, la communication autour des systèmes complexes doit être l’objet d’un travail de vulgarisation, travail qui doit exploiter le multimédia (textes, dessins, vidéos) et les références multiples à des domaines d’applications divers (différentes “recettes” ou cas d’usage mettant en oeuvre une même méthode).

Cet effort de vulgarisation devrait être pris en charge par l’ensemble des instituts, à la fois sur le plan financier et en termes de production scientifique.

Valorisation

État des lieux

On remarque qu’il y a une dissymétrie entre la production académique (codes, outils, données…) et le réel transfert aux partenaires. Il est donc le temps de réfléchir aux moyens de promotion de ce transfert.

Dans la Section Consolidation on a mis en avant des bonnes pratiques à promouvoir pour augmenter la visibilité de la production au sein de la communauté SC et donc, à partir de ce travail et de l’inventaire des besoins des partenaires, on pourra optimiser la valorisation et le transfert vers les partenaires.

Défis

Un défi de service : l’audit complexité

Est-ce qu’on peut déterminer des critères qui permettent de définir la complexité pour que les partenaires sachent quand faire appel à la communauté  des systèmes complexes? Ici on fait une analogie à l’audit qualité.

Une dynamique de transfert, pour arriver à se placer sur le marché

Les réseaux des Systèmes Complexes jouent-ils vis-à-vis de la recherche scientifique le rôle d’une direction de programme dans l’industrie ? On sait que ces grands comptes chargés de développer des systèmes artificiels “compliqués” comme une automobile ou un avion s’organisent sous une forme matricielle. D’une part, les directions de spécialités comme l’automatique, la mécanique, l’électromagnétisme, etc.) et d’autre part les directions de programme : un programme est associé au développement d’un produit commercialisé par l’entreprise ; il s’appuie sur les compétences existantes, suscite aussi des améliorations des compétences et a une durée de vie finie par nature. Avec un changement d’échelle qu’il conviendrait de définir, on peut se poser la question de savoir si des structures comme les ISC (ou l’INRIA qui a mis en place depuis longtemps une structure de recherche par projet) jouent le rôle d’une direction de programme dans le monde industriel. Ceci se caractérise par le fait d’admettre qu’un chercheur dans un laboratoire de Systèmes Complexes n’est pas le meilleur expert d’une discipline comme l’analyse des modèles, la statistique, l’optimisation ou la mise en œuvre informatique (il peut aller chercher l’information dans les laboratoires de spécialité) mais est capable de prendre en charge une question posée par un acteur social (monde politique, économique et social) et d’apporter des réponses qui peuvent se traduire par des “break through” économiques.

De plus, suite au succès d’un projet et à la demande d’utilisateurs issus du monde économique et administratif, est-ce qu’on peut arriver à la création de “start-up”s, sur le modèle des sociétés de service issues de l’INRIA?  Même si les données sont publiques et les outils de simulation sont dans le domaine public, le savoir-faire acquis au cours des exploitations permet de gagner un temps indispensable pour des utilisations ultérieures. Si on prend comme référence les niveaux de maturité technologique ou “Technology Readiness Level”, il s’agit de passer typiquement du niveau 3-4 (le prototype qui fonctionne) au niveau 5-6 (participation à un futur produit qui sera commercialisé). La mise en place de structures commerciales est naturelle dans cette perspective.

 Valoriser les logiciels

Le développement d’outils comme Gargentext ou OpenMOLE est typiquement le résultat de cinq années de travail pour une équipe de deux ou trois chercheurs et ingénieurs. Le passage du développement à l’exploitation au service de nouvelles demandes peut induire un changement dans la façon de travailler. En particulier, le transfert de l’outil logiciel de son concepteur initial à une équipe chargée de l’entretenir, ou même commercialiser son utilisation. Bien entendu, ce type d’action demande des moyens humains spécifiques à mettre en place.
D’un point de vue humain, l’industrialisation ou même la simple consolidation d’un code de recherche par une équipe tierce peut être mal vécue (égo, dépossession de son travail) et peut être source de frictions. Le partage d’expérience, et les exemples inter communautaire peuvent aider ce processus nécessaire.

Valoriser les bases de données

Savoir passer d’une base de données gérée au niveau personnel à un outil partagé par une communauté. Le développement d’une base de connaissances est toujours un travail de longue haleine. La tentation pour une équipe qui a créé une telle base est grande de la conserver pour elle. On peut s’inspirer ici de l’expérience des biologistes et dépasser les réticences. Les expériences de rayons X afin de déterminer la structure des protéines demandent un effort expérimental très important. Comment partager ces données en rendant justice aux équipes qui les ont produites ? Une solution proposée par les biologistes (référence ?) est la suivante : la base de données devient publique, mais si elle est utilisée pour des travaux ultérieurs, l’utilisateur se doit de citer les travaux de ceux qui ont transmis leurs données. Un type de création de Bien Commun qui doit pouvoir être transposé aux Systèmes Complexes.

Conclusion

Une instance interinstitut, le RNSC par exemple, doit pouvoir fédérer les efforts de mutualisation et de vulgarisation afin de rendre plus lisible et cohérente notre vision de la discipline. Les objectifs sont multiples: i) mieux nous connaître entre instituts (nos forces, nos faiblesses, nos redondances), ii) mieux communiquer sur ce que nous sommes collectivement capables de proposer.

Nous préconisons donc la création d’un site web, coordonné par le haut, mais alimenté par les instituts. Il devrait y figurer la liste des instituts avec un lien vers leurs sites respectifs, des définitions communes des termes systèmes complexes (idéalement illustrés par des textes, dessins ou success-stories), une liste dynamique des outils mutualisés avec un renvoi pour leur apprentissage, une liste dynamique des formations à venir dans les différents instituts (où idéalement la localisation des formations sont croisées), la possibilité pour chaque laboratoire satellite d’écrire une page pour décrire sa contribution ou sa success-story SC, la liste dynamique des publications scientifiques système complexe, cette présente feuille de route. Cette liste n’est pas limitative.

 

Groupe 8 – Connaissances et systèmes complexes: conception de modèles

Auteurs par ordre alphabétique: Guillaume Chérel, Claire Lesieur, Maud Loireau, Maël Montévil, Micks Morvan, Jean-Louis Rouet, Véronique Thomas-Vaslin,  Alain Trubuil, Roger Waldeck, Romain Yvinec

Formaliser un système complexe sert à en construire une représentation partagée, à le décrire pour réduire les ambiguïtés, à tester des hypothèses et à comprendre son comportement. Il s’agit de formaliser au mieux les connaissances du moment pour résoudre certaines questions. Concevoir, représenter ou modéliser formellement un système complexe aide à expliciter le raisonnement à son sujet, rendre ce raisonnement rigoureux et le communiquer en réduisant les ambiguïtés. Ce travail nécessite des simplifications et approximations qui restreignent et idéalisent la complexité des phénomènes. Le cas particulier de la traduction sous forme informatique pour la simulation prend une place croissante dans de nombreuses communautés scientifiques. Ce type de représentation soulève des questions sur le sens que l’on donne à ces modèles dans le travail scientifique, sur les connaissances que l’on s’autorise à tirer d’expériences numériques ou de raisonnement mathématiques et logiques. Ces questions sont abordées dans la première partie de ce chapitre.  La construction de modèle idéalise toujours son objet, mais elle respecte aussi des critères théoriques plus généraux, propres aux disciplines (telle que la conservation de l’énergie en physique). Nous pointons dans une seconde partie plusieurs aspects qui nous semble nécessiter ce genre de développements théoriques dans le contexte de certains systèmes complexes.

La conception et la validation d’un modèle font intervenir un certain nombre de notions qu’il convient d’expliciter étant donné la diversité des pratiques et des situations. Dans les sciences naturelles, il convient de distinguer les relations heuristiques des modèles causaux. Les relations heuristiques imitent le comportement de l’objet d’étude sans viser à réellement comprendre ce comportement. Par contraste, les modèles stricto sensu visent à rendre compte de relations d’ordre causal dont le modélisateur fait l’hypothèse. C’est en ce sens que le modèle permet de comprendre le phénomène.  Dans les sciences sociales comme en biologie,  la modélisation à visée  conceptuelle est à distinguer de celle à visée empirique.   Le modèle à visée conceptuelle soulève la question de sa validité empirique et le modèle à visée empirique celui de sa généralisation théorique. Le choix d’une approche ou de l’autre va dépendre des objectifs de la modélisation, des connaissances générales disponibles, voire des possibilités du dispositif expérimental associé, le cas échéant. De nombreux modèles combinent ces approches, les relations heuristiques servant notamment lorsque les connaissances sont insuffisantes. De plus, nous voulons insister sur l’importance des cadres théoriques pour guider la conception de modèles. Ainsi, les principes de Newton facilitent la conception des modèles en mécanique classique tout en justifiant la forme qu’ils prennent. Enfin et bien évidemment, les résultats de l’analyse d’un modèle sont cruciaux pour sa validation et sa confrontation empirique. Pourtant il  est aussi  nécessaire de conceptualiser des modèles hors de la physique de Newton en particulier en biologie car la complexité dépasse les approches de la physique classique. Certains modèles se sont alors pas calculables ni simulables du  fait de la complexité sous-jacente.

Défis% A supprimer?

exploitation des outils de modélisation de connaissances dans le cas des systèmes complexe / faciliter l’actualisation  des modèles numériques à partir de l’enrichissement du modèle de connaissance

cf. KADS

Validation de modèles et adéquation avec l’objet d’étude

Introduction générale et enjeux :

Faire un modèle formel d’un système, c’est l’interpréter dans un langage qui fait apparaître aussi explicitement que possible tout ce qu’on y représente. L’interprétation peut être mathématique, informatique, ou algorithmique. Cette interprétation est contrainte par les règles du langage formel que l’on utilise et par les concepts que l’on est capable de représenter dans ce langage. Si cette interprétation particulière est intéressante, c’est parce que les langages formels nous donnent accès à des outils théoriques et techniques qui jettent une nouvelle lumière sur le système. Par exemple, lorsqu’un langage formel est traduisible sous forme algorithmique, on peut utiliser des ordinateurs pour effectuer des calculs très rapidement. On peut alors observer et faire des expériences avec cette interprétation particulière du système, en simulation.

Cette représentation formelle, simulée sur un ordinateur, produit des résultats que l’on peut l’observer, analyser et tester, avec le niveau de détail souhaité, ce qui n’est pas toujours réalisable avec l’objet d’origine. Pour les systèmes complexes, ceci veut dire que l’on peut:

  • observer les parties sans intervenir sur le système (sans être invasif, sans perturber son fonctionnement),
  • observer simultanément de nombreuses entités,
  • observer leurs interactions,
  • avoir simultanément un compte rendu à différents niveaux d’observation du système pour établir une correspondance entre comportement des parties et du tout, à différentes échelles spatiales et temporelles

Il se pose alors la question de l’adéquation entre cette représentation formelle étudiée en simulation et les phénomènes que l’on représente. Quelle rôle peut-elle jouer dans leur étude scientifique?

Il existe deux classes de conception de modèles, les modèles top-down et les modèles bottom-up. Dans le premier cas, la conception part de la connaissance des données pour arriver à leur simulation avec comme but une prédiction sur les données ou leur comportement, une tendance. Ces modèles portent souvent une responsabilité décisionnaire, ils sont donc support de discussion au sein d’une large communauté, et ont une visée exploratoire. Ce sont souvent des modèles avec des analyses statistiques supervisées ou  non.

Dans le deuxième cas, les connaissances ne sont pas considérées dans leur ensemble mais découpées en sous problèmes qui sont modélisés individuellement. Il s’agit de répondre à une question mécaniste visant à augmenter la compréhension d’un phénomène. Le travail est autour de l’architecture des connaissances plutôt que leur prédiction. Cependant ces modèles mécanistiquespeuvent aussi  servir à  des simulations et des prédictions permettant d’évaluer des paramètres quantificatifs.

Les deux conceptions partagent les mêmes règles de conduite: test et challenge du modèle pour validation et itération. Les données servent à construire le modèle et les simulations servent à comprendre les données et réadapter le modèle.

En sciences sociales, deux méthodologies sont souvent citées  :  l’individualisme méthodologique et le holisme.  Celles-ci influent aussi le rapport des modélisateurs aux données. Une approche fondée sur les données crée des heuristiques comportementales  et pose la question de leurs liens avec les raisons d’agir  des individus. Les règles comportementales spécifiées peuvent elles-mêmes être considérées comme potentiellement évolutives et donc se posent la question de la définition de méta-heuristiques.  L’individu “cognitiviste ” est plus proche d’une approche en termes d’individualisme méthodologique.  Quelle forme de rationalité  doit-on supposer pour les individus et quels liens peut-on faire entre modèles cognitifs, données observées et heuristiques comportementales?  L’économie expérimentale et la neuro-économie s’appliquent à comprendre l’individu dans un contexte d’interactions  sociales. La simple agrégation des  comportements observés en laboratoire pour comprendre un phénomène collectif ne va pas de soi par l’importance des interactions qui crée autant de contexte particulier dans lequel se prennent les décisions. En retour,  les observations au  niveau des individus dans des contextes hautement contrôlés  posent la question de  leur généralisation à des contextes réels et complexes.

Dans les modèles top-down un des enjeux est d’avoir une conception servant de support de discussion et de communication au sein de communautés diverses. La communication est une difficulté permanente dans les travaux interdisciplinaires, il existe des solutions pour y remédier qui dépendent de la perception et formation de chacun. Différentes spécifications plus ou moins précises peuvent être mise en œuvre,  elles vont de la spécification des entités et de leurs principales relations d’interdépendance, à l’usage de formalisme mathématiques, déterministe, probabilistes, stochastiques. Ainsi, les langages graphiques permettent un haut niveau d’abstraction pour les modèles, et facilitent la communication entre disciplines, sans nécessairement aller jusqu’à la simulation du système complexe modélisé.  Ils permettent une interopérabilité entre modèle par exemple continus et discrets, et l’exécution de processus en parallèle. Les formalismes mathématiques et informatiques permettent de spécifier formellement les dépendances entre les entités et donc d’aller jusqu’à la simulation  (Efroni et al 2005).

Succès:

La refactorisation de différents modèles continu ou  discret (ODE, agents) avec des processus parallèles, sous langage de haut niveaux exécutable,  et générant également les équations mathématiques  et state machine du  modèle (McEwan  et al. 2011,  Bersini et al.  2012, Thomas-Vaslin et al. 2013).

Enjeux sociétaux%?

Un exemple d’analyse computationnelle des modèles comme boîtes noires

Prendre le modèle comme une boîte noire, ici, c’est le voir comme une fonction qui prend des entrées et renvoie des valeurs de sorties, et étudier celles-ci sans regarder la manière dont elle est écrite. L’intérêt de l’approche boîte noire est de développer des méthodes génériques car indépendantes de l’implémentation particulière du modèle. En suivant cette approche, on peut aborder plusieurs questions qui se posent au cours d’un travail de recherche qui fait intervenir un modèle, et qui se ramènent à un problème d’exploration d’espace de paramètres.

Une première question est l’étalonnage (ou la calibration) du modèle: on estime les valeurs de paramètres avec lesquels le modèle reproduit une observation qu’on a fait par ailleurs sur le système d’origine. 

Dire qu’un modèle reproduit des données récoltées par ailleurs sur des phénomènes ne permet pas a priori de généraliser à d’autres phénomènes. Pour accroître la confiance en un modèle, on peut le mettre à l’épreuve en recherchant les différentes valeurs de sortie qu’il peut produire, et ainsi voir s’il en existe qui sont en contradiction avec les observations du système d’origine ou des connaissances théoriques. Ces valeurs de sortie inattendues donnent au modélisateur l’occasion de revenir sur son modèle et de se demander si les hypothèses qu’il y a inscrites sont justes.

Succès

Depuis 2008, la plateforme OpenMOLE est développée en collaboration avec des chercheurs de différentes disciplines pour piloter des expériences avec des modèles en simulation. Elle a été utilisée dans la production de plusieurs résultats scientifiques, pour:

  • étalonner un modèle de système de ville (Shmitt et al. 2015)
  • étudier le rôle de chaque paramètre d’un modèle pour reproduire des données (Reuillon et al 2015)
  • étudier la diversité des sorties d’un modèle de système de ville (Chérel et al 2015)
  • Et d’autres travaux… (TODO lien publications openmole)

Encadrer les modèles par des principes théoriques

La validité d’un modèle ne dépend pas que de son comportement en termes de boite noire. Une approche complémentaire consiste à baser l’écriture et l’interprétation de la formalisation des modèles sur des principes théoriques explicites, possédant une certaine généralité. Cette approche a plusieurs avantages. Elle facilite l’interdisciplinarité au sens où la discussion critique de ces principes est souvent plus aisée que celle de la formalisation mathématique de ces modèles. De plus, elle permet dans une certaine mesure de standardiser la manière d’élaborer les modèles, ou dans le cas contraire de comparer les hypothèses de modèles ayant des prémisses différentes.

Succès:

  • Comportement des cellules

Un exemple d’application est la manière dont est modélisé le comportement de cellules dans un contexte tissulaire. Ainsi, on peut supposer que l’état par défaut des cellules est la prolifération, auquel cas, l’écriture d’un modèle se focalisera sur l’explicitation des causes contraignant cet état par défaut, et pouvant conduire, dans certains cas à la quiescence (Montévil et al 2016). Cette voie nous semble mériter une attention particulière pour la modélisation dans des disciplines ne possédant pas de théorie générale encadrant la modélisation (biologie des organismes, systèmes sociaux).

Remplacer des relations heuristiques par des relations causales

L’élaboration de modèles s’intéressant à des objets nouveaux est souvent confronté à une connaissance insuffisante de la situation empirique. Il est alors souvent plus fructueux de proposer néanmoins des modèles en utilisant des relations heuristiques le cas échéant, puis des les élucider expérimentalement.

Succès:

  • Modélisation de la dynamique des lymphocytes du système immunitaire (Thomas-Vaslin 2015)

La conceptualisation de modèles expérimentaux et la modélisation et simulation de la dynamique de prolifération et sélection des lymphocytes T ont été proposées avec des approches de biologie de systèmes (Thomas-Vaslin, et al 2013a). Ces approches ont déjà permis de montrer que la dynamique de systèmes biologiques complexes comme le système immunitaire est très variable selon le contexte, et hétérogène  selon les type cellulaires, et sous l’influence des niveaux inférieurs et supérieur d’organisation. La conceptualisation initiale de cette dynamique des lymphocytes a été réalisée avec des boîtes “noires “ (Thomas-Vaslin et al 2008, Thomas-Vaslin et al. 2012). Puis des boites “blanches”, sous forme de diagramme de transition et les simulations validées sur des observations expérimentales ont été menées. Quand on augmente la granularité de l’observation et que l’on explore le temps (âge de l’organisme et les stades de différenciation des cellules), l’espace (les cellules évoluent et migrent dans différents tissus) et l’origine génétique des organismes, on découvre alors l’hétérogénéité et complexité du comportement des lymphocytes (Vibert et al 2017).

Des modèles pour la communication

L’utilisation de langage graphiques

Succès:

En biologie des systèmes, ce langage graphique a déjà permis une interopérabilité de modèles ODE (Ordinary Differential Equation) continus et déterministes, par exemple permettant de modéliser des populations, et des modèles discret, stochastiques, tels des automates cellulaires, avec des agents.

Par exemple, la différenciation, la sélection et la régulation des lymphocytes peut ainsi être modélisée à l’aide de diagramme de transition. Cela a permis aussi la refactorisation de modèles hétérogènes déjà publiés (McEwan et al 2011, Bersini et al 2012,Thomas-Vaslin et al 2013) mais aussi  l’exécution à  partir du  code sous jacent et des simulations dans différents contextes.

Défis:

  • La génération du code automatiquement à partir des graphes de haut niveau permettrait de proposer des interfaces afin que les biologistes puissent plus directement spécifier leur modèles et leur environnement.
  • L’intégration de substances et de processus depuis des ontologies ou bases de connaissances permettrait de faciliter la standardisation et l’articulation de modèles à différents niveaux. Par exemple en biologie on pourrait s’appuyer sur des ontologies décrivant le contexte physio-pathologique d’un organisme, le contexte anatomique, les types de cellules, les gènes et protéines comme cela est déjà utilisé dans le text mining pour l’extraction automatique de connaissance de la littérature (Bedhiafi et al) mais aussi les processus qui permettent les interactions entre ces entités.

Le problème des boîtes noires:

Lorsqu’un modèle est un succès se traduisant par un grand nombre d’utilisateurs, il conduit souvent à un problème d’opacité. Les mécanisme du modèles, ses hypothèses ne sont plus disponibles et accessibles aux utilisateurs, il devient une “boite noire”. Les conséquences des “boites noires” sont diverses et sont un grand enjeux des prochaines années. TEXTE MAUD.

  • Utilisation
  • Transfert à d’autres objets (territoires, type cellulaire, etc..)
  • Adaptation du modèle aux nouvelles connaissances

Le problème de la reproductibilité

L’utilisation de l’ordinateur concerne maintenant tous les domaines scientifiques. Les développements de modèles de plus en plus complexes (prises en comptes des interactions non linéaire entre agents), l’utilisation de logiciels ou progiciels dédiés ou non, le traitement de bases de données hétérogènes posent la question de la reproductibilité des résultats obtenus. Dans le domaine des sciences économiques, des études pointent la difficulté de reproduire des résultats publiés (William et al 1986, McCullough 2006). Cette constatation dépasse probablement ce seul cadre. La rapidité du développement des codes de calcul accroît les erreurs logiques ou numériques. Pour répondre à cette question et lever les doutes quant aux résultats publiés, des initiatives ont été prises. C’est le cas de Run My Code, site compagnon de revues qui permet aux auteurs de déposer leur codes et jeux de données afin qu’ils puissent être rejouées à la demande, ou encore la création de la revue ReScience qui encourage la réplications de résultats déjà publiés. Récemment, l’UMS Cascad, Agence de certification des publications scientifiques propose que les résultats de publications soient certifiées à un moment du processus d’évaluation des articles.

La question de la reproductibilité est aussi liée à celle de la résilience des codes dans le temps. Ces questions ou pratiques, si elles sont transversales, concernent évidemment aussi les résultats des modèles portant sur les systèmes complexes.

Défis

  • Les modèles devraient être validés sur des set de données indépendantes et d’observation expérimentales bien contextualisées, ou extraites automatiquement de la littérature selon leur contexte. Ceci nécessite un couplage du text mining et data mining et la définition du contexte précis, pour alimenter les modèles dynamiques.

Commentaires : Il est sans doute important de faire une distinction entre des modèles complexes destinés à être réutilisés pour de la prédiction   et des modèles supportant une hypothèse de recherche mais n’ayant pas vocation à réutilisés de manière intensive. Dans le premier cas, il est évident que des moyens sur le long terme doivent être mis pour faciliter la mise à jour du modèle, sa maintenance opérationnelle et son évolution par des tiers (accès pour une communauté). Dans le second cas même si cela serait souhaitable il semble difficile de garantir la reproductibilité sur le long terme et vérifier la reproductibilité dans un délai raisonnable autour de la publication du modèle semble plus réaliste.

Les questions qui se posent me semblent être :

Qu’est-ce qui serait utile pour faciliter la maintenance opérationnelle des codes, leur actualisation. Que pourrait proposer les ISC dans ce cadre?

Défis théoriques pour la modélisation

Commentaire:  je pense que toute cette partie (organisation, historicité, rapport tout partie,  émergence etc…) devrait être en tout premier, avant les modèles numériques et la validation: la théorie et la conceptualisation de modèles de systèmes complexes et de leurs caractéristiques devrait être en amont de la modélisation graphique, mathématique ou informatique qui  sont des formalismes d’exécution.

La problématique de l’organisation (auto-organisation) des systèmes vivants doit être abordée de façon théorique, notamment afin d’encadrer les modélisations. Questionner la forme et les caractères majeurs d’une organisation, quelle que soit ses échelles, doit permettre de mieux comprendre le comportement de telles organisations. Les organisations biologiques sont caractérisés par une historicité et une relation à leur extérieur qui sont problématiques. Interroger la variation, l’ordre, le désordre, la robustesse, la résilience, la stabilité toute relative, la fragilité, le passage d’un niveau à l’autre et l’émergence permettrait de concevoir aussi la désorganisation et le vieillissement au cours du temps, les points de rupture, l’effondrement et la disparition de ces systèmes ouverts, dissipatifs d’énergie.

La proposition de cadres théoriques mais aussi de modèles mathématiques et/ou informatiques permettant de rendre compte des changements de telles organisations pourrait être proposés.

Comprendre l’historicité dans les systèmes complexes

Les objets biologiques sont le produit d’une histoire évolutive et développementale. L’historicité de l’objet d’étude concerne aussi les sciences sociales, par exemple l’étude de paysages en géographie ou le développement technologique des biens échangés en économie. L’historicité existe dans certains modèles mathématiques sous la forme d’une dépendance au chemin parcouru.  Cependant, un certain nombre d’auteurs défendent l’idée suivant laquelle l’historicité des domaines sus-nommés requiert un traitement mathématique et théorique particulier (Kauffman 2002, 2016, Montévil 2016). Les conséquences de l’historicité en biologie apparaissent suivant deux plans. i) les objets vivants actuels sont le résultat d’une histoire longue de sorte que ses parties ne sont pas quelconques mais ont au contraire souvent des comportements très particuliers, fonctionnels. En particulier, ces objets historiques “intériorisent” les contextes qu’ils rencontrent au cours de leurs histoires et ces contextes sont alors décisifs pour comprendre leurs structures. Il s’agira alors de saisir toutes les conséquences de cette situation. Il s’ensuit une diversité qualitative des objets. ii) les changements de ces objets incluent l’apparition de nouveauté qualitative, pouvant typiquement nécessiter des changements d’espaces de descriptions et de règles les régissant. Cette question est précisément celle de l’apparition de nouveauté dans les systèmes biologiques, notion centrale en évolution et durant l’ontogénie. Elle est aussi pertinente pour l’économie, par exemple, comme innovation technologique. Le cadre épistémologique, théorique et mathématique nécessaire pour comprendre ce genre de phénomènes demande à être développé.

Défis:

  • Investiguer les conséquences de l’historicité des systèmes complexes où cet aspect est pertinent (systèmes sociaux, systèmes biologiques, écosystèmes…).

Rapports tout-partie

Claude Bernard note que “si l’on décompose l’organisme vivant en isolant ses diverses parties, ce n’est que pour la facilité de l’analyse expérimentale, et non point pour les concevoir séparément. En effet, quand on veut donner à une propriété physiologique sa valeur et sa véritable signification, il faut toujours la rapporter à l’ensemble et ne tirer de conclusion définitive que relativement à ses effets dans cet ensemble” (Bernard 1865). Cet impératif théorique ne se retrouve que très peu dans la modélisation mathématique des parties d’organismes. Elle a par contre été l’objet de plusieurs développements en biologie théorique, et correspond toujours à une interdépendance particulière entre les parties d’un être organisé tel qu’un organisme ou une cellule. Elle apparaît par exemple comme systèmes métabolisme/réparation (M, R) chez Rosen (1991), autopoièse chez Maturana et Varela (1974), et ensembles autocatalytiques et cycles travail/contrainte chez Kauffman (2012). Elle a été reformulée récemment comme clôture entre contrainte (la clôture, en référence à Piaget, correspondant à une circularité et allant toujours de pair avec l’ouverture thermodynamique du système, Montévil et al 2015, Moreno et al 2015, Mossio et al 2016). Ces approches pourraient ainsi permettre d’implémenter la remarque théorique de Claude Bernard dans la méthodologie de modélisation en biologie. Elles sont aussi essentielles pour comprendre l’émergence de la vie.  De manière générale, rendre ces approches opérationnelles pour la modélisation « de tous les jours » en biologie est un enjeux théorique majeur.

Articulation de modèles à différents niveaux, émergence

La modélisation devrait pouvoir intégrer différents niveaux d’organisation du vivant, des cellules aux organismes, aux écosystèmes et systèmes sociaux. Par exemple on cherchera à intégrer des modèles moléculaires, cellulaires, de comportement de populations de cellules ou d’organismes dans des écosystèmes. Dans le domaine de la modélisation des socio-écosystèmes, le dialogue interdisciplinaire a aussi été promu à l’aide de ces modèles qui vont permettre une intégration de la théorie à la programmation et simulation (Duboz et al 2013).

Défis:

Le défi est maintenant d’intégrer différents niveaux [ lien roadmap multiniveaux] et pouvoir simuler la percolation entre les échelles de temps et d’espace dans de tels modèles qui permettent de modéliser l’émergence de liens complexes, de comportement collectifs et des propriétés émergentes ou  immergentes.

Par exemple, dans le système immunitaire on voudrait pouvoir intégrer les modèles et simulations dans une plate forme,  car des niveaux différents sont concernés:

  • Des comportements collectifs et liens complexes émergents qui apparaissent pour rendre compte de la mémoire dynamique ou de la tolérance dominante qui sont des phénomènes supraclonaux (Coutinho 2000).
  • Ces hypothèses de régulation de systèmes biologiques par des boucles de régulation positives et négatives ont récemment été développées pour simuler la régulation de la réponse immunitaire (Almeida et al 2012).
  • Simuler des perturbations telles que le vieillissement, des maladies auto-immunes, inflammatoires de plus en plus fréquentes.
  • Cela permettrait de simuler des traitements tels que proposés précédemment (Cohen et al 2014). De tels traitements régulateurs permettent de re-connecter ce réseau dynamique complexe (Klatzmann, D., & Abbas, A. K. (2015), plutôt que de le détruire comme avec les traitements immunosuppresseurs de chimiothérapie ou anti-inflammatoires, encore classiquement utilisés dans des pathologies (Thomas-Vaslin et al. 2015) et la construction des répertoires immunitaires (Thomas-Vaslin et al 2014).

Cette perspective permettrait de prévenir des pathologies ou de proposer de nouvelles thérapies permettant d’augmenter la résilience aux perturbations et au vieillissement.

Commentaires : Pour la compréhension mais aussi la prédiction, il peut être nécessaire de coupler des modélisations opérant à différentes échelles ou niveaux d’organisation. Il en va ainsi dans la modélisation du vivant, de l’infra-cellulaire à la population cellulaire, d’écosystèmes ou encore de systèmes de production intégrant risques épidémiologiques et comportements économiques.

Peut-etre une reference :

Moslonka-Lefebvre, Mathieu, et al. “Epidemics in markets with trade friction and imperfect transactions.” Journal of theoretical biology 374 (2015): 165-178.

 

Defis : Amplifier les efforts consentis pour croiser les niveaux de modélisation, partager les savoir-faire et expériences

Pour ce qui est de l’exemple en immunologie, homogénéiser les items, montrer plus clairement les niveaux croisés.

Peut-etre une reference appropriée?
Go, Natacha, et al. “Integrative model of the immune response to a pulmonary macrophage infection: what determines the infection duration?.” PloS one 9.9 (2014): e107818.

Application : les systèmes organisés face aux perturbations, le défi d’une évaluation globale.

Le monde actuel voit le nombre et la puissance des techniques, en particulier industrielles, croître de telle manière qu’un changement qualitatif radical est nécessaire dans l’évaluation des effets systémiques de ces techniques. La méthode analytique classique, qui analyse les interactions locales entre objets simplifiés dans une relation causale linéaire n’est pas adéquate pour prédire le comportement de systèmes complexes (comme un écosystème, la biosphère, un système vivant…) en réponse à des perturbations multiples et simultanées. Or, il s’avère que nous sommes maintenant en train de perturber des systèmes qui permettent notre existence et donc de compromettre notre existence. Dans le cadre d’une approche tenant compte de la complexité des objets naturels, l’objectif n’est pas de prédire la “réponse” d’un système naturel à une perturbation, mais de chercher à savoir si cette perturbation (ou cet ensemble de perturbations) peut entraîner la désorganisation (ou le changement d’organisation) du système. C’est ce qui a été appelé “évaluation globale”, en réponse à un appel à projets de l’État français (programme “EvaGlo”). Parmi les pistes retenues, l’une, particulièrement fondamentale, concerne le concept d’organisation, que nous considérons dans le contexte d’auto-organisation ou d’autopoïèse. Un certain nombre de caractères concernant une forme, une organisation (abstraites) doivent faire l’objet de revues bibliographiques et d’enrichissements théoriques, via des approches formelles (modélisation notamment) mais aussi philosophiques. On peut déjà citer: la relation au hasard (une organisation se distingue essentiellement d’un assemblage aléatoire équiprobable, tout en étant issue du hasard et en s’en nourrissant), les principes fondamentaux de la restriction des possibles et de la permissivité systémique, l’historicité des objets complexes, … il s’agit aussi d’investiguer les propriétés des organisations existantes telles que les notions d’ordre/désordre, robustesse, stabilité, résilience, vulnérabilité, percolation, émergence, niveaux d’organisation et modes de franchissement (ou non) de ces niveaux (dépendance ou indépendance de ces niveaux). Ce champ de recherche devrait permettre une première reconstruction des problématiques d’évolution et de vieillissement des systèmes, de leur effondrement, des points de rupture qui les caractérisent ainsi que des signes annonciateurs permettant de prédire la disparition d’une organisation donnée.

Références

Almeida, A. R., Amado, I. F., Reynolds, J., Berges, J., Lythe, G., Molina-Paris, C., & Freitas, A. A. (2012). Quorum-Sensing in CD4(+) T Cell Homeostasis: A Hypothesis and a Model. Front Immunol, 3, 125. doi:10.3389/fimmu.2012.00125

Bedhiafi, W., Thomas-Vaslin, V., Benammar Elgaaied, A., & Six, A. (submitted). OntoContext, a new python package for gene contextualisation based on the annotation of biomedical texts.

Bernard, C. (1865). Introduction à l’étude de la médecine expérimentale. Paris : Baillière
Kauffman, S. (2002). Investigations. Oxford University Press, USA

Bersini, H., Klatzmann, D., Six, A., & Thomas-Vaslin, V. (2012). State-transition diagrams for biologists. PLoS ONE, 7(7), e41165. doi:10.1371/journal.pone.0041165

Chérel, G, Cottineau, C, Reuillon, R (2015) Beyond Corroboration: Strengthening Model Validation by Looking for Unexpected Patterns. PLoS ONE 10(9): e0138212. https://doi.org/10.1371/journal.pone.0138212

Cohen, I. R. (2014). Activation of benign autoimmunity as both tumor and autoimmune disease immunotherapy: A comprehensive review. J Autoimmun. doi:10.1016/j.jaut.2014.05.00

Coutinho, A. (2000). Germ-line selection ensures embryonic autoreactivity and a positive discrimination of self mediated by supraclonal mechanisms. Semin Immunol, 12(3), 205-213; discussion 257-344.

Dewald, W., Thursby, J. and Anderson, R., 1986, The American Economic Review, 76(4), pp. 587-603;

Duboz R., Müller J.P.. 2013. In : Eds. Franck Varenne & Marc Silberstein. Modéliser & simuler : épistémologies et pratiques de la modélisation et de la simulation. (Tome 1, volume 2). Paris : Editions Matériologiques, p. 865-896. (Sciences &, Philosophie).

Efroni, S., Harel, D., & Cohen, I. R. (2005). Reactive animation: Realistic modeling of complex dynamic systems. Computer, 38(1), 38–4)

Kauffman, S. (2002). Investigations. Oxford University Press, USA

Kauffman, S. A. (2016). Humanity in a Creative Universe. Oxford University Press

Klatzmann, D., & Abbas, A. K. (2015). The promise of low-dose interleukin-2 therapy for autoimmune and inflammatory diseases. Nat Rev Immunol, 15(5), 283-294. doi:10.1038/nri3823

McCullough, B., McGreary, K. and Harrison, T., 2006, “Lessons from the JMCB Archive,” Journal of Credit and Banking, 38(4),pp. 1093-1108

McEwan, C., Bersini, H., Klatzmann, D., Thomas-Vaslin, V., & Six, A. (2011). A computational technique to scale mathematical models towards complex heterogeneous systems: Luniver press. ISBN.

Montévil, M. & M. Mossio (2015). « Biological organisation as closure of constraints ». In : Journal of Theoretical Biology 372, p. 179–191.

Montévil, M., Speroni, L., Sonnenschein, C., Soto, A.. « Modeling mammary organogenesis from biological first principles : Cells and their physical constraints ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 58–69. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.004

Montévil, M., Mossio, M., Pocheville, A., Longo, G. « Theoretical principles for biology : Variation ». In : Progress in Biophysics and Molecular Biology 122.1 (2016). p. 36–50. issn : 0079-6107. doi : 10.1016/j.pbiomolbio.2016.08.005

Moreno, A., & Mossio, M. (2015). Biological autonomy. History, Philosophy and Theory.

Mossio, M., M. Montévil & G. Longo (2016). « Theoretical principles for biology : Organization ». In : Progress in Biophysics and Molecular Biology 122.1. p. 24–35. issn : 0079-6107. doi :
10.1016/j.pbiomolbio.2016.07.005

Reuillon, R., Schmitt, C., De Aldama, R. and Mouret, J.-B. (2015) ‘A New Method to Evaluate Simulation Models: The Calibration Profile (CP) Algorithm’ Journal of Artificial Societies and Social Simulation 18 (1) 12. doi: 10.18564/jasss.2675

Rosen, R. (1991). Life itself : a comprehensive inquiry into the nature, origin, and fabrication of life. Columbia U. P. (cf. p. 8, 16).

Schmitt, C., Rey-Coyrehourcq, S., Reuillon, R., Pumain, D.. Half a billion simulations: evolutionary algorithms and distributed computing for calibrating the SimpopLocal geographical model. 2015. <hal-01118918>

Thomas-Vaslin, V., Altes, H. K., de Boer, R. J., & Klatzmann, D. (2008). Comprehensive assessment and mathematical modeling of T cell population dynamics and homeostasis. J Immunol, 180(4), 2240-2250.

Thomas-Vaslin, V., Six, A., Pham, H. P., Dansokho, C., Chaara, W., Gouritin, B., . . . Klatzmann, D. (2012). Immunodepression & Immunosuppression during aging. In M. B. Portela (Ed.), Immunosuppression (pp. 125-146). Brazil: InTech open acces publisher

Thomas-Vaslin, V., Six, A., Ganascia, J. G., & Bersini, H. (2013a). Dynamical and Mechanistic Reconstructive Approaches of T Lymphocyte Dynamics: Using Visual Modeling Languages to Bridge the Gap between Immunologists, Theoreticians, and Programmers. Front Immunol, 4, 300. doi:10.3389/fimmu.2013.00300

Thomas-Vaslin, V., Six, A., Bellier, B., & Klatzmann, D. (2013b). Lymphocyte Dynamics and Repertoires, Biological Methods, Modeling. In W. Dubitzky, O. Wolkenhauer, K.-H. Cho, & H. Yokota (Eds.), Encyclopedia of Systems Biology (pp. 1145-1149): Springer New York.)

Thomas-Vaslin, V. (2014). A complex immunological idiotypic network for maintenance of tolerance. Front Immunol, 5, 369. doi:10.3389/fimmu.2014.00369

Thomas-Vaslin, V. (2015). Complexité multi-échelle du système immunitaire: Evolution, du chaos aux fractales. In E. Matériologiques (Ed.), Le vivant critique et chaotique (pp. 333). Paris.

Varela, F., Maturana, H., & Uribe, R. (1974). Autopoiesis: The organization of living systems, its characterization and a model. Biosystems, 5, 187 – 196. doi:10.1016/0303-2647(74)90031-8.

Vibert, J., & Thomas-Vaslin, V. (2017). Modelling T Cell Proliferation: Dynamics Heterogeneity, Depending on Cell Differentiation, Age, and Genetic Background. PLoS Comput Biol, 13 (3), e1005417. doi:10.1371