Intelligence ubiquitaire
Intelligence ubiquitaire
Edition 2017
Contributeurs : Marc Schoenauer (INRIA)
Mots clés : réseaux pair à pair (P2P), réseaux ad hoc, observations des phénomènes spatio-temporels multi-échelles (réseaux trophiques, agriculture, météorologie, etc.), algorithmes épidémiques, modèles computationnels et théorie de l’information, calcul spatial, systèmes d’auto-conscience, sens commun, confidentialité.
Introduction
La technologie actuelle permet et demande une rupture dans les modes d’acquisition et de traitement des informations, passant de l’approche monolithique à la mise en réseau d’un grand nombre d’unités de calcul éventuellement hétérogènes. Cette nouvelle approche, reposant sur la distribution du traitement et du stockage, doit permettre d’ajouter de l’intelligence aux artefacts qui constituent désormais notre environnement et de repousser les limites de l’informatique classique (essoufflement de la loi de Moore).
Cet objectif à long terme demande :
- de résoudre les problèmes d’organisation physique et de communications (routage et contrôle distribué),
- de mettre au point des mécanismes d’auto-régulation et de contrôle,
- de concevoir de nouveaux modèles de calcul,
- de spécifier des environnements de programmation adaptative (apprentissage, rétroaction et sens commun).
Les limites technologiques du modèle de calcul séquentiel de von Neumann semblent aujourd’hui atteintes et exigent de nouveaux paradigmes pour répondre à la demande de puissance computationnelle émanant de nos sociétés modernes. Au cœur de ces nouveaux paradigmes figure la distribution des tâches entre les architectures décentralisées (par exemple, les processeurs multi-cœurs, les grilles de calcul). Traiter la complexité de tels systèmes est incontournable pour répondre aux objectifs de passage à l’échelle et de robustesse dans un cadre décentralisé. Par ailleurs, il est maintenant technologiquement possible de disséminer des capteurs et des moyens de calcul partout où ils sont nécessaires. Cependant, leur exploitation nécessite leur mise en réseau ; pour des raisons physiques, chaque élément ne peut se connecter qu’à ses proches voisins (réseau ad hoc). Dans d’autres contextes, les réseaux pair a pair reposent également sur une visibilité restreinte de l’ensemble des éléments. Dans les deux cas (réseaux ad hoc et P2P), l’enjeu est de pouvoir exploiter au mieux les informations disponibles sur l’ensemble du réseau. Les défis proposés ici concernent l’ensemble de ces nouveaux systèmes computationnels ; on retrouvera certains enjeux des réseaux sociaux ou écosystémiques également traités dans cette feuille de route.
Grands défis
- Conception locale pour les propriétés générales (routage, contrôle et confidentialité)
- Calcul autonome
- Nouveaux modèles computationnels
- Nouveaux paradigmes de programmation : création et ancrage des symboles
2.9.1. Conception locale pour les propriétés générales (routage, contrôle et confidentialité)
Routage, contrôle et confidentialité
Pour mieux concevoir et gérer les grands réseaux, nous devons comprendre comment émergent les comportements généraux alors même que chaque élément prend des décisions au niveau local avec une vision très restreinte du système dans sa totalité. Un modèle de base est celui des algorithmes épidémiques, dans lesquels chaque élément échange des informations avec des éléments voisins. Un enjeu de conception repose sur la nature des informations échangées (prenant notamment en compte les contraintes de confidentialité) et sur la sélection des voisins correspondants qui conditionnent le comportement général du système.
Méthodes : théorie de l’information, systèmes dynamiques, physique statistique, algorithmes épidémiques, algorithmes inspirés par le vivant.
2.9.2. Calcul autonome
Robustesse, redondance, résistance aux défaillances
L’autonomie des systèmes computationnels est une condition nécessaire pour leur déploiement à grande échelle. Les propriétés d’autonomie requises se rapprochent des propriétés du vivant : robustesse, fiabilité, résilience, homéostasie. Une difficulté est due à la taille et l’hétérogénéité de tels systèmes, qui rendent sa modélisation analytique particulièrement complexe ; de surcroît, les réactions du système dépendent du comportement dynamique et adaptatif de la communauté des utilisateurs.
Méthodes : systèmes inspirés par le vivant, systèmes d’auto-conscience.
2.9.3. Nouveaux modèles computationnels
Résolution et stockage distribué, fusion d’informations spatiales, temporelles ou multimodales, émergence d’abstractions
La mise en réseau d’un grand nombre d’unités informatiques, très souvent hétérogènes (grilles, P2P, processeurs n-cœurs) requiert une capacité de traitement gigantesque. Or, pour utiliser efficacement de telles capacités, nous avons besoin de nouveaux modèles de calcul qui prennent en compte non seulement la distribution des traitements sur des unités de faible puissance, mais aussi le manque de fiabilité de ces unités et des voies de communication. De même, la distribution des données (réseaux de capteurs, RFID, P2P) lance des défis spécifiques en termes d’intégration, de fusion, de reconstitution spatio-temporelle et de validation.
Méthodes : Algorithmes neuro-mimétiques, propagation des croyances.
2.9.4. Nouveaux paradigmes de programmation : création et ancrage des symboles
Apprentissage automatique, rétroaction et sens commun
La programmation de systèmes dédiés à l’intelligence ambiante (domotique, bien vieillir, remise en forme) doit permettre l’intervention de l’utilisateur. La spécification du comportement attendu demande un lien transparent entre les données de bas niveau disponibles et les concepts naturels de l’utilisateur (par exemple, ancrage des symboles). Par ailleurs, le programme de recherche doit être nourri par l’étude des usages ; la coévolution entre l’utilisateur et le système informatique conduit à l’apparition de systèmes hybrides complexes.
Méthodes : interface cerveau-machine, programmation par démonstration, apprentissage statistique.
Leave a Reply
Want to join the discussion?Feel free to contribute!