28/12/2014
Les "dessous" de l'informatique
La recherche française se distingue par des succès dans la vérification "formelle" des programmes informatiques !
Domaine peu connu, mais particulièrement utile dans les logiciels "temps réel" (automobile, avion, navire...)
L'algorithmique est un domaine, où les français brillent aussi.
Gérard Berry souligne nos retards dans l'apprentissage de l'informatique à l'Ecole... un vrai désastre, qui stigmatise la qualité de notre corps enseignant !
Avec Google et Facebook, le public prend la mesure de la puissance de l’information
Le Figaro du 27 décembre 2014
Dans le cadre d’un partenariat avec l’Académie des sciences, l’informaticien Gérard Berry fait le bilan dans son domaine en 2014.
Cyrille Vanlerberghe Gérard Berry : « J’espère qu’il y aura une prise de conscience réelle du fait que l’informatique est une science autonome parmi les autres, pas juste un outil. »
Gérard Berry a propulsé l’informatique au premier plan en 2014, en remportant cette année la plus haute distinction scientifique française, la médaille d’or du CNRS. Actuellement professeur au Collège de France, il a entre autres développé des outils pour les logiciels embarqués de haute sécurité, comme ceux qui servent de pilotage aux avions modernes (Airbus, Rafale, etc). Il travaille aussi sur la problématique émergente de l’Internet des objets. Des multitudes d’objets variés, allant de la voiture à la maison ou au pacemaker, vont ainsi être connectés les uns avec les autres.
LE FIGARO. - Quel est pour vous l’événement de l’année en informatique ?
Gérard BERRY. - J’ai l’impression que 2014 a été une année d’alerte pour le grand public, qui commence à se rendre compte du pouvoir extraordinaire que prennent les gens qui détiennent l’information. On le voit avec des réactions à des groupes comme Google et Facebook, et des demandes de droits à l’oubli par exemple. C’est un changement salutaire car jusqu’à maintenant les gens pensaient que tout ça n’avait pas d’importance. Ils n’avaient pas compris la puissance de l’information.
L’information, ce n’est pas comme la matière et l’énergie : ça se stocke facilement, ça se déplace très vite et c’est extrêmement puissant. C’est en fait un levier bien plus puissant que les leviers mécaniques. On a fermé trop longtemps les yeux sur la force que donne le pouvoir de récolter, de détenir et d’analyser l’information dans la problématique appelée « big data ». L’un des signes positifs de la prise de conscience de cette année fut la mise en ligne par le gouvernement d’un site Internet qui recueille toutes les données publiques pour les mettre à disposition de tous. Toute cette information est une mine, et les gens qui font du « data mining » peuvent y découvrir des choses extrêmement intéressantes. À condition bien sûr de savoir chercher.
Quels sont selon vous les domaines de recherche émergents en ce moment ?
Il y a beaucoup de changements dans l’algorithmique, qui étudie les méthodes de calcul formant le cœur de l’informatique. Les algorithmes sont partout. Ils permettent au GPS de trouver le moyen d’aller du point A au point B en analysant très rapidement quelques centaines de milliers de routes possibles. Ils sont à la base des moteurs de recherche, comme celui de Google. Freiner avec une voiture fait appel à un algorithme, pour éviter de bloquer les roues, par exemple. Avant, on s’intéressait seulement à la complexité des algorithmes dits difficiles. Désormais, on s’intéresse tout autant aux algorithmes « faciles ». Ce sont des méthodes permettant de calculer très vite des résultats sur de très grandes masses de données, avec une précision qui n’est pas forcément grande. C’est le genre de processus qu’on rencontre dans la vie. Un petit enfant apprend vite en faisant peu d’expériences. Son cerveau utilise probablement des algorithmes mentaux efficaces mais subtils. Il y a aussi beaucoup de travail sur les algorithmes probabilistes, utilisant des tirages au sort pour explorer l’information. Pour certains types de problèmes, ils sont beaucoup plus efficaces que des méthodes exactes. Ils peuvent, par exemple, trouver des régularités et des corrélations dans des données sans regarder toute l’information.
Avez-vous d’autres exemples d’avancées récentes ?
Un grand succès scientifique, et pratique, cette année, c’est ce qui a été fait autour du logiciel Coq, un système français de vérification formelle. En 2013, Georges Gonthier, du laboratoire commun Inria-Microsoft Research, a démontré avec Coq le théorème de Feit-Thompson, sur la classification des groupes d’ordre impair. Sa preuve était de taille extrême en mathématiques, car elle faisait 255 lourdes pages. Elle est maintenant entièrement vérifiée en machine. L’Institute of Advanced Studies de Princeton a ouvert un centre consacré à ce domaine avec deux médailles Fields. Mais un système de vérification comme Coq sert aussi à vérifier des programmes informatiques dont la sûreté est critique. Par exemple, une erreur dans un compilateur (un programme qui traduit le langage humain en langage machine) peut se propager dans tous les programmes qu’il traite. Le test classique de programmes permet d’y trouver des bugs, mais jamais de prouver qu’il n’y en a pas, car on n’a pas d’information sur ce qu’on n’a pas testé. L’idée centrale de la vérification formelle est de prouver mathématiquement et automatiquement la correction du fonctionnement ou au moins l’absence de certains bugs. Cela a été fait par Xavier Leroy et son équipe pour vérifier formellement un compilateur du langage C (langage de programmation informatique).
Un autre domaine particulièrement remarquable en ce moment, enseigné cette année au Collège de France par Nicholas Ayache, est l’imagerie médicale. C’est un bon exemple du changement mental apporté par l’informatique. Avant, on faisait des images physiques que l’informatique ne servait qu’à améliorer. Maintenant, l’image devient un élément d’un « patient virtuel ». Les atlas anatomiques sont devenus de grands recueils 3D construits statistiquement à partir d’un grand nombre de patients. Quand un patient arrive, on va le classer par rapport à ces statistiques pour comprendre quelles sont ses particularités, et adapter ses traitements. Dans les appareils médicaux, le coût des algorithmes devient d’ailleurs égal à celui du matériel.
Et pour l’avenir, qu’attendez-vous en 2015 ?
Pour 2015, j’espère qu’il y aura une prise de conscience réelle du fait que l’informatique est une science autonome parmi les autres, pas juste un outil. Elle est essentiellement une façon de penser, un nouveau schéma mental. Au XXe siècle, en dehors des mathématiques, la science s’intéressait à la matière et à l’énergie. Cela a donné de grands succès, de la physique à la biologie. Maintenant, il faut se rendre compte de l’importance de l’information. Pour prendre un exemple pratique, quand on veut produire de l’énergie dans un moteur, on y injecte de la matière, de l’essence. Mais la clé pour être efficace, c’est de définir comment injecter cette essence, au moment exact et avec la bonne quantité. C’est cette information, gérée par de l’informatique, qui a permis de beaucoup réduire la consommation des moteurs.
Il faut absolument que l’informatique soit enseignée à l’école, comme les autres matières, le français, les mathématiques, la physique et la biologie. J’y travaille avec des contacts au sein de l’Éducation nationale. Cet apprentissage est indispensable, car la logique informatique n’est pas contenue dans les matières précédentes. Si on ne connaît pas cette logique spécifique, on n’est que consommateur de ce qui se fait ailleurs. Or les vrais acteurs du monde ne sont pas les utilisateurs, mais ceux qui conçoivent les nouveaux outils.
Les commentaires sont fermés.