24/05/2013
Derrière la "toile", une histoire mouvementée !
Les enjeux de l'internet d'aujourd'hui touchent toutes les activités !
Ce phénomène est sensible, lorsqu'on est coupé de l'internet terrestre, par exemple en mer. Les communications par satellite sont tellement lentes, que l'Internet ne présente plus aucun intérêt...
La "toile", qui vient d'avoir 20 ans, était au départ un projet militaire américain de communication, résistant à une attaque nucléaire. Les différentes bases devaient conserver leurs liaisons, malgré la destruction de certaines ! Le maillage du réseau, la gestion de paquets (les datagrammes) et le protocole TCP/IP assurent ainsi la permanence des liaisons. Le réseau "Arpanet" venait de naître !
Le système "asynchrone" de l'internet a tué les liaisons synchrones, fort utilisées avant dans les réseaux d'entreprise (IBM), mais également fort cher !
L'établissement de plusieurs standards, tels le HTML, le Javascript, la compression d'image,JPEG, la généralisation d'un code de caractères universel, l'UTF8 ont participé à l'extension de l'utilisation du nouveau réseau, en multipliant les applications les plus diverses...
De nombreuses innovations ont amélioré les faiblesses du système asynchrone, qui ne permettent pas de maintenir une liaison interrompue, ni d'identifier avec certitude le correspondant. Les Etats Unis, malgré des revendications des européens, ont gardé la gouvernance du système avec la gestion des "domaines primaires".
Le protocole TCP/IP a gagné tous les périphériques de l'Internet et même aujourd'hui les utilisateurs de la 4G. Les prix on tellement dégringolé, qu'une clé "4G" vaut aujourd'hui une vingtaine d'euros !
La grande "faiblesse" de la Toile est d'offrir à tous (par le biais d'un opérateur) un système de transmission presque gratuit. Dès lors, les communications de tout poil ont envahi les "tuyaux" devenus toujours insuffisants : image, vidéo, phonie, informations techniques...et en conséquence la fabrication des nouveaux terminaux (tablettes, Smartphones et autres techno-gadgets) ne propose plus de mémoire locale, au profit d'une interconnexion continue...
Le grand avantage de la Toile, face aux encombrements, est pourtant son asynchronisme ! La gestion des files d'attente, à chaque nœud, permet de faire face aux pointes de trafic, qui se traduisent automatiquement par une réduction du débit !
Aujourd'hui, la révolution "espérée" de la fibre optique de bout en bout, le changement de tous les routeurs intermédiaires, l'évolution des adresses IP par le passage de la version 4 à la version 6, le perfectionnement des logiciels de butinage devraient "prolonger" la durée de vie de ce réseau extraordinaire !
La question de la "tarification au volume" reste entière, afin de diriger les investissements d'infrastructure au bon endroit. La coopération technique, sauf Chine, Corée du Nord et Iran, a permis de bâtir un réseau international, qui fonctionne sans frontière. Ce réseau serait très vulnérable en cas de conflit mondial ! avec des conséquences incalculables...
De jeunes français ont apporté leur savoir-faire et leur créativité à l'époque du développement de l'Internet. Ce temps semble malheureusement révolu !
Pourquoi il y a urgence à reconstruire le réseau des réseaux
Les Echos du 24 mai 2013
Solveig Godeluck
A l'origine, le Net n'a pas été conçu pour 2,4 milliards d'internautes. Il souffre aujourd'hui de son gigantisme.
Certains voudraient l'adapter, voire le refondre.
Des vidéos qui mettent des heures à se charger sur l'ordinateur. Des entreprises qui s'épuisent à lutter contre les tentatives d'intrusion informatique. Des boîtes mail envahies par le « pourriel ». Des internautes un peu trop anonymes au goût de certains gouvernements. Un réseau trop américano-centré pour plaire à Pékin... Pour toutes ces raisons et plein d'autres encore, des chercheurs, des entreprises et des Etats aimeraient changer aujourd'hui l'Internet.
Certaines entreprises ont déjà fabriqué une « surcouche » au-dessus de l'Internet pour leurs besoins propres, comme Skype, qui a des exigences de qualité pour les communications voix-vidéo, ou encore Akamai, qui propose d'accélérer les flux de ses clients via son propre réseau.
Par ailleurs, plusieurs équipes de chercheurs planchent sur le sujet. Aux Etats-Unis, c'est le projet FIND de la National Science Foundation, GENI ou RINA ; en Europe, c'est FIRE, financé par Bruxelles ; et la Chine et le Japon ne sont pas en reste. Les intérêts sont certes contradictoires, mais un constat s'impose à tous. On ne demande pas la même chose à un réseau conçu pour raccorder entre eux quelques centaines de scientifiques et à un vortex aspirant plus de 2,4 milliards d'internautes, surtout quand ces derniers se connectent depuis tous types d'écran, font du commerce en ligne ou des interventions chirurgicales assistées à distance.
Certains chercheurs veulent carrément « effacer l'ardoise » ( « clean slate »). John Day, qui dirige le projet RINA à Boston, fait partie de ces adeptes de la table rase. Ils veulent remplacer le protocole créé il y a plus de trente ans par les pères fondateurs Vint Cerf et Bob Kahn, TCP/IP. Day, qui admire les travaux pionniers du Français Louis Pouzin (lire page ci-contre), voudrait renouer avec la diversité des débuts. « L'Internet n'est plus un réseau de réseaux, mais un seul gros réseau, regrette-t-il. Alors que dans les années 80, de nombreuses entreprises créaient des réseaux privés, le gouvernement américain a offert à tous son protocole TCP/IP, et gelé les initiatives qui auraient pu conduire à l'essor d'un Internet à la croissance plus lente, mais plus sécurisée ».
Défaut de conception
John Day voudrait réparer un défaut de conception : sur Internet, les adresses IP confondent identité et localisation. Autrement dit, on donne des adresses à des machines, pas à de vraies gens. Ce qui peut sembler un détail n'en est pas un. Par exemple, cela rend le réseau moins « redondant » - alors qu'Internet a justement été créé pour offrir cette redondance, c'est-à-dire des routes de secours quand une voie de communication était barrée. Concrètement, une entreprise qui a pris des abonnements chez deux fournisseurs d'accès pour des raisons de sécurité ou de tarifs se voit attribuer deux plages d'adresses IP séparées. Si elles étaient regroupées sous une dénomination commune, on aurait plus de chances d'entrer en contact avec elles. De ce problème d'adresses IP découlent toutes sortes d'autres contraintes : allocation des ressources réseau, gestion de la mobilité...
« Si l'on fait table rase, on pourrait décider d'identifier des contenus ou des services au lieu de machines, ce serait un changement complet de paradigme », explique Kave Salamatian, professeur de sciences informatiques à l'université de Savoie. Des entreprises comme Google y auraient intérêt : alors qu'aujourd'hui elles sont obligées de négocier avec les opérateurs télécoms pour mettre leurs serveurs de contenus chez eux, elles prendraient alors leur indépendance. Les fournisseurs d'accès, eux, sont évidemment moins enthousiastes.
« Aujourd'hui, dans l'Internet, tout change : sur la couche supérieure, les applications ; dans l'infrastructure, les technologies avec la 4G ou la fibre optique. Seul le protocole IP n'a pas bougé », souligne Kave Salamatian. Cependant, signale-t-il, on peut aussi continuer à poser des rustines sur IP. Stéphane Bortzmeyer, ingénieur R&D à l'Afnic, pense pour sa part qu'elles l'emporteront, car les partisans de la table rase sous-estiment le poids de l'existant : « On a déjà tellement de mal à déployer IPv6 [ la solution au manque d'adresses IP dans l'Internet originel] que je ne vois pas comment on pourrait construire ce qui serait non pas un nouvel Internet, mais un tout autre réseau ! » Il y existe déjà des rustines, par exemple le standard DCP 38, pour empêcher une usurpation d'adresse IP. Mais les opérateurs ne l'utilisent pas, explique-t-il : « Ils n'ont pas intérêt à payer alors que ce sont d'autres entreprises qui en tireront parti. » Même une politique des petits pas sera, en pratique, difficile à mener.
Solveig Godeluck, Les Echos
Les défis du Net en 6 mots clefs
Redondance : donner la possibilité d'émettre son message sur plusieurs réseaux simultanément.
Sécurité : l'inscrire dans le réseau et se passer ainsi de firewalls, d'antivirus, etc.
Mobilité : transférer un film en cours de visionnage de son ordinateur à son téléphone sans surcharger le réseau.
Gestion des ressources : trouver les routes les plus rapides, améliorer la vidéo, soulager les tables de routage.
Multilinguisme : mieux gérer les différents caractères d'écriture.
Authentification : éviter les usurpations d'identité.
Louis Pouzin, l'Inte
rnet doit être refait de fond en comble
Les Echos du 24 mai 2013
Nicolas Madelaine
Louis Pouzin a obtenu en mars à Londres le Prix de la Reine Elizabeth pour les sciences de l'ingénieur, doté de 1 million de livres par ses promoteurs qui espèrent en faire l'équivalent d'un prix Nobel pour les ingénieurs. Le scientifique français est récompensé pour sa contribution à l'invention de l'Internet avec quatre autres personnalités plus souvent que lui associées à ce bouleversement technologique : Tim Berners-Lee, l'inventeur du World Wide Web, Marc Andreessen, créateur du premier navigateur, ainsi que Vinton Cerf et Robert Kahn, qui ont écrit le protocole Internet (lire page ci-contre). A quatre-vingt-deux ans, ce polytechnicien déjà reconnu par la profession comme un pionnier de l'Internet est donc enfin reconnu par le grand public international. Il a rejoint l'an dernier le « Hall of Fame » de l'Internet Society. Au passage, il estime qu'un sixième homme mérite de recevoir autant de lauriers : le Belge Robert Cailliau. « Il a fait développer par le Cern le langage html défini par Tim Berners-Lee », rappelle-t-il. Dans les années 1970, Louis Pouzin a développé Cyclades, le premier réseau permettant de communiquer des données par paquets. Cela a inspiré les recherches de Kahn et de Cerf, avec qui ce natif de la Nièvre dit avoir beaucoup collaboré. En tout cas jusque vers le milieu des années 1980, avant que l'Internet devienne une « quincaillerie et que le Web soit assimilé à l'ensemble de l'Internet », s'amuse-t-il. Louis Pouzin a répondu aux questions des « Echos » après la cérémonie, le 18 mars dernier.
Que pensez-vous aujourd'hui de cet Internet que vous avez contribué à inventer ?
Les bases que nous avons jetées sont complètement obsolètes. Même si les Etats-Unis sont réticents face à cette perspective, pour des raisons de perte de souveraineté, l'Internet doit aujourd'hui être refait de fond en comble par la communauté internationale. Nous avons perdu une certaine unicité de pensée. Plus on corrige, plus on introduit de possibilités d'erreurs. Des sites comme Google ou Amazon ne sont pas réellement interopérables. Avec Facebook, Twitter, les e-mails, etc. les noms propres sont un véritable bordel. Vous ne savez pas à qui vous vous adressez. En matière de sécurité, nous n'avons pas la moindre idée convaincante. Des hackers pourraient paralyser entièrement un pays. Il n'y a aucun standard, ce n'est pas satisfaisant. Il faudrait mettre la fonction de sécurité à la base du système. De même, l'Internet pourrait prendre en charge lui-même la qualité et la rapidité du trafic. Aujourd'hui, c'est une tâche qui revient aux opérateurs de télécommunications qui, au passage, font de chaque usager un râleur potentiel. Il n'y a pas de neutralité du Net, ça ne veut rien dire dans la configuration actuelle.
Quand pensez-vous que la communauté internationale s'attellera à la tâche pour refaire l'Internet ?
Il est déjà si tard qu'il faut passer par un système parallèle interopérable avec ce qui existe et développé graduellement. Refaire l'Internet peut se faire en dix ou quinze ans. Il faut espérer que dans deux ou trois ans se forme un courant de gens assez motivés pour se mettre à l'ouvrage.
Pensez-vous que la France puisse jouer un rôle moteur dans cet effort ?
La recherche en France manque d'ambition. On fait des thèses mais on ne réfléchit pas à des systèmes entiers. Il y a une vraie défaillance des politiques publiques, causée en partie par un désir de ne pas faire de vagues. On définit des crédits au lieu de définir des objectifs. On a peur que le fruit des recherches soit des emplois ailleurs qu'en France, ce qui est inévitable à notre époque d'ouverture des frontières et de coopération. Mais rien ne nous empêcherait de créer des services suffisamment novateurs pour trouver des clients. Les Etats-Unis sont mieux placés que nous, grâce à un étage de conseillers apolitiques dans leur administration. Contrairement aux idées reçues, il y a outre-Atlantique une vraie collaboration entre le public et le privé. Nous avions ce genre de modèle du temps du gaullisme, notamment dans les instances européennes.
Quelles entreprises de l'Internet admirez-vous le plus ?
Google a compris que les données personnelles ont une vraie valeur bien avant les autres. C'est pour cela qu'ils ont développé leur service de messagerie et l'ont proposé gratuitement. Leur moteur de recherche marche bien, même si, quand vous avez 300.000 réponses à votre requête, vous n'êtes pas plus avancé que lorsque vous en avez 50. Savez-vous, en outre, que Google ne scrute que 10 % du Web ? Il faudrait d'autres foyers de collectes de données. On devrait inciter - financièrement, au besoin - à une meilleure indexation des contenus. Apple est, de son côté, une réussite marketing géniale. Mais leur modèle est basé sur le contrôle de ce qui est distribué. Ils seront forcément débordés par la diversité des contenus disponibles. J'ai d'ailleurs revendu mon iPad : c'est un produit plein de contraintes, on est en prison.
Nicolas Madelaine
OSI, l'autre modèle d'interconnexion des réseaux qui n'a jamais vu le jour
Solveig Godeluck
En basculant sur TCP/IP, le gouvernement américain a tué ce projet international. L'architecture en était plus complexe.
Il s'est écoulé dix ans entre l'invention de ce qui ne s'appelait pas encore TCP/IP et la bascule du réseau gouvernemental américain Arpanet sous ce nouveau protocole de transport et d'interconnexion de réseaux. C'est donc en 1983 que l'Internet est né... et que le modèle OSI a été enterré avant-même d'avoir vécu - à l'époque, la bascule de quelques centaines d'ordinateurs suffisait encore à changer la face des réseaux dans le monde.
OSI, ou Open Systems Interconnection, était un grand projet de réseau de réseaux, placé sous l'égide de l'Organisation internationale pour la standardisation (ISO). Il était soutenu par Bruxelles et par l'Union internationale des télécommunications, qui regroupait à l'époque essentiellement des monopoles publics. A leurs yeux, ce projet avait l'avantage de ne pas être juste celui du ministère de la défense ou de la recherche des Etats-Unis.
Cependant, en comparaison de TCP/IP, élaboré et raffiné au fil des ans par deux ingénieurs, le modèle OSI était une usine à gaz, avec 7 couches fonctionnelles contre seulement 3 ou 4 pour son concurrent.
« Ne pas effrayer les PTT »
Pour ne pas effrayer les PTT, il avait fallu faire toutes sortes de compromis. Car ces derniers se méfiaient comme du diable de la communication par paquets, les « datagrammes » imaginés par Louis Pouzin dans son projet Cyclades des années 1970. Cette invention fondatrice de l'Internet actuel consiste à saucissonner les messages en petits paquets envoyés indépendamment par différentes routes et remis en ordre à la réception. Dans le modèle OSI, il y avait donc une dose de datagrammes, inspirés par l'expérience française, et une dose de communication plus classique, par circuits (modernisés). On ne pouvait pas demander trop de révolutions à la fois aux industriels, justifie Louis Pouzin : « Les gens des PTT étaient formés pour établir un canal de communication fixe, puis garantir ensuite la livraison ». Bref, pour fournir une vraie qualité de service. Alors qu'avec les paquets, la seule promesse était que le réseau « ferait de son mieux » ( « best effort ») pour acheminer la communication. Sacrilège ! En outre, avec les paquets, on allait pouvoir faire des réseaux moins chers. Or, moins de budget équivaut à moins de pouvoir pour les administrations concernées.
Si OSI avait vu le jour, « cela aurait introduit plus de liberté de choix », assure Louis Pouzin. Ce modèle théorique permettait de gérer la sécurité, l'authentification, la qualité de service dans le réseau, au lieu de les laisser à la charge des utilisateurs. Où placer l'intelligence dans le système, c'est encore aujourd'hui un débat quasi-théologique. Mais les pistes ouvertes par OSI inspirent justement une partie des réformateurs de l'Internet d'aujourd'hui.
Commentaires
bizarre votre commentaire sur l'internet satellitaire. j'étais il y a quelques temps en Pennsylvanie et mes amis en pleine campagne ne pouvaient avoir qu'une connexion satellite et je peux vous assurer qu'elle était rapide.
Écrit par : Connie la crevette | 25/05/2013
Les commentaires sont fermés.