UA-69286360-1

Ok

En poursuivant votre navigation sur ce site, vous acceptez l'utilisation de cookies. Ces derniers assurent le bon fonctionnement de nos services. En savoir plus.

12/05/2015

Algorithme, un concept arabe du 13ème siècle, objet actuel de curiosité...

L'informatique, selon les théories de Von Neumann, est fondée sur un "programme enregistré" !

Algorithme du PGCD.png

Alan Turing, mathématicien anglais génial, construit  pendant la guerre une "machine", qui permet de décoder les messages "Enigma" plus rapidement qu'un bataillon de spécialistes...

Toute l'informatique actuelle repose sur des milliers d'algorithmes, aussi bien dans les systèmes d'exploitation que dans les programmes d'application, algorithmes pensés et écrits par l'homme !

Ce qui fait polémique aujourd'hui, ce n'est pas cette notion d'algorithme, mais cette nouvelle informatique "transnationale", qui repose sur des bases de données gigantesques et qui permet de retrouver presque instantanément une information sur le Web... Google est ainsi accusé de "trafiquer" ses algorithmes de recherche au profit de buts mercantiles... 

Facebook, lui, est accusé d'utiliser les informations, librement apportées par les utilisateurs, pour faciliter le marketing de sociétés privées...

Aujourd'hui l'Administration française est à la recherche de "l'identifiant unique", qui faciliterait les rapports entre l'usager et les services administratifs... Il y a belle lurette, que Google, Facebook, Microsoft et Apple ont créé cet identifiant unique pour leur propre business !

Janus Informatique, l'identifiant unique, pour le meilleur et pour le pire des alogrithmes !


 

Numérique,  ces algorithmes qui savent tout de nous

 

Les Echos du 11 mai 2015

 

Nicolas Rauline

 

 

 

 

Numérique : ces algorithmes qui savent tout de nous - Pinel pour « Les Echos »

 

Devant l'importance croissante des formules mathématiques et de l'automatisation dans nos vies, certains réclament la création d'un droit des algorithmes, visant à réguler ces outils, omniprésents dans les nouvelles technologies.

 

 

 

Les pouvoirs publics vont-ils bientôt mettre le nez dans les algorithmes ? Devant l'importance croissante des formules mathématiques et de l'automatisation dans nos vies, certains le réclament, en tout cas. C'est le sens d'un amendement de la loi Macron, adopté par le Sénat il y a quelques jours. Déposé par plusieurs sénateurs de l'opposition, celui-ci impose notamment à Google de mieux informer les internautes sur les critères de son algorithme et lui interdit toute discrimination, sous peine de se voir infliger une amende allant jusqu'à 10 % de son chiffre d'affaires mondial (soit environ 6,6 milliards de dollars). Les sénateurs se sont largement inspirés d'un rapport du Conseil d'Etat, rendu en septembre dernier, sur le numérique et les droits fondamentaux. L'une des propositions fortes de ce rapport était la création d'un droit des algorithmes, visant à réguler ces formules, omniprésentes dans les nouvelles technologies.

 

Depuis Yahoo! et Google, les algorithmes ont en effet envahi tous les services en ligne. De la musique, avec Spotify et Deezer, qui se basent sur un algorithme pour vous proposer des chansons et des artistes susceptibles de vous plaire à partir de vos précédentes écoutes, à la vidéo avec Netflix et son système poussé de recommandations, jusqu'à Amazon et Criteo, qui sont en mesure de cibler des publicités en fonction de vos goûts… Plus rien n'échappe à la mécanique des algorithmes. Evidemment, sans eux, l'internaute se retrouverait perdu dans la masse de données et d'informations d'Internet. Google a ainsi joué un rôle majeur dans la démocratisation d'Internet. En simplifiant son usage, il a rendu un service essentiel aux internautes. Même si, en devenant cette référence quasi unique sur le Web, il est sorti de son cadre initial et sa responsabilité, sur l'accès à l'information, est devenue cruciale.

 

On peut aussi voir les aspects pratiques de telles fonctionnalités dans de nombreux secteurs : celui qui aime la série « Orange Is the New Black », par exemple, a de fortes chances d'aimer « Weeds », la série précédente des mêmes créateurs et peut la découvrir grâce aux suggestions de Netflix. Celui qui a fait une recherche sur un comparateur de prix d'un billet d'avion pour Milan pourra être satisfait de se voir proposer des promotions sur la même destination, quelques heures plus tard, en guise de publicité… Mais la généralisation des algorithmes pourrait entraîner son lot d'effets pervers. C'est ce que soulignait le rapport du Conseil d'Etat, il y a quelques mois. « L'utilité des algorithmes pour optimiser le fonctionnement d'un certain nombre de services n'est pas discutable, reconnaissaient les magistrats dans le document. Ils présentent cependant trois sources de risques pour l'exercice des libertés : l'enfermement de l'internaute dans une "personnalisation" dont il n'est pas maître ; la confiance abusive dans les résultats d'algorithmes perçus comme objectifs et infaillibles ; de nouveaux problèmes d'équité du fait de l'exploitation toujours plus fine des données personnelles. »

 

Dans le premier cas, le constat part du fait que les algorithmes poussent à une hyperpersonnalisation d'Internet. Aujourd'hui déjà, un internaute ne voit pas les mêmes résultats de recherche qu'un autre. Il ne voit pas non plus les mêmes publicités, ni les mêmes articles sur un portail d'informations, ne dispose pas des mêmes offres commerciales que son voisin… Ce qui pourrait poser de graves problèmes d'accès à l'information. En ne lui proposant que des articles, des vidéos ou des sites censés refléter ses goûts, en prédisant son comportement, les algorithmes pourraient bien « enfermer » l'internaute dans des entonnoirs. Des conséquences complètement contraires à l'esprit initial du Web, qui, de lien en lien, devait élargir le champ des connaissances…

 

Seconde source de risque : la perception du public envers des algorithmes jugés infaillibles et objectifs. Les récentes investigations, aux Etats-Unis ou en Europe, tendent à démontrer par exemple que Google n'est pas « objectif » : il place parfois volontairement ses propres services devant d'autres résultats et la société ne s'en cache pas, à partir du moment où ces pratiques apportent un meilleur service à l'utilisateur.

 

Enfin, le dernier problème évoqué par le Conseil d'Etat est celui des données personnelles. Pour nourrir ces algorithmes, les faits et gestes des internautes sont épiés en permanence, leurs données, même anonymisées, venant alimenter des bases de plus en plus larges et de plus en plus précises. Avec la question de leur sécurité… Un problème d'autant plus aigu que, souvent, l'internaute n'a pas vraiment le choix : pour disposer de services plus innovants, il doit faire des concessions sur l'exploitation de ses données.

 

Dès lors, est-il légitime de vouloir réguler des algorithmes qui constituent aussi, dans la majorité des cas, l'actif le plus précieux des sociétés technologiques et peuvent entrer dans le domaine du secret industriel ? Les autorités sont confrontées à un problème nouveau. Et les propositions qui ont été faites jusqu'à présent ne sont pas forcément très réalistes. L'amendement « anti-Google » de la loi Macron a ainsi été critiqué car il donnait la surveillance de l'algorithme du moteur de recherche à des experts de l'Arcep… Le Conseil d'Etat suggérait, lui, de placer les grandes plates-formes du Net sous la surveillance du public. Un système d'agences de notation avait aussi été évoqué… Des propositions dont l'efficacité n'est pas avérée, d'autant que les algorithmes évoluent quotidiennement, et qui n'ont jamais été, pour l'instant, plus fortes que les arguments du secret industriel. Que l'« amendement Morin-Desailly » soit finalement adopté ou non, le débat sera de toute façon ouvert. Et chacun devra peut-être faire des concessions.

 

Les points à retenir

 

Tous les services en ligne innovants s'appuient sur des algorithmes, qui constituent le principal actif des sociétés du Net.
S'ils ont créé de la valeur ajoutée pour les internautes, ils ont aussi leur lot d'effets pervers et leur logique pourrait menacer les valeurs qui prévalaient lors de la naissance d'Internet.
Une certaine forme de régulation ou, a minima, de contrôle pourrait être nécessaire pour briser cette logique.

 

 

Assises territoriales du numérique, pour un Net sans bavure !

 

 

Télégramme du 7 mai 2015

 

 

 

 

 

Photo François Destoc

 

Vannes, plus que jamais branchée sur les nouvelles technologies... La seule ville bretonne à être labellisée 5@ accueillera mercredi 20 mai les premières Assises territoriales du numérique, de 10 h à 16 h 30 au Palais des arts et des congrès. Objectif : moderniser l’administration en développant les services en ligne et en créant un seul identifiant numérique par citoyen, en garantissant un Net sans bavure ! Ces assises ne sont pas destinées au grand public, mais aux professionnels du secteur, ainsi qu'aux élus et responsables des collectivités territoriales du grand ouest en charge des nouvelles technologies.

 

150 personnes sont déjà inscrites, et les organisateurs en espèrent 300. Au programme de la journée, des conférences et des débats sur l’identité numérique du citoyen, la protection des données personnelles, la confiance ou encore des success stories à l’étranger (Canada, Nouvelle-Zélande). Inscription gratuite sur www.villes-internet.net/vannes2015

 


En savoir plus sur http://www.letelegramme.fr/local/editions/VA/assises-territoriales-du-numerique-pour-un-net-sans-bavure-07-05-2015-10620660.php#mDP7PwmXSPOS0VAQ.99

 

 

 

 

 

 

Les commentaires sont fermés.