Que voulez-vous, c’est plus fort qu’elle et c’est plus fort que tous les politiciens, notamment socialoïdes : dès que ça bouge et que ça fait des choses, pouf, il faut absolument le réguler, puis le taxer, jusqu’à ce que mort s’en suive (après quoi, la compulsion de ces mêmes politiciens les oblige à subventionner ce qui vient de claboter).
Et cette fois-ci, l’attention se porte sur les Zalgoritmz pardon « les Algorithmes ». Mot à la fois compliqué et porteur d’un sens quasi mystique dans l’esprit du péquin moyen, signifiant à moitié « truc machin de l’informatique » et à moitié « formule magique permettant d’obtenir un résultat ». Or, Axelle, qui a probablement elle aussi une idée fort confuse de ce que ces bestiaux-là peuvent être, a bien compris qu’il y avait urgence à légiférer : pensez-donc, depuis toutes ces années, « les Algorithmes » s’ébattent et se reproduisent un peu partout, en toute liberté, sans qu’il soit imposé le moindre puçage, la moindre vaccination ni le moindre contrôle.
Il faut faire quelque chose, vite !
Cependant, avant d’aller plus loin, essayons d’y comprendre un peu quelque chose : pour faire simple, « les Algorithmes », ce sont donc ces procédés logiques, suites d’instructions permettant d’aboutir à un résultat concret pour, par exemple, déterminer la répartition des lycéens dans les facs après leur bac, les prises en charge et le prix d’une course Uber, les suggestions Facebook, Amazon ou Netflix, etc…
Ceci décrit, le besoin d’une régulation saute au yeux : qui n’a pas été, au moins une fois, choqué par le fait qu’Amazon continue de recommander Christophe Maé dans la musique à acheter, causant d’irrémédiables troubles psychologiques dans toute une génération d’adulescents qu’on trouvera ensuite, pleurnichant sur le bord d’une plage, à se demander comment sauver les manchots de l’Arctique et les ours du Kenya ?
Plus proche des gens normalement constitués, les algorithmes sont donc ces recettes de cuisine particulièrement complexes qui permettent à Google de trier les recherches et placer plutôt un site qu’un autre en haut de la page (et, par exemple complètement fortuit, plutôt un site anti-IVG que le site officiel du gouvernement, raaah, le méchant). Ce sont aussi ces algorithmes qui permettent aux utilisateurs de Facebook de ne voir majoritairement que les articles et réactions d’autres utilisateurs globalement d’accord avec eux (et qui favorisent donc la création de vilaines « bulles » numériques où chacun est protégé
Et là, vu comme ça, « régulons les algorithmes », l’interjection d’Axelle Lemaire (ou à peu près) ne ressemble plus tant à « Recompilons le kernel » ou « Regénérons les tables de hash » qui semblent si ésotériques : on comprend tout de suite pourquoi le gouvernement (et l’État plus généralement) ont subitement découvert le besoin pressant de bien contrôler tout ça !
S’en suivent alors cinq recommandations qu’on pourra lire, éberlué, sur le rapport pondu pour l’occasion (page 6). Entre la création de cellule de contrôle, de plateforme collaborative et un programme de formation « à l’attention des agents opérant un service public utilisant un algorithme », auxquelles sont adjointes les recommandations de développer des réflexions et de la communication sur ces algorithmes, tout semble réuni pour le brouet habituel de fadaises consternantes qui n’aboutiront, Dieu merci, à rien du tout de concret et permettront à la France d’éviter une fois encore le ridicule le plus achevé.
Malheureusement, Axelle Lemaire semble vouloir s’y vautrer : la première recommandation vise en effet à tenter de percer la façon dont Google, Facebook ou Amazon construisent leurs réponses, en créant une communauté de chercheurs et d’experts pour tester et deviner « les algorithmes ». C’est, bien évidemment, parfaitement grotesque.
La réalité est, d’une part, que cette communauté existe déjà : tout ce que le monde comprend de commerçants, de publicitaires, d’ingénieurs et de « Géo Trouvetout » cherchent déjà, avidement, à percer la façon dont sont positionnés les choix de ces géants du Net, ne serait-ce que pour en tirer un profit évident. On peine à percevoir comment une fine équipe payée par l’État pourrait faire mieux (mais on voit bien combien elle va nous coûter pour des résultats anecdotiques voire comiques).
D’autre part, ces algorithmes sont, par définition, le savoir-faire le plus précieux de ces entreprises. Il est assez peu probable qu’elles choisissent de les exposer, ou de les rendre suffisamment simple à percer pour que les gouvernements puissent y mettre les doigts, ou, pire encore, que des concurrents s’en emparent et fassent mieux.
Enfin, et c’est de loin l’argument le plus évident et le plus important, à mesure que les technologies progressent, ces algorithmes sont de moins en moins le fait de la main de l’homme, mais bien des productions de l’intelligence artificielle dont ces sociétés s’équipent goulûment. Il faut être dans les gros fauteuils mous de l’État, occuper la confortable place d’un secrétaire d’État ou d’un ministre dans un gouvernement quelconque pour imaginer que « les algorithmes » sont entièrement compris par leurs créateurs, qu’ils sont totalement déterministes et qu’ils peuvent être expliqués.
En pratique, depuis un bon moment, les ingénieurs de Google – par exemple – ne comprennent plus complètement la façon dont le moteur de recherche établit ses résultats, de la même façon qu’on ne comprend pas vraiment comment fonctionne le cerveau humain, sans pour autant s’empêcher d’en reproduire les grandes fonctions et de parvenir à des résultats de plus en plus stupéfiants de réalisme.
Lemaire, comme d’autres avant elle et (très malheureusement) d’autres qui lui succèderont, tente ici d’apprivoiser, de réguler quelque chose qui lui est étranger parce qu’elle ne comprend pas ce dont il s’agit, et, pire encore, quelque chose d’étranger parce qu’il dépasse de loin ce qu’un humain ou un groupe d’humain est capable de gérer en terme de complexité.
C’est donc parfaitement voué à l’échec.