Jean-Gabriel Ganascia : "Faut-il avoir peur de l’intelligence artificielle ?"
Expert en intelligence artificielle et professeur à l’université Pierre et Marie Curie, Jean-Gabriel Ganascia nous invite à réfléchir à la place croissante de l’intelligence artificielle dans nos sociétés et aux transformations, potentiellement inquiétantes, qu’elle entraîne.
Si l’on se fiait au vieil adage selon lequel la peur est mauvaise conseillère, on ne devrait pas craindre l’intelligence artificielle. Pourtant, depuis quelques années, des personnalités averties, des scientifiques comme Stephen Hawking, des ingénieurs et hommes d’affaires comme Elon Musk ou Bill Gates, pour ne prendre que les plus célèbres, nous avertissent régulièrement des risques « existentiels » que l’intelligence artificielle fait courir à l’humanité. Doit-on les croire ? Doit-on, pour reprendre l’expression de Hans Jonas, suivre « l’heuristique de la peur » pour aborder nos responsabilités en matière d’intelligence artificielle et de technologies de l’information ? Ou bien faut-il ignorer ces alertes, ne pas se soucier de l’avenir et aller de l’avant comme si de rien n’était pour répondre uniquement aux défis du présent ?
IA : un développement exponentiel ?
L’annonce de la toute puissance des machines dites intelligentes et du péril qu’elles font courir à l’humanité a de quoi ébranler, du fait de la célébrité de ceux qui sonnent le glas. Leur rang, la richesse qu’ils ont accumulée, les réalisations qu’ils ont accomplies dans le passé, leur ton affirmatif et la récurrence de leurs déclarations impressionnent. Pour eux, des ordinateurs « hyper intelligents » prendront très bientôt leur autonomie et dépasseront l’humanité dans toutes les activités. Cela commencera par une disparition du travail qui n’aura plus d’objet, puis par l’autonomisation des machines qui prendront leur essor et décideront à notre place, nous reléguant à un état d’entière soumission. Pourtant, l’examen détaillé des arguments déployés pour justifier ces scénarios laisse songeur. Ils s’appuient à la fois sur la croissance exponentielle des performances des processeurs, ce qui correspond à la loi de Moore – qui est supposée se poursuivre indéfiniment – et sur les capacités d’apprentissage des machines qui n’auraient aucune limite.
Or, d’un côté, la loi de Moore n’est qu’une loi d’observation n'ayant aucun caractère essentiel. Beaucoup pensent qu’elle parviendra bientôt à son terme. On constate d’ailleurs, depuis 2016, un tassement de la croissance des capacités de microprocesseurs. À cela, il faut ajouter que, même si cette loi devrait se poursuivre indéfiniment, la quantité de calculs et la capacité de stockage des ordinateurs ne font pas à eux seul l’« intelligence », si tant est que cette notion ait un sens défini.
D’un autre côté, la capacité d’apprentissage qui a aujourd’hui le vent en poupe est l’apprentissage dit profond (Deep Learning). Or, il est supervisé, ce qui signifie qu’il repose sur l’utilisation de grandes masses d’exemples annotés. Et ceux-ci exigent un « professeur », c’est-à-dire une personne qui annote. De plus, cet apprentissage ne parvient pas à reconfigurer le cadre conceptuel dans lequel les exemples sont donnés, autrement dit, à changer de paradigme et à procéder à des ruptures épistémologiques. Il est donc intrinsèquement limité.
Une société en pleine transformation
En somme, la grande peur de l’intelligence artificielle n’a pas de fondements. Est-ce que cela signifie qu’il n’y a pas de danger ? Certainement pas ! En effet, en 60 ans, l’intelligence artificielle a transformé la société. Au delà des gadgets qui nous entourent – téléphones portables, reconnaissance de la parole ou d’empreintes digitales, reconnaissance faciale, compréhension du langage naturel, traduction automatique, etc. – et de l’automatisation des tâches qui conduit à transformer une grande partie des métiers, la trame du tissu social se trouve profondément modifiée. Ce qui tisse le lien entre les individus – amitiés, confiance, réputation, argent, partage, communauté, etc. – se trouve grandement affecté par les technologies de l’information et de la communication et, en particulier, par l’intelligence artificielle. Ces notions se redéfinissent ; leur sens change. Pour reprendre un néologisme forgé par un philosophe italien professeur à l’université d’Oxford, Luciano Floridi, elles font l’objet d’une « réontologisation », autrement dit, d’une reconceptualisation.
Ainsi, l’amitié sur les réseaux sociaux n’est plus exactement ce qu’elle était depuis l’Antiquité, à savoir une affinité et une inclination réciproques.
La réputation numérique mesurée sur la toile, avec des scores calculés à partir de la fréquentation des sites, du nombre d’étoiles attribuées, de la quantité de « like » et de commentaires lapidaires, n’a plus grand rapport avec ce qu’était la réputation d’un notable dans une petite ville de province…
Quant au partage, rappelons que dans le monde matériel, celui qui partage perd la part qu’il donne. Elle ne lui appartient plus, il en est dépossédé et elle lui manque, tandis que, dans le monde numérique, l’information se duplique et se transmet à loisir à un coût négligeable, ce qui fait que celui qui accepte de partager ne perd rien, tout en en faisant profiter d’autres.
L’idée de communauté, à l’heure des réseaux sociaux, renvoie à un ensemble d’individus qui possèdent les mêmes centres d’intérêt et qui entrent en contact par le truchement de la toile, tandis que jusqu’ici la communauté était faite des personnes qui vivaient côte à côte et dont la proximité seule justifiait l’appartenance à une même communauté. Cela signifie que là où les communautés étaient faites de personnes différentes (jeunes et vieux, riches et pauvres, malades et bien portants, etc.), les communautés virtuelles se constituent de personnes qui à certains égards se ressemblent ; de même là où l’on appartenait à une seule communauté, la communauté de vie, on appartient désormais à plusieurs communautés qui sont des communautés d’intérêt.
Un risque d’affaiblissement du rôle de l’État
Cette évolution du tissu social transforme radicalement les relations de pouvoir et d’autorité au sein de la société. Les concepts au fondement même de la politique évoluent. Ainsi en va-t-il de l’idée de souveraineté qui ne peut plus s’entendre au sens traditionnel tel qu’il a été introduit par les théoriciens de la philosophie politique comme Bodin, Rousseau ou Locke, et qui reposait sur l’axiome de la coextension du territoire et de l’État. Désormais, la souveraineté doit tenir compte de l’interpénétration des influences sur un même territoire ; elle doit nécessairement être ouverte sur le monde.
Dans ce contexte de redéfinition du lien social, on ne saurait exclure que le rôle des États ne s’amoindrisse au profit d’acteurs nouveaux, comme les grands industriels de la toile. On peut imaginer qu’ils assumeraient, à la place des États, un certain nombre de fonctions régaliennes, comme la sécurité intérieure, avec la reconnaissance des visages et/ou un état civil fondé sur la présence sur les réseaux sociaux ; la gestion de la monnaie lorsqu’elle est virtuelle ; la justice, surtout si elle devient prédictive, etc. Or, ce changement des conditions d’exercice du pouvoir ne va pas sans danger. Des déséquilibres sociaux majeurs peuvent conduire à des cataclysmes politiques sans précédent.
En conclusion, si les annonces faisant état des risques existentiels que l’intelligence artificielle fait courir à l’humanité n’ont pas de fondement, en revanche, l’intelligence artificielle n’est pas anodine. Elle comporte des menaces qu’il ne faut pas sous-estimer et auxquelles il faudra faire face dans les années à venir. Le risque, le plus grand risque, serait que les peurs suscitées, entre autres, par les déclarations des géants du web, ne masquent les vrais dangers et nous empêchent d’y faire face !