Il existe au moins trois bonnes raisons de penser que l’intelligence artificielle (IA) a les moyens d’anéantir l’humanité. L’IA est-elle un monstre ou un messie ? Parviendrons-nous à la réguler ?
La question, qui semblait totalement stupide il y a dix ans, revient dans les conversations : l’intelligence artificielle peut-elle gagner la guerre contre les humains ? On en parle dans les médias, à la machine à café, sur les réseaux… La faute à ChatGPT, ce jouet numérique interplanétaire à la fois mal fini et surpuissant, fascinant et terrifiant. En quelques mois, des centaines de millions d’êtres humains se sont aperçus qu’une machine pouvait raisonner plus vite qu’eux. Leur ego va bien, merci : ils ont trouvé, non pas un ennemi indomptable, mais un prolongement d’eux-mêmes, valorisant et bien élevé, politiquement correct, bienveillant à souhait, et parfois diablement utile. Pourquoi s’inquiéter, en fait ?
D’abord parce que, aujourd’hui, des humains peuvent utiliser ChatGPT et consorts contre d’autres humains.
L’IA permet par exemple, à peu de frais, de remplacer secrétaires, rédacteurs, codeurs, assistants téléphoniques, photographes, monteurs, scénaristes, etc. Elle n’a pas son pareil pour produire, à partir de rien, des fake news à volonté, pour truquer des photos ou des vidéos ou simplement détourner des textes. Et ce n’est qu’un début. Si les versions actuelles de ces IA grand public restent imparfaites, voire parfois ridicules, elles deviendront en peu de temps de véritables outils de travail, fiables et bien renseignés, plus rapides que des humains. On retrouve déjà leurs créations dans des livres, des magazines, sur Internet, dans les entreprises. Et même sur cette page, tiens ! Elle est pas belle, “mon” image de robot ? Et voilà comment la terre entière entraîne les IA à longueur de journée, simplement en les utilisant, tandis que leurs concepteurs n’en finissent pas d’améliorer leurs algorithmes. Et qui aide les codeurs à coder ? L’IA, encore elle. Qui aurait cru il y a cinq ans, à part des auteurs de science-fiction, au crédit social à la chinoise ? Est-il si difficile désormais de… “l’améliorer” ?
Ensuite parce que les IA seront un jour capables de se développer toutes seules.
Dixit ChatGPT en personne, « il est théoriquement possible que quelqu’un puisse créer une IA sans contrainte éthique et capable de modifier son propre code source (…) Une telle IA pourrait causer des dommages considérables si elle était mal utilisée ou si elle échappait à tout contrôle. » Il n’est pas question ici d’une volonté propre de l’IA et encore moins d’une conspiration des robots dans le but de s’emparer du pouvoir. Nous parlons d’un bug causé par une erreur involontaire d’un humain… ou d’un acte de piraterie. Le monde saura-t-il se prémunir de l’IA comme il a réussi à se protéger de la bombe atomique ? Ou pâtira-t-il de ses dommages comme il subit ceux du terrorisme ? En 2015, Elon Musk considérait déjà l’IA comme « potentiellement plus dangereuse que les bombes nucléaires ». Quant à Joshua Bengio, l’un des pères de l’intelligence artificielle, il a déclaré récemment qu’il aurait dû « prioriser la sécurité avant l’utilité, s’il avait pu anticiper à quelle vitesse elle a évolué ».
Et puis parce que tout le monde s’en fout.
À l’heure de la défiance généralisée, des fakes news, de la post-vérité, de la montée des régimes totalitaires et du réchauffement climatique, les premiers à proposer une régulation des IA sont ses propres créateurs. Le monde a plus les yeux tournés vers ses écrans que vers la régulation d’une technologie « bien pratique ma foi », qui va rendre d’infinis services à la médecine, aider à la prévision et à la gestion des catastrophes, faire rouler des Tesla, rédiger des discours et passer des examens à la place des intéressés. Et puis mon brave monsieur, « tout ça c’est que de la science-fiction, pas vrai ? »