01/12/2023
Quel avenir avec l’Intelligence artificielle ?
Il y a des questions importantes que l’on hésite à aborder si l’on n’est pas un spécialiste. C’est pour moi le cas de l’Intelligence artificielle (IA): faute d’avoir trouvé un spécialiste pour en parler, nous nous contentons donc de faire état de la question à partir d’une documentation limitée. Seule certitude : le sujet est important pour notre avenir et nous voulons commencer à l’évoquer pour nos lecteurs.
Rien d’étonnant à ce que le journal Le Monde ait consacré une double page à l’affaire Sam Altman [1], inventeur de Chat GPT dans son entreprise Open AI. Directeur général, licencié par le Conseil d’administration de son entreprise, il a connu un retour triomphal quelques jours plus tard, soutenu par 700 employés sur 770. Comme E. Musk, Sam Altman croit dans le potentiel immense de l’Intelligence artificielle. E. Musk déclarait déjà en 2014 que l’IA est « potentiellement plus dangereuse que les bombes nucléaires ». Ne serait-ce que les conséquences sur les suppressions d’emploi que pourrait entraîner une généralisation de l’IA. Et pour souligner l’importance de l’inventeur de Chat GPT le journaliste du Monde écrit : « En mai…il fait une tournée digne d’un chef d’État, passant par Washington, Toronto, Rio, Lagos, Séoul, Varsovie, Londres, ou Paris, où il est reçu par Emmanuel Macron ».
Selon l’article du Monde le licenciement tout provisoire de Sam Altman était justifié parce qu’il « cherchait à avancer et à lancer des produits à un rythme trop rapide, dans un but jugé trop commercial et contraire à la politique de sûreté d’Open AI;» qui construit une IA qui bénéficie à toute l’humanité. Son retour est interprété de la manière suivante dans un autre article du Monde :
« Open AI a clairement tranché entre éthique et profit en faveur de ce dernier. Ce dénouement montre que les bonnes intentions ne seront pas suffisantes pour préserver l’IA générative d’une logique économique classique»[2].
Avant d’écrire cet article j’ai demandé à quelques amis ce qu’ils pensaient de l’IA. L’un d’eux m’a répondu :
« J'avoue avoir été assez convaincu par les explications du PDG de Microsoft sur internet, qui disait à peu près la chose suivante : oui, il y a des risques, oui il faut de la régulation, mais la situation n'est pas fondamentalement différente de celle que l'on a connu après l'invention de l'électricité. On s'est aperçu qu'on risquait des incendies et autres accidents graves si l'on ne mettait pas partout des disjoncteurs et des interrupteurs. Pour l'IA, c'est pareil, nous ne serons pas assez fous pour créer des systèmes susceptibles de prendre des décisions à notre place sans dispositifs de sécurité permettant de les débrancher à tout moment. Mais il faudra bien-sûr que les autorités publiques s'en mêlent. J'avoue que cela m'a paru assez cohérent et sensé. Les promesses étant immenses, notamment en matière de santé (diagnostic médical), on ne bloquera pas la recherche, mais je crois que tous les gens un peu responsables sont conscients du fait qu'il faudra des garde-fous;».
Mais un autre ami qui ne partageait pas ce point de vue considérait que l’IA était beaucoup plus inquiétante que l’invention de l’électricité :
« Les potentialités de l'IA sont immenses et étonnantes. Certains de ses effets peuvent être dévastateurs en matière d’emplois (cf. les grèves des comédiens et des scénaristes à Hollywood), de désinformation et de manipulation de l'information, de l'évolution du cerveau humain (on le voit déjà sur les impacts de certains algorithmes sur les capacités d'attention des individus) etc. Il est temps de mettre en place un système de régulation au niveau des États comme a commencé à le faire l'Europe avec l'IA Act. Une structure du type GIEC, serait aussi une bonne idée pour confronter les points de vue des experts et pour exposer les enjeux de leurs débats en impliquant des cogniticiens, des neuroscientifiques, des politologues, des sociologues, des psychologues;».
Dès avril 2021, la Commission européenne a proposé que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs, ce qui impliquera plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA. Les pourparlers vont maintenant commencer avec les pays de l'UE au sein du Conseil sur la forme finale de la loi.
Selon une information de Mediapart du 1er décembre, la position de la France serait la suivante après le départ de Cédric O du gouvernement et sa nouvelle embauche par Mistral AI, fleuron de l'intelligence générative :
« Comme Secrétaire d’État chargé du numérique, Cédric O défendait la régulation de l’intelligence artificielle. Il conseille à présent l’inverse à Élisabeth Borne, en tant que lobbyiste du secteur, au nom de la principale start-up française».
Avec l’Intelligence artificielle nous avons donc un sujet important et la façon dont notre société va l’aborder conditionne en partie notre avenir.

Commentaires