Le débat qui fait rage actuellement sur les enjeux de l’intelligence artificielle nous indique qu’au rythme où elle progresse, l’évolution technologique est beaucoup plus rapide que celle des sociétés et surtout, des compétences de sa prise en charge par les principaux acteurs de l’innovation technique.
Dans le Washington Post du 26 avril 2023, Danielle Allen posait une question vitale : « Une démocratie saine pourrait régir cette nouvelle technologie et en faire bon usage d’innombrables façons. Elle développerait des défenses contre les personnes qui l’utiliseraient de manière contraire au bien commun. Elle envisagerait la transformation économique qu’elle engendre et commencerait à élaborer des plans pour faire face à un ensemble de transitions rapides et surprenantes. Mais notre démocratie est-elle prête à relever ces défis de gouvernance ? ».
L’intelligence artificielle peut apporter beaucoup, mais elle peut aussi être mal utilisée. Il faut demander beaucoup à l’État québécois pour que cette innovation concoure au bien commun de l’ensemble de la population, d’autant plus le Québec ne dispose pas encore de l’ensemble des moyens d’un État souverain qui lui seraient nécessaire. En regard de l’intelligence artificielle, le plus important défi qui se pose au Québec comme à l’ensemble des nations en est un de démocratie et de souveraineté.
L’ouragan appelé ChatGPT
L’année 2023 aura été marquée par l’arrivée tonitruante de ce qu’on appelle l’Intelligence artificielle générative (IAG). Depuis que la version bêta du système ChatGPT a été lancée à la fin de 2022, on comptait déjà 123 millions d’utilisateurs actifs mensuels dès le 14 février 2023. Le robot conversationnel de l’entreprise OpenAI n’aura donc mis que deux mois pour franchir le cap des 100 millions d’utilisateurs, là où le réseau social TikTok aura mis neuf mois et l’outil de traduction automatique Google translate, 78 mois. Une telle vitesse d’adoption n’avait jamais été observée pour aucune application sur internet. Beaucoup ont découvert l’intelligence artificielle à cause de ChatGPT, même si plusieurs applications numériques souvent imperceptibles utilisent les technologies d’IA depuis des années.
La raison principale de cet énorme engouement tient à la facilité d’accès par les usagers et à la qualité des interactions dont est capable ce robot conversationnel. ChatGPT offre une interface multilingue sur Internet. On peut lui écrire ou lui parler dans sa propre langue sans disposer d’aucune compétence informatique et il génère des réponses de qualité humaine grâce à ses capacités d’apprentissage et de traitement des langues naturelles. Il y a quelque chose de fascinant à voir une machine créer un texte ou des images cohérentes en réponse à un dialogue avec ses utilisateurs, et ce pour de multiples usages, peu importe le sujet. Le système peut parfois même exprimer des sentiments quant à sa capacité de fournir des réponses adéquates ou présenter des excuses si on le convainc d’une erreur de sa part. Outre la génération de contenus inédits, ces outils d’IAG peuvent également prendre en charge toute une variété de fonctions d’analyse et de synthèse de textes, ou de traduction d’une langue à une autre.
Encore plus que lors de la naissance des moteurs de recherche, dans les années 1990, ces agents conversationnels vont changer radicalement la façon dont nous interagissons avec l’Internet et comment nous accédons à l’information quotidiennement.
L’engouement pour ChatGPT a aussi révélé une course mondiale au développement de l’intelligence artificielle entre les grandes multinationales du numérique, Google, Amazon, Facebook/Meta, Apple et Microsoft. L’investissement récent par Microsoft de 10 milliards de dollars dans l’entreprise OpenAI pour le développement de ChatGPT conteste la suprématie du géant américain Google, qui détient 90 % du marché des moteurs de recherche sur l’Internet. Microsoft a commencé à intégrer ChatGPT dans son propre moteur de recherche Bing. Google a répliqué avec Bard, son propre IA conversationnel intégré à son moteur de recherche. Meta, la société mère de Facebook et d’Instagram, a mis en ligne en code libre, son propre IAG, Llama 2 qui peut être utilisé et modifié par tout utilisateur qui en a les capacités. La Chine, qui a créé son propre réseau Internet et son propre concurrent à Google a aussi annoncé lancé son propre outil d’IAG en mars dernier, alimenté par 550 milliards de données issues du marché chinois, faisant de l’intelligence artificielle une question de souveraineté dans sa lutte économique contre l’hégémonie américaine.
Comment fonctionne l’IA
L’engouement actuel pour les outils d’IA n’est pas sans rappeler celui à l’égard des systèmes experts des années 90, au moment où je complétais mon doctorat dans ce domaine. Cette première phase de l’intelligence artificielle visait à reproduire les processus de l’intelligence humaine au moyen d’algorithmes de manipulation de symboles qui simulaient les processus de déduction de l’esprit humain.
Plutôt que de proposer une modélisation symbolique des processus de déduction, l’IA connexionniste à la base des systèmes comme ChatGPT propose de reproduire de l’intelligence par des assemblages de composantes qui imitent le fonctionnement des réseaux de neurones, le matériel biologique de base du cerveau. Un réseau neuronal est un ensemble de blocs de code informatique interconnectés par des liens. Lorsque les entrées d’un neurone satisfont à certaines conditions d’activation, le neurone émet une valeur de sortie qui à son tour influencera d’autres neurones sur plusieurs niveaux, permettant à l’ensemble d’accomplir des fonctions intelligentes.
Une caractéristique essentielle d’un réseau neuronal est sa capacité d’apprentissage automatique, lequel est fondé sur un calcul statistique ayant pour but de modifier les poids des entrées de chaque neurone jusqu’à ce que l’ensemble reproduise une fonction donnée de façon satisfaisante, ce qui est le but de l’apprentissage par le réseau neuronal. On apprend par exemple au réseau à reconnaitre des formes, des images, des caractères, des mots. En économie, à partir de millions de paramètres du marché, on pourra prédire un impact sur les taux d’intérêt ou le coût de la vie. En médecine, L’IA peut être utilisée pour aider les médecins à diagnostiquer certaines maladies en analysant des millions données telles que des images médicales ou des résultats de laboratoire.
Les limites des outils d’intelligence artificielle
Bien qu’il puisse offrir des réponses surprenantes de précision, ChatGPT a encore des limites importantes. L’une des difficultés tient à l’énorme quantité de ressources nécessaires pour l’entrainer, ce qui n’est pas à la portée de tous, rendant les utilisateurs n’ayant pas accès aux vastes entrepôts de données nécessaires dépendant des grandes entreprises du numérique. En second lieu, le système ne peut générer des réponses que sur la base des données avec lesquelles il a été entrainé. La qualité des données joue un rôle important dans la formation d’un modèle d’apprentissage automatique. Si les données ne sont pas assez diversifiées ou représentatives, un robot conversationnel comme ChatGPT générera des réponses biaisées ou parfois non pertinentes qui devront être corrigées par l’intervention humaine.
ChatGPT repose sur un grand modèle de langage (Large Language Model ou LLM), GPT4, qui a été préentrainé sur un ensemble de données disponibles publiquement sur le web. OpenAI n’a dévoilé ni la nature, ni la source, ni le volume des données d’entrainement que l’on estime être de l’ordre de plusieurs centaines de milliards de mots. Dans une deuxième étape d’entrainement à la conversation avec des utilisateurs humains, l’entreprise a dû faire appel à des expérimentateurs humains pour en corriger les erreurs. Cette étape a pour but de garantir la sécurité du système en censurant certaines affirmations de l’IA jugées dangereuses, haineuses ou biaisées. L’hebdomadaire américain Time a publié une enquête révélant qu’Open AI a sous-traité cette étape à des travailleurs kényans payés moins de 2 dollars de l’heure. Ceux-ci ont été soumis à des contenus choquants qu’ils doivent identifier et annoter pour que le système les exclue à l’avenir. « Ce travail était vital pour OpenAI. Le prédécesseur de ChatGPT, GPT-3 […] était enclin à laisser échapper des remarques violentes, sexistes et racistes1. »
Comme tout système d’apprentissage statistique à partir de centaine de milliards de données, ChatGPT ne connait pas les données avec lesquelles il a été entrainé, il n’a pas de sens commun et il ne raisonne pas. Grâce à un calcul statistique complexe, il calcule des similitudes entre les données d’entrainement et sur cette base fournit les réponses les plus probables aux questions qui lui sont soumises.
Les 20 dernières années de recherche en IA ont clairement démontré l’efficacité de ces méthodes, mais contrairement aux processus de déduction des systèmes experts qui pouvaient expliquer leurs raisonnements, les recommandations des systèmes actuels sont largement inexplicables parce qu’empiriques et probabilistes. Il y a même même un champ de recherche actif en IA axé sur l’explicabilité des données.
L’impact sur les nations et les sociétés
La plupart des observateurs prévoient que les modèles d’IA « générative » utilisés par ChatGPT et ses concurrents vont transformer l’économie, la culture et même la vie en société. D’ici à 2025, estime le Forum économique mondial, l’IA remplacera quelque 85 millions d’emplois, tandis que 97 millions de nouveaux emplois seraient créés sur la même période grâce à l’IA. Selon les économistes de la banque américaine Goldman Sachs, jusqu’à 300 millions d’emplois à temps plein dans le monde pourraient être confiés aux outils d’IAG en remplacement des humains dans des tâches spécifiques de traitement de l’information, notamment dans les industries culturelles, les médias, le droit ou l’enseignement dont la principale production consiste à créer de nouveaux contenus textuels ou multimédias.
Mais les plus importants changements vont sans doute concerner les transformations à la vie démocratique qui risquent de s’implanter graduellement. On a bien vu lors de la récente pandémie les effets pervers que pouvaient avoir les médias sociaux en facilitant la propagation d’opinions extrêmes mal fondées. Maintenant arrive l’intelligence artificielle dotée de bien plus grandes capacités de transformation sociétale. Aux mains d’acteurs mal informés ou mal intentionnés, l’IA peut accélérer la propagation de la désinformation par la multiplication de textes générés automatiquement.
Les technologies d’IA peuvent produire d’énormes quantités d’images et de textes, renforçant ainsi certaines opinions plutôt que d’autres. Elles peuvent propager de la désinformation, perturber les processus de consultation publique sur les lois et les réglementations, inonder les législateurs d’une sensibilisation artificielle à certaines opinions dans l’électorat, aider à automatiser le lobbying des entreprises ou même biaiser des lois et des règlements en faveur de certains intérêts particuliers.
Dans un contexte de défiance de plus en plus prononcé des populations envers les gouvernements des démocraties occidentales, une université espagnole a réalisé en 2019 un sondage demandant aux Européens s’ils seraient prêts à laisser une intelligence artificielle prendre des décisions importantes pour l’avenir de leurs pays ; 25 % des Français y étaient favorables, 30 % en Allemagne et 43 % aux Pays-Bas. Or, entrainés par l’apprentissage statistique à parti de milliards d’informations, les concepteurs des IA génératives sont incapables d’expliquer comment ils arrivent à leurs recommandations. À moins de nouvelles avancées dans la recherche, les processus d’IAG seront naturellement opaques et on ne pourra les expliquer aux administrés, contredisant la transparence et la responsabilité que les citoyennes et les citoyens réclament à juste titre de leurs gouvernants.
L’urgence d’agir pour les gouvernements dans le monde
Sur un autre plan, le secrétaire général de l’ONU Antonio Gutterez publiait récemment une mise en garde contre les risques de l’intelligence artificielle (IA) pour la paix et la sécurité mondiales, appelant à la mise en place urgente de garde-fous contre l’utilisation d’armes autonomes fonctionnant sans supervision humaine à des fins terroristes, criminelles ou par des dictatures étatiques.
Cet appel donnait suite à plusieurs mises en garde concernant les risques liés aux utilisations de l’intelligence artificielle. Dès janvier 2015, Stephen Hawking et des dizaines d’experts en intelligence artificielle signaient une lettre ouverte soulignant que les impacts sociétaux de l’intelligence artificielle devaient être étudiés et contrôlés. En 2018, l’Institut MILA de Montréal, créé par le québécois Yoshua Bengio, suscitait la publication de la Déclaration de Montréal pour un développement responsable de l’intelligence artificielle2 formulant un ensemble de principes clés dans l’usage éthique des outils d’IA.
En 2020, l’UNESCO entreprenait un processus d’échange international menant à l’adoption d’une Recommandation sur l’éthique de l’intelligence artificielle3 accompagnée par la publication en 2023, conjointement avec l’Institut MILA de Montréal, d’un ouvrage collectif éclairant intitulé Angles morts de la gouvernance de l’IA4.
Le 31 mars 2023, alors que plus de 1 000 professionnels de la technologie demandaient une pause dans le développement des systèmes d’intelligence artificielle, l’UNESCO appelait les pays à mettre en œuvre sans délai sa recommandation sur l’éthique de l’intelligence artificielle. Cette recommandation constitue le premier cadre normatif mondial pour une utilisation éthique de l’intelligence artificielle. Elle est une feuille de route pour les pays qui décrit comment amplifier les avantages de l’IA tout en réduisant les risques que cette technologie comporte.
Le Québec face à l’Intelligence artificielle
Dès 2019, les milieux de la recherche en intelligence artificielle et le gouvernement du Québec ont fait preuve de vision en soutenant la création d’un Observatoire international sur les impacts sociétaux de l’IA et du numérique (OBVIA) financé par les Fonds de recherche du Québec. Cette structure de recherche rassemble une communauté de plus de 260 chercheuses et chercheurs de toutes les disciplines dans la production de connaissances sur les impacts sociétaux et éthiques soulevés par les développements technologiques. On souhaiterait que davantage de moyens soient consacrés à ce domaine de recherche et à faire passer dans la pratique les recommandations du cadre proposé par l’UNESCO.
Le Québec a réussi à se situer à l’avant-garde du mouvement international dans la recherche, l’innovation et l’utilisation éthique de l’Intelligence artificielle. Il importe continuer ainsi à penser globalement, mais aussi à agir localement en nous en donnant tous les moyens nécessaires.
Le domaine du numérique et des télécommunications est actuellement sous la responsabilité du gouvernement canadien auquel la constitution canadienne accorde les compétences principales dans ce domaine et dans plusieurs autres secteurs essentiels de l’action gouvernementale. En juin 2022, le gouvernement d’Ottawa a déposé, dans le cadre du projet de loi C27, un premier projet de Loi sur l’intelligence artificielle et les données qui vise à établir « un juste équilibre entre la protection de la population canadienne et les impératifs liés à l’innovation ». Mais ce projet de loi est limité dans ses objets sans dépasser le principe d’autorégulation de la part des entreprises, lesquelles sont évidemment en conflit d’intérêts. Il faudrait pourtant établir un processus rigoureux d’approbation des systèmes IA avant leur diffusion, et aussi orienter les investissements publics et privés vers les applications les plus utiles au bien commun des gens d’ici. Comme il nous l’a démontré dans d’autres domaines, il serait surprenant que le gouvernement canadien puisse répondre aux valeurs, aux besoins et aux intérêts du Québec face à ceux des autres régions du Canada.
L’étude annuelle du Tortoise Global AI Index5, une étude rigoureuse qui classe depuis 2019 les pays en matière d’IA a permis de comparer en 2022 la performance du Québec en intelligence artificielle à celle de 63 autres nations. Le Québec occupe le 7e rang mondial selon l’ensemble des critères de cette étude. Il est le 5e pays qui produit le plus de résultats de recherche, légèrement en deçà de l’ensemble canadien qui se classe quatrième, mais il s’agit d’une avancée impressionnante pour un pays de 8 millions d’habitants, soit un cinquième de la population canadienne. Le Québec a la possibilité d’égaler, voire de surpasser, des pays notables en matière d’IA comme la Corée du Sud ou l’Allemagne. Le fondateur de l’Institut québécois d’intelligence artificielle Mila, Yoshua Bengio souligne : « On est partis de pratiquement rien et si on regarde les entreprises qui font de l’IA aujourd’hui, on parle de plus de 200 startups (entreprises en démarrage), de plus de 2000 entreprises, 600 organisations, de dizaines de milliers de personnes. C’est un bond énorme. » Voilà qui montre que l’on n’a pas besoin du carcan canadien pour exceller en recherche et en développement dans les technologies de pointe.
Malgré cet essor remarquable, la même étude du Tortoise Global AI Index de 2022 soulignait toutefois des faiblesses de l’environnement opérationnel au Québec, notamment la lenteur dans le traitement des visas des travailleurs qualifiés dont la mobilité internationale est vitale dans ce domaine. Elle souligne aussi le manque d’infrastructures de calcul à partir des données massives, un processus central en IA où Ottawa investit trop peu et davantage hors Québec, puisque le Canada est 17e et le Québec 34e à ce chapitre sur 63 pays.
Une autre étude de l’IREC souligne également « l’existence d’un déficit de brevets et d’une fuite d’entreprises émergentes6. » Le gouvernement du Québec a investi 1,17 milliard de dollars dans divers projets d’IA, mais la quasi-totalité des projets financés ces cinq dernières années se sont soldé en prises de contrôle par des entreprises de l’extérieur du Québec. Toujours selon cette étude, on peut craindre que le « Québec n’en vienne qu’à jouer un rôle d’un sous-traitant en R-D au bénéfice d’entreprises étrangères ».
Malgré son dynamisme, le Québec risque d’être handicapé par son statut de province, ne contrôlant ni son immigration temporaire ni la gestion de ses brevets et une trop faible partie des budgets d’investissement consacrés à la recherche et aux infrastructures dans un domaine vital pour son avenir culturel, économique et démocratique. u
1 Billy Perrigo, « OpenAI Used Kenyan Workers on Less Than $2 Per Hour to Make ChatGPT Less Toxic », Times, 18 janvier 2023
2 https://declarationmontreal-iaresponsable.com/la-declaration/
3 https://fr.unesco.org/about-us/legal-affairs/recommandation-lethique-lintelligence-artificielle
4 https://unesdoc.unesco.org/ark:/48223/pf0000384801
5 Karim Benessaieh, « Le Québec se classe 7e au monde », La Presse, 9 mars 2022.
6 Alain McKenna, « La stratégie québécoise en intelligence artificielle est un échec », Le Devoir, 25 février 2022.
* Professeur émérite à la Télé-université, ex-ministre de la Science et le la technologie.



