Le monde est plongé dans un cycle d’engouement pour l’intelligence artificielle (IA). Les entreprises technologiques y consacrent des milliards de dollars, les outils d’IA prolifèrent dans les applications grand public et professionnelles, et les gouvernements s’empressent de l’adopter en raison de ses prétendus avantages de productivité. Dans leur programme électoral, les Libéraux ont promis de stimuler l’adoption de l’IA en tant que pilier de leur stratégie économique. Après avoir formé le gouvernement, ils ont créé le premier poste de ministre de l’intelligence artificielle au sein du cabinet. En l’absence d’un mandat clair, on ne sait pas exactement ce que ce ministre fera réellement, mais il est indéniable que l’IA est une priorité absolue pour le gouvernement Carney.

Si les affirmations selon lesquelles l’IA révolutionnerait l’économie sont exagérées, il n’en reste pas moins que la possibilité d’un impact considérable de cette technologie sur l’économie et la main-d’œuvre dans les années à venir soulève des risques et des possibilités considérables1Organisation de coopération et de développement économiques, The impact of Artificial Intelligence on productivity, distribution and growth: Key mechanisms, initial evidence and policy challenges, avril 2024, https://www.oecd.org/en/publications/the-impact-of-artificial-intelligence-on-productivity-distribution-and-growth_8d900037-en.html.. Pour atténuer les inconvénients potentiels de l’IA tout en tirant parti de ses avantages, le Canada a besoin d’une approche politique globale et proactive qui place l’intérêt public au premier plan. Les gouvernements n’ont pas adopté une telle approche avec d’autres technologies transformatrices récentes, telles que les médias sociaux, et nos démocraties et notre santé mentale collective en paient aujourd’hui le prix fort2Philipp Lorenz-Spreen, Lisa Oswald, Stephan Lewandowsky et Ralph Hertwig, « A systematic review of worldwide causal and correlational evidence on digital media and democracy », Nature Human Behaviour, vol. 7, novembre 2022, https://www.nature.com/articles/s41562-022-01460-1. Voir également Fazida Karim, Azeezat A. Oyewande, Lamis F. Abdalla, Reem Chaudhry Ehsanullah et Safeera Khan, « Social Media Use and Its Connection to Mental Health: A Systematic Review », Cureus, 12(6), juin 2020, https://pmc.ncbi.nlm.nih.gov/articles/PMC7364393.. Nous ne pouvons pas nous permettre une pareille erreur avec l’IA.

Vue d’ensemble

L’intelligence artificielle n’est pas un phénomène nouveau. Différentes formes d’IA, comme les systèmes d’apprentissage automatique, sont utilisées depuis des décennies pour modéliser et prédire dans des domaines aussi variés que la finance, la météorologie et d’autres. L’actuelle vague de perturbations dues à l’IA est principalement attribuable aux avancées des systèmes d’IA générative (IAg), qui produisent un contenu apparemment original à partir d’une demande d’utilisateur. La question de savoir si l’IAg est vraiment « créative » reste à débattre, mais il est clair que ces systèmes peuvent accomplir, dans une plus ou moins grande mesure, de nombreuses tâches de création et de résolution de problèmes que l’on considérait auparavant comme relevant exclusivement du domaine de l’intelligence humaine, comme la création artistique, la narration ou la thérapie3Kent F. Hubert, Kim N. Awa et Darya L. Zabelina, « The current state of artificial intelligence generative language models is more creative than humans on divergent thinking tasks », Scientific Reports, vol. 14, février 2024, https://www.nature.com/articles/s41598-024-53303-w..

Les risques que pose l’IAg

Ces nouveaux systèmes d’IA soulèvent diverses questions d’ordre éthique, juridique et pratique, dont certaines sont inhérentes à la technologie. À titre d’exemple, les systèmes d’IAg sont sujets à des inexactitudes, un phénomène connu sous les noms d’« hallucination » ou de « confabulation » de l’IA qui pousse ces systèmes à inventer, à répéter et à défendre des faussetés avec assurance. Ils présentent également des préjugés idéologiques cachés, car ils ont été formés à partir de données biaisées4David Rozado, Measuring Political Preferences in AI Systems: An Integrative Approach, Manhattan Institute, janvier 2025, https://manhattan.institute/article/measuring-political-preferences-in-ai-systems-an-integrative-approach.. Ils présentent également des biais délibérément programmés par les entreprises qui les exploitent5Voir, par exemple, Kate Conger, « Employee’s Change Caused xAI’s Chatbot to Veer Into South African Politics », The New York Times, 16 mai 2025, https://www.nytimes.com/2025/05/16/technology/xai-elon-musk-south-africa.html.. Les centres de données qu’ils nécessitent consomment d’énormes quantités d’eau et d’électricité6Christian Bogmans, Patricia Gomez-Gonzalez, Ganchimeg Ganpurev, Giovanni Melina, Andrea Pescatori et Sneha D. Thube, Power Hungry: How AI Will Drive Energy Demand, Fonds monétaire international, avril 2025, https://www.imf.org/en/Publications/WP/Issues/2025/04/21/Power-Hungry-How-AI-Will-Drive-Energy-Demand-566304..

D’autres problèmes découlent de la manière dont ces systèmes ont été développés et déployés. Il faut savoir, avant tout, que ces systèmes appartiennent en grande partie à des entreprises technologiques américaines privées qui ont intérêt à concentrer la richesse, les données et le contrôle dans leurs propres écosystèmes commerciaux. Pour ce faire, ils collectent et exploitent les données privées et confidentielles des utilisateurs. En effet, la plupart des grands modèles d’IA actuels ont été formés à partir de données personnelles, privées et protégées par des droits d’auteur, sans que les créateurs en soient informés ou dédommagés. Les systèmes d’IA se trouvent donc dans une zone d’ombre juridique en ce qui concerne la protection de la vie privée, les droits d’auteur et la législation connexe7Innovation, Sciences et Développement économique Canada, Consultation sur le droit d’auteur à l’ère de l’intelligence artificielle générative : Rapport sur ce que nous avons entendu, Gouvernement du Canada, février 2025, https://ised-isde.canada.ca/site/strategic-policy-sector/en/marketplace-framework-policy/consultation-copyright-age-generative-artificial-intelligence-what-we-heard-report. Voir également Petra Molnar et Lex Gill, Bots at the Gate: A Human Rights Analysis of Automated Decision-Making in Canada’s Immigration and Refugee System, Programme international des droits de l’homme (Faculté de droit, Université de Toronto) et Citizen Lab (École Munk des affaires mondiales et des politiques publiques, Université de Toronto), September 2018, https://ihrp.law.utoronto.ca/news/canadas-adoption-ai-immigration-raises-serious-rights-implications..

L’IAg pose des risques de sécurité, non seulement en raison des énormes volumes de données collectées qui sont stockés sur des serveurs à l’étranger, y compris dans les institutions publiques qui utilisent ces outils, mais aussi en raison des campagnes de désinformation et des autres formes de guerre psychologique alimentées par l’IA.

Les effets potentiels de l’IA sur la main-d’œuvre restent incertains. Selon Statistique Canada, 60 % des travailleuses et travailleurs canadiens sont « très exposés » aux perturbations liées à l’IA8Tahsin Mehdi et Marc Frenette, Exposition à l’intelligence artificielle dans les emplois au Canada : estimations expérimentales, Statistiques Canada, septembre 2024, https://doi.org/10.25318/36280001202400900004-fra.. Ce chiffre correspond aux résultats d’études internationales similaires, qui prévoient des impacts majeurs sur les travailleuses et les travailleurs des économies avancées9Voir, par exemple, Mauro Cazzaniga, Florence Jaumotte, Longji Li, Giovanni Melina, Augustus J. Panton, Carlo Pizzinelli, Emma J. Rockall et Marina Mendes Tavares, Gen-AI: Artificial Intelligence and the Future of Work, Fonds monétaire international, janvier 2024, https://www.imf.org/en/Publications/Staff-Discussion-Notes/Issues/2024/01/14/Gen-AI-Artificial-Intelligence-and-the-Future-of-Work-542379. Voir également Pawel Gmyrek, Janine Berg, Karol Kamiński, Filip Konopczyński, Agnieszka Ładna, Balint Nafradi, Konrad Rosłaniec et Marek Troszyński, Generative AI and Jobs: A Refined Global Index of Occupational Exposure, Organisation internationale du travail, mai 2025, https://www.ilo.org/publications/generative-ai-and-jobs-refined-global-index-occupational-exposure.. Toutefois, une exposition ne suppose pas nécessairement un remplacement. De nombreuses professions, comme celles d’avocat, d’enseignante ou d’ingénieur, peuvent être fortement exposées à l’IA sans que leur emploi soit directement menacé. La manière précise dont leurs emplois seront modifiés reste à voir et dépendra de divers facteurs, notamment de la réglementation, des conventions collectives et des attentes culturelles.

Néanmoins, on observe déjà des signes anecdotiques indiquant que l’IA remplace des emplois dans certains secteurs, notamment pour les jeunes qui occupent des postes de niveau d’entrée10Voir, par exemple, Chris Wilson-Smith, «AI adoption is upending the job market for entry-level workers », The Globe and Mail, 17 juin 2025, https://www.theglobeandmail.com/business/article-ai-adoption-is-upending-the-job-market-for-entry-level-workers.. Le chômage des jeunes atteint un niveau sans précédent depuis la pandémie11Jenna Benchetrit, « Gen Z Is Facing the Worst Youth Unemployment Rate in Decades. Here Is How It’s Different », CBC News, 11 juin 2025, https://www.cbc.ca/news/business/youth-unemployment-rate-1.7549979., et l’adoption hâtive de l’IA par certains employeurs pourrait en être la cause.

Outre la perte d’emplois, les travailleuses et les travailleurs sont confrontés aux risques de ce que l’on appelle la « gestion algorithmique », qui consiste à utiliser des systèmes d’IA pour compléter ou remplacer les fonctions de supervision traditionnelles. Par exemple, des caméras alimentées par l’IA sont utilisées pour surveiller et discipliner les chauffeurs des flottes commerciales de transport et de livraison, même s’ils ont un bon dossier de sécurité et de rendement12Lauren Kaori Gurle, « Amazon’s AI Cameras Are Punishing Drivers for Mistakes They Didn’t Make », Vice, 20 septembre 2021, https://www.vice.com/en/article/amazons-ai-cameras-are-punishing-drivers-for-mistakes-they-didnt-make.. Combinée aux biais inhérents évoqués précédemment, la gestion algorithmique peut exacerber les pratiques discriminatoires en matière d’embauche et de discipline.

La propagation de l’IAg soulève également des questions plus générales sur la santé de nos sociétés et de nos démocraties. Dans le système d’éducation, par exemple, l’utilisation de l’IA par les étudiants est très répandue malgré les premiers signes suggérant qu’elle peut avoir un impact négatif sur la pensée critique et d’autres capacités cognitives13Nataliya Kosmyna, Eugene Hauptmann, Ye Tong Yuan, Jessica Situ, Xian-Hao Liao, Ashly Vivian Beresnitzky, Iris Braunstein et Pattie Maes, Your Brain on ChatGPT: Accumulation of Cognitive Debt when Using an AI Assistant for Essay Writing Task, MIT Media Lab, juin 2025, https://doi.org/10.48550/arXiv.2506.08872.. Les systèmes d’IA peuvent exposer les enfants à des contenus potentiellement dangereux et les élèves eux-mêmes admettent qu’ils apprennent moins bien lorsqu’ils utilisent ces outils14The Alan Turing Institute, Understanding the Impacts of Generative AI Use on Children, 2025, https://www.turing.ac.uk/research/research-projects/understanding-impacts-generative-ai-use-children; voir également KPMG, Les étudiants qui utilisent l’IA générative avouent qu’ils n’apprennent pas autant, 21 octobre 2024, https://kpmg.com/ca/fr/home/media/press-releases/2024/10/students-using-gen-ai-say-they-are-not-learning-as-much.html .. Pourtant, il n’existe à ce jour aucune règle ni aucune directive régissant l’utilisation de ces outils par les jeunes, et il n’existe pas davantage de mécanismes de soutien pour les enseignants confrontés à ces enjeux.

Les possibilités qu’offre l’IAg

Malgré tous les risques qu’elle comporte, l’IA est là pour durer. De plus, une adoption sécuritaire et responsable de l’IA présente des avantages potentiels. Une IA qui servirait à renforcer l’autonomie des travailleuses et des travailleurs, et non à les remplacer, pourrait s’avérer très positive. Le Canada compte de nombreux experts, des instituts de recherche et des entreprises de premier plan dans ce domaine et le potentiel économique d’une industrie canadienne de l’IA n’est pas à négliger.

Dans le budget 2024, le gouvernement fédéral a engagé 2,4 milliards de dollars pour soutenir l’infrastructure de l’IA. La majeure partie de cette somme a été allouée à l’augmentation de la capacité de calcul des chercheurs canadiens en IA. Le nouveau gouvernement fédéral a également fait plusieurs autres promesses dans ce domaine, notamment un crédit d’impôt de 100 millions de dollars par année pour les entreprises qui adoptent des systèmes d’IA, ainsi qu’un engagement à accélérer les approbations pour les nouveaux centres de données.

Le gouvernement fédéral expérimente déjà l’IA au sein de la fonction publique et il a créé un « Centre d’excellence en IA » pour encourager les ministères à adopter cette technologie. Entre autres initiatives, le gouvernement est en train de tester un outil interne appelé CANChat, qui a été développé en partie pour décourager les fonctionnaires d’utiliser des outils commerciaux, tels que ChatGPT, lorsqu’ils manipulent des données gouvernementales sensibles15Services partagés Canada, CANChat : le premier robot conversationnel d’IA générative de SPC, dernière modification le 24 septembre 2024, https://www.canada.ca/fr/services-partages/campagnes/histoires/canchat-premier-robot-conversationnel-dia-generative-spc.html..

Toutefois, de grandes questions subsistent quant aux intentions à long terme du gouvernement fédéral en ce qui concerne l’utilisation interne de l’IA. On ignore également comment le gouvernement entend garantir une adoption responsable de l’IA dans d’autres secteurs publics et commerciaux sensibles, comme les soins de santé ou l’éducation, qui traitent des données personnelles et privées ou travaillent avec des populations vulnérables.

L’absence de cadre réglementaire canadien

Un peu partout dans le monde, les gouvernements s’efforcent de réglementer la dernière génération d’outils d’intelligence artificielle16Pour l’un des meilleurs exemples à ce jour, voir Commission Européenne, « Législation sur l’IA », dernière modification le 3 juin 2025, https://digital-strategy.ec.europa.eu/fr/policies/regulatory-framework-ai.. Le Canada en fait autant. La Loi sur l’intelligence artificielle et les données a été déposée en 2022, mais elle a été largement critiquée pour son inadéquation et n’a jamais été adoptée17Blair Attard-Frost, The Death of Canada’s Artificial Intelligence and Data Act: What Happened, and What’s Next for AI Regulation in Canada?, Institut d’éthique de l’IA de Montréal, 17 janvier 2025, https://montrealethics.ai/the-death-of-canadas-artificial-intelligence-and-data-act-what-happened-and-whats-next-for-ai-regulation-in-canada.. En 2024, le gouvernement fédéral a créé l’Institut canadien de la sécurité de l’intelligence artificielle, qui finance d’importants projets de recherche susceptibles de déboucher sur un meilleur encadrement législatif, mais il n’en est encore qu’à ses débuts. Au début de cette année, il a également présenté sa Stratégie en matière d’intelligence artificielle pour la fonction publique fédérale, qui promet, sans toutefois le proposer, un cadre de gouvernance et de gestion des risques pour l’IA18Conseil du Trésor du Canada, Stratégie en matière d’intelligence artificielle pour la fonction publique fédérale 2025-2027, Gouvernement du Canada, mars 2025, https://www.canada.ca/fr/gouvernement/systeme/gouvernement-numerique/innovations-gouvernementales-numeriques/utilisation-responsable-ai/gc-ai-strategie-apercu.html.. Jusqu’à présent, le travail de réglementation n’a bénéficié que d’un financement limité.

La mise en place de ces cadres est de la plus haute importance. Tant que cela ne sera pas fait, les travailleuses et les travailleurs ainsi que les citoyennes et les citoyens seront vulnérables face à des systèmes d’IA opaques et contrôlés à l’étranger, qui pourraient causer plus de tort que de bien.

Mesures

Le BFA consacrera 20 millions de dollars à une Commission royale accélérée sur l’intelligence artificielle. Les implications potentielles de l’IA sont si profondes que nous devons comprendre clairement comment les travailleuses et travailleurs, les citoyennes et citoyens, ainsi que les communautés du Canada souhaitent se lancer dans cette nouvelle ère technologique. Consciente de l’urgence de la question, la Commission se donnera un calendrier serré et produira, d’ici un an, une vision directrice pour le développement de l’IA au Canada. Cette vision sera prête à renoncer à des aspirations de productivité si elles ne correspondent pas aux valeurs et aux priorités des Canadiennes et des Canadiens.

Le BFA accélérera la rédaction d’une Loi sur l’intelligence artificielle et les données modernisée qui donnera au gouvernement fédéral les pouvoirs nécessaires pour réglementer la propagation des outils d’IA. Elle veillera notamment à ce que tout outil d’IA proposé au public canadien réponde à des normes minimales de sécurité, de fiabilité et de transparence, y compris une validation par des tiers indépendants. Elle prévoira également des mécanismes permettant de suspendre ou de retirer les nouveaux outils d’IA qui se révèlent nocifs après leur approbation et leur déploiement initiaux.

Le BFA financera une nouvelle société d’État qui dirigera le développement d’un projet public d’IA de type « moonshot ». Bien que le Canada soit un leader dans la recherche sur l’IA, il accuse un retard considérable par rapport aux États-Unis, à la Chine et à la France en ce qui concerne la commercialisation de cette technologie19Nestor Maslej, Loredana Fattorini, Raymond Perrault, Yolanda Gil, Vanessa Parli, Njenga Kariuki, Emily Capstick, Anka Reuel, Erik Brynjolfsson, John Etchemendy, Katrina Ligett, Terah Lyons, James Manyika, Juan Carlos Niebles, Yoav Shoham, Russell Wald, Tobi Walsh, Armin Hamrah, Lapo Santarlasci, Julia Betts Lotufo, Alexandra Rome, Andrew Shi et Sukrut Oak, Artificial Intelligence Index Report 2025, Institute for Human-Centered AI (Université Stanford), avril 2025, https://hai.stanford.edu/ai-index/2025-ai-index-report.. Cette situation s’explique en partie par la tendance généralisée à délocaliser les entreprises technologiques canadiennes prospères au sud de la frontière ou à les vendre, tendance qui ne devrait pas changer vu la façon dont le gouvernement traite les crédits d’impôt dans sa stratégie industrielle. Un projet d’IA de propriété publique pourrait tirer parti de l’expertise du Canada dans ce domaine et contribuer aux priorités économiques nationales, notamment en créant un écosystème d’IA sécurisé et conforme aux recommandations de la Commission royale sur l’IA, sans pour autant être vulnérable à une acquisition étrangère. Le BFA alloue 8 milliards de dollars sur quatre ans pour le démarrage du projet, soit un montant comparable à l’évaluation du projet d’IA Mistral de la France20Adam Satariano, « Mistral, a French A.I. Start-Up, Is Valued at $6.2 Billion », The New York Times, 11 juin 2024, https://www.nytimes.com/2024/06/11/business/mistral-artificial-intelligence-fundraising.html..

Le BFA exigera que tous les centres de données du Canada soient alimentés par une électricité 100 % propre. De plus, tout nouveau centre de données mis en service devra combler au moins 50 % de ses besoins en électricité grâce à de nouvelles capacités de production d’énergie renouvelable.