L’honorable Marty Klyne : Honorables sénateurs, je prends la parole au sujet de l’interpellation de la sénatrice Moodie, qui porte sur une question urgente : la réglementation de l’intelligence artificielle au Canada.
D’entrée de jeu, je tiens à souligner que Nick Bostrom, un philosophe de l’Université d’Oxford, a soutenu que, étant donné que les ordinateurs avancés ont la puissance nécessaire pour réaliser des simulations, il est fort probable que nous vivions dans une simulation. Dans cette optique, vous voudrez peut-être prendre mon discours d’aujourd’hui avec un grain de sel, mais attendez que j’aie terminé, car ce n’est peut-être pas le cas.
Chers collègues, nous sommes à l’aube d’une transformation profonde. L’intelligence artificielle représente un changement de l’ampleur de la révolution industrielle, de la découverte de l’énergie nucléaire ou de l’avènement du langage. L’intelligence artificielle n’est pas simplement une nouvelle technologie, c’est un multiplicateur de force. Il s’agit d’une capacité tous azimuts qui évolue plus rapidement que nos institutions, nos lois et notre imagination.
Aujourd’hui, je vais vous parler de quatre aspects de cette question. Primo, je vais vous présenter les grandes répercussions de l’intelligence artificielle et les règlements que nous pourrions adopter pour notre démocratie et la société. Secundo, j’examinerai le confinement — technique, normatif et juridique — de l’intelligence artificielle en tant que cadre de gouvernance. Tertio, je passerai en revue les approches mondiales, de l’Union européenne aux États-Unis, en passant par la Chine, avant d’examiner les efforts déployés par le Canada au moyen du projet de loi C-27 et de la Loi sur l’intelligence artificielle et les données. Enfin, je proposerai des solutions concrètes pour renforcer notre approche afin que l’intelligence artificielle demeure un outil au service de l’intérêt public, et non un outil qui lui nuit.
Mon premier point concerne les implications sociales de l’intelligence artificielle et la réglementation potentielle. Certains affirment que la réglementation freine l’innovation. Toutefois, dans le contexte de l’intelligence artificielle, nous voulons de l’innovation accompagnée d’une solide gestion des risques. C’est là que la réglementation potentielle entre en jeu. Un cadre réglementaire solide peut attirer les investissements, favoriser l’innovation et renforcer la confiance du public. C’est pourquoi la réglementation potentielle doit traiter des droits civils, notamment les droits à la vie privée, à la liberté d’expression et à la transparence, ainsi que des préoccupations liées à la sécurité et à la reddition de comptes.
Les enjeux sont considérables. L’intelligence artificielle n’est plus un domaine marginal. Elle transforme notre façon de travailler, d’apprendre, de communiquer et de gouverner. Dans ses formes les plus avancées, l’intelligence artificielle ne se contentera pas de nous assister, elle nous remplacera, nous optimisera, nous prédira et parfois nous surpassera. Des finances à la santé, en passant par la défense et la justice, la portée de l’intelligence artificielle s’étend rapidement. Son pouvoir croissant offre des possibilités, mais comporte également des risques importants pour notre société.
Chers collègues, ce n’est pas de l’alarmisme. L’État démocratique moderne nous a jadis promis sécurité, prospérité et droits démocratiques. L’intelligence artificielle menace aujourd’hui de renverser ces piliers.
Qu’en est-il de la sécurité? Imaginez un monde où des drones autonomes et d’autres armes contrôlées par des algorithmes mènent des guerres, où des machines surpassent d’autres machines dans des conflits que nous ne pouvons même pas comprendre. Où est la responsabilité humaine? Où cela s’arrête-t-il? En même temps, sans l’intelligence artificielle avancée, notre pays et nos alliés seraient vulnérables aux capacités avancées en matière d’intelligence artificielle de nos adversaires potentiels.
En ce qui concerne notre prospérité, les systèmes d’intelligence artificielle pourraient finir par dominer — et même manipuler — les marchés financiers. Un petit nombre d’entreprises peuvent finir par contrôler les machines qui influencent votre hypothèque, votre pension ou votre emploi. La technologie a déjà remplacé de nombreuses formes de travail physique et, maintenant, même les domaines de la pensée humaine, de la créativité et de l’expression artistique sont en péril. Quels nouveaux défis l’intelligence artificielle posera-t-elle dans une société où le contrat social a longtemps assuré un équilibre fragile entre les avantages de la libre entreprise et la protection d’un filet de sécurité sociale?
L’intelligence artificielle pourrait aussi nuire à la justice sociale. Une étude publiée en 2019 dans la revue Science a révélé que l’intelligence artificielle dans le système de santé américain était beaucoup moins susceptible de recommander des soins aux patients noirs qu’aux patients blancs atteints de maladies semblables — non pas par malveillance, mais parce qu’elle reflétait une discrimination passée intégrée aux données. Il ne s’agit pas de préjugés conscients; il s’agit d’un préjudice structurel, et il est invisible jusqu’à ce qu’il devienne systémique.
Enfin, le contenu algorithmique et la manipulation des médias sociaux menacent d’empêcher les gens d’exercer véritablement leurs droits démocratiques. Les systèmes d’intelligence artificielle générative, comme ChatGPT, Claude, Gemini, Llama, Grok et Copilot, sont intégrés dans nos navigateurs, nos messageries et nos outils de productivité. Ces outils ne se contentent pas de générer du texte, ils ont une influence. Ils orientent les flux d’informations, cadrent les débats et leur donnent un ton émotif. Avec quelques ajustements mineurs, des acteurs malveillants peuvent en faire des armes pour inonder à moindre coût l’espace public de désinformation, d’« hypertrucages » et de propagande. C’est d’autant plus dangereux dans un monde où l’intelligence artificielle risque de nuire au développement de l’esprit critique des jeunes.
Même si le danger que l’intelligence artificielle devienne malveillante existe, le problème criant, c’est qu’elle est indifférente. Elle ne se soucie de rien. Elle optimise. Elle est un reflet du monde tel qu’il est plutôt que tel qu’il devrait être. À moins de délibérément choisir d’encoder des valeurs et des limites, l’intelligence artificielle se rabat par défaut sur la logique du profit, du pouvoir et de la prédiction.
Il existe un autre danger, encore plus subtil, celui que les machines interprètent mal nos intentions. Les êtres humains sont des amas de contradictions ambulants. Nous sommes tout sauf cohérents. Nous voulons à la fois l’aventure et la sécurité, la vie privée et la commodité. Nous mentons. Nous changeons d’avis. Nous changeons d’humeur. Nous exagérons. Nous regrettons. Comment les machines peuvent-elles nous comprendre alors que nous contenons des multitudes?
Pourtant, nous sommes sur le point de confier aux machines non seulement nos tâches, mais aussi nos décisions, voire notre éthique. Comment les machines concilieront-elles les droits individuels et l’intérêt général, un dilemme qui continue de faire débat dans de nombreux contextes?
Il ne s’agit pas seulement d’un problème technique. C’est un défi politique, un test moral, une crise de la bonne gouvernance.
Alors, comment réagir?
Voilà qui m’amène à mon deuxième point : le confinement, non pas en réprimant, mais en administrant. Non pas en brandissant la peur, mais en engageant la responsabilité. Le « confinement » signifie le contrôle démocratique des outils que nous créons. Il repose sur trois principes.
Premièrement, le confinement technique, qui fait référence à ce qui se passe dans un laboratoire ou un centre de recherche et développement. Lorsqu’on parle d’intelligence artificielle, cela inclut l’utilisation de systèmes sans air, d’un environnement protégé, de simulations contrôlées, de mécanismes d’arrêt d’urgence et de protocoles de sécurité et de sûreté intégrés robustes. Ces outils contribuent à garantir la sécurité, l’intégrité et l’inviolabilité d’un système, et permettent de le mettre hors service si nécessaire.
Deuxièmement, le confinement normatif, soit une culture parmi les développeurs et les institutions qui privilégie l’éthique à la rapidité. Le pouvoir sans réflexion est dangereux.
Troisièmement, le confinement juridique, soit une réglementation transfrontalière, des lois garantissant la transparence, les droits civils, la responsabilité, la surveillance, l’intégrité, les valeurs et l’éthique, ainsi que la transparence et la durabilité.
Soyons clairs : la réglementation seule ne suffit pas. Un sommet ou un communiqué de presse de la Silicon Valley ne peuvent pas remplacer des règles contraignantes. Nous devons unir les gouvernements, l’industrie, le milieu universitaire et la société civile afin de créer, tous ensemble, une vision canadienne de l’intelligence artificielle fondée sur l’intégrité, les valeurs et l’éthique, la transparence et la durabilité, sans oublier l’équité, l’inclusion et la paix.
Nous devons agir de manière proactive avant d’être contraints de réagir, avant l’apparition du prochain algorithme discriminatoire, les prochaines pertes d’emplois ou la prochaine érosion de la confiance.
Pour revenir sur mon troisième point, à l’échelle mondiale, les gouvernements adoptent des approches divergentes.
L’Union européenne a adopté une loi globale sur l’intelligence artificielle, laquelle prévoit un système à plusieurs niveaux fondé sur les risques, assorti d’obligations claires pour les systèmes à haut risque et de règles de transparence contraignantes pour l’intelligence artificielle générative.
Les États-Unis adoptent une approche sectorielle axée sur les marchés de manière à favoriser la coopération. Cependant, les résultats sont inégaux.
Quant à la Chine, qui était autrefois un chef de file en matière de réglementation, elle fait maintenant bande à part dans la pratique. Sur papier, la Chine paraît proactive avec son cadre réglementaire pour les réseaux sociaux, son interdiction des cryptomonnaies et ses lignes directrices sur l’utilisation éthique de l’intelligence artificielle. Son projet de réglementation des grands modèles de langage va plus loin que la réglementation en vigueur en Occident. La réalité, c’est que l’utilisation civile de l’intelligence artificielle est étroitement contrôlée, tandis que son utilisation à des fins militaires et de surveillance est pratiquement illimitée. L’intelligence artificielle n’est pas seulement un outil, c’est un pouvoir d’État. C’est l’avenir que nous devons éviter.
Pour conclure, où en est le Canada?
Notre mesure la plus importante était le projet de loi C-27, la Loi de 2022 sur la mise en œuvre de la Charte du numérique, qui comprenait la Loi sur l’intelligence artificielle et les données. Celle‑ci proposait une surveillance fondée sur les risques pour les systèmes à incidence élevée, y compris les modèles génératifs. Ce projet de loi n’a pas été adopté avant la dissolution du Parlement. À l’heure actuelle, le Canada ne dispose d’aucune mesure de protection exécutoire sur le plan juridique, ce qui crée un vide critique en matière de gouvernance.
En guise de réponse, le gouvernement a déposé le Code de conduite volontaire visant un développement et une gestion responsables des systèmes d’intelligence artificielle générative avancés. Ce code vise à promouvoir l’équité, la transparence et la responsabilité, mais il n’est ni contraignant ni applicable. Il ne peut servir de substitut à un cadre réglementaire en bonne et due forme.
Plus récemment, le Canada a nommé son premier ministre de l’Intelligence artificielle et de l’Innovation numérique, comme l’a annoncé le premier ministre Carney le 13 mai 2025. La nomination de l’honorable Evan Solomon témoigne d’une reconnaissance croissante de l’importance de l’intelligence artificielle, mais le mandat du ministre n’est pas encore défini. Selon un reportage de la CBC du 17 mai, le Cabinet du premier ministre a répondu aux questions en renvoyant au programme du Parti libéral, intitulé Un Canada fort, dans lequel la question de l’intelligence artificielle est principalement liée à la croissance économique et à la réforme de la fonction publique. Ces objectifs sont louables, mais ils laissent de nombreuses questions sans réponse.
En comparaison, la loi européenne sur l’intelligence artificielle oblige les développeurs à divulguer les données d’entraînement protégées par le droit d’auteur, à empêcher la génération de contenus illégaux et à se conformer aux règles en matière de vie privée du règlement général sur la protection des données. L’approche adoptée par le Canada avec la loi sur l’intelligence artificielle et les données et le code de conduite volontaire reste vague et inefficace. L’écart est particulièrement flagrant dans un domaine critique : la vie privée.
La protection de la vie privée doit faire l’objet d’une attention urgente. L’intelligence artificielle transforme la manière dont les données sont collectées, déduites et utilisées. Au Québec, un jugement rendu en 2022 a estimé que les prévisions de décrochage scolaire générées par l’intelligence artificielle constituaient des informations personnelles, même lorsqu’elles étaient basées sur des données anonymisées. Le commissaire à la protection de la vie privée a demandé que les systèmes d’intelligence artificielle à haut risque fassent l’objet d’évaluations obligatoires de leur impact sur la vie privée. Le Sénat devrait appuyer cette demande.
Nous devons veiller à ce que l’intelligence artificielle soit au service de la population, et non l’inverse. Cela implique des normes exécutoires pour définir et réglementer l’intelligence artificielle générative, des mesures obligatoires de protection de la vie privée et des évaluations d’impact, des règles de divulgation publique pour les applications à haut risque et une surveillance indépendante dotée de pouvoirs d’exécution.
Cela implique également une consultation large et inclusive des technologues, des éthiciens, des dirigeants syndicaux, des communautés autochtones et des Canadiens.
Honorables sénateurs, la gouvernance de l’intelligence artificielle est un défi mondial, mais notre réponse doit être typiquement canadienne et fondée sur la dignité, l’égalité, la transparence et la primauté du droit.
L’intelligence artificielle n’est pas seulement un outil. Elle modifie notre façon de prendre des décisions, d’attribuer les responsabilités et de définir l’action humaine. Nous devons aborder cette période avec lucidité et détermination.
Si nous tardons à agir, nous risquons de prendre du retard, de laisser les systèmes numériques progresser plus rapidement que nos lois et d’exposer les Canadiens à la discrimination, à la mésinformation et aux atteintes à la vie privée.
Engageons-nous à faire de l’innovation canadienne une force non seulement pour le développement économique, mais aussi pour la justice et le bien-être.
En bref, alors que la science-fiction devient réalité, rappelons-nous la leçon de la série Terminator. Comme le dit John Connor : « Il n’y a de destin que ce que nous faisons. »
Merci, hiy kitatamîhin.