Le Sénat s’est formé en comité plénier afin de recevoir l’honorable Evan Solomon, c.p., député, ministre de l’Intelligence artificielle et de l’Innovation numérique, afin d’étudier le sujet de l’intelligence artificielle.
La sénatrice Muggli : Monsieur le ministre Solomon, je m’adresserai demain à quelque 500 participants à la conférence nationale du Centre for Trauma Informed Practices, aux côtés de Kevin Cameron, le directeur général de l’organisation.
C’est à M. Cameron, décoré de l’Ordre du Canada, que l’on doit le modèle de prévention des incidents traumatisants, qu’il a mis au point après la tuerie en milieu scolaire survenue à Taber en 1999. Depuis, des milliers d’éducateurs, de professionnels de la santé mentale et de policiers ont été formés pour évaluer les risques de violence chez les jeunes au Canada.
L’évaluation des risques associés aux comportements en ligne s’est avérée complexe et difficile à anticiper avant l’apparition de comportements problématiques. Par ailleurs, nous connaissons déjà les répercussions que les robots conversationnels propulsés par l’intelligence artificielle ont sur les jeunes vulnérables.
Monsieur le ministre, que puis-je dire à ces 500 personnes pour leur donner espoir que le gouvernement travaille à assurer la sécurité en ligne des jeunes et à prévenir leur manipulation par robots conversationnels propulsés par l’intelligence artificielle, notamment en mettant à la disposition des professionnels des outils qui leur permettront d’évaluer les risques?
M. Solomon : Tout d’abord, je vous remercie de votre question. Comme je l’ai dit, la sécurité est au cœur de tout le travail que nous avons fait et que nous continuerons à faire dans le cadre de notre stratégie en matière d’intelligence artificielle. C’est la raison d’être de l’Institut canadien de la sécurité de l’intelligence artificielle; nous prenons ces approches très au sérieux.
Pour commencer, comme je l’ai dit, nous avons déjà déposé, par l’intermédiaire du ministre de la Justice, un projet de loi visant à criminaliser l’échange non consensuel d’hypertrucages. C’est vraiment important. Nous espérons que ce projet de loi sera adopté, car ce type d’échange est une forme de violence contre des communautés très vulnérables.
Comme je l’ai déclaré publiquement lors de son dépôt, je souhaite prendre des mesures plus strictes dans le cadre de la prochaine révision de la législation sur la protection de la vie privée. Nous étudions notamment le droit à la suppression, qui permettrait aux gens de faire retirer les hypertrucages ou les images synthétiques préjudiciables et d’imposer des sanctions.
En ce qui concerne les préjudices en ligne, je ne veux pas trop empiéter sur le travail de mon collègue Marc Miller, mais je collabore étroitement avec lui sur le sujet. Nous nous penchons sur les pratiques mises en place dans des pays comme l’Australie, où l’accès aux réseaux sociaux est interdit aux personnes n’ayant pas atteint un certain âge.
Il y a des questions, sénatrice, sur lesquelles nous devons nous entendre et que nous examinons de près concernant la vérification de l’âge. Comment pouvons-nous vérifier l’âge des enfants sans divulguer les informations mêmes que nous cherchons à protéger aux personnes contre qui nous essayons de les protéger? La vérification de l’âge, qu’elle repose sur la biométrie ou sur des données clés, est très importante.
Nous examinons certaines solutions. Elles existent, et nous les connaissons. Nous sommes en train de les examiner. Cependant, la vérification de l’âge est un peu plus compliquée à appliquer. De plus, comment peut-on l’appliquer?
Je ne sais pas si j’ai le temps. Non. C’est une excellente question.

