Yoshua Bengio presse Ottawa d’agir dès maintenant sur l’intelligence artificielle

OTTAWA — Un grand pionnier de l’intelligence artificielle estime que le gouvernement canadien devrait agir de toute urgence pour réglementer cette technologie, car sa trajectoire actuelle présente des risques sociétaux majeurs.

Le professeur montréalais Yoshua Bengio, surnommé l’un des «parrains de l’intelligence artificielle» (IA), a déclaré lundi devant un comité des Communes qu’Ottawa devrait mettre en place immédiatement une loi, même imparfaite.

Le fondateur et directeur scientifique de Mila, l’Institut québécois d’intelligence artificielle, affilié à l’Université de Montréal, affirme qu’une machine «surhumaine», aussi intelligente qu’un être humain, pourrait être développée d’ici vingt ans, voire quelques années. Et «nous ne sommes pas prêts» à y faire face, selon cette sommité mondiale en matière d’IA.

L’un des risques à court terme de l’IA est l’utilisation de l’hypertrucage pour diffuser de la désinformation, a-t-il déclaré. 

L’hypertrucage permet déjà de diffuser des vidéos qui donnent l’impression qu’une personnalité publique affirme quelque chose qu’elle n’a pas dit ou fait quelque chose qui ne s’est jamais produit.

La technologie peut également être utilisée pour interagir avec les gens par le biais de textes ou de dialogues «d’une manière qui peut tromper un utilisateur des médias sociaux et le faire changer d’avis sur des questions politiques», a déclaré M. Bengio.

«Il existe de réelles inquiétudes quant à l’utilisation de l’IA à des fins politiques, qui vont à l’encontre des principes de notre démocratie.»

Par ailleurs, on craint que dans un an ou deux, des systèmes plus avancés puissent être utilisés pour des cyberattaques. Les systèmes d’IA s’améliorent de plus en plus en matière de programmation. «Lorsque ces systèmes deviendront suffisamment puissants pour vaincre nos cyberdéfenses actuelles et notre infrastructure numérique industrielle, nous aurons des problèmes, a déclaré le professeur Bengio. Surtout si ces systèmes tombent entre de mauvaises mains.»

«Montrer patte blanche» 

Le Comité permanent de l’industrie et de la technologie des Communes, où témoignait le professeur Bengio, étudie actuellement le projet de loi du gouvernement libéral qui mettrait à jour la loi sur la protection de la vie privée et commencerait à réglementer certains systèmes d’intelligence artificielle.

Le projet de loi tel qu’il est rédigé actuellement donnerait au gouvernement le temps d’élaborer des réglementations, mais le professeur Bengio estime que certaines dispositions devraient entrer en vigueur dès maintenant. «Avec l’approche actuelle, il faudrait environ deux ans avant que la loi puisse être appliquée», a-t-il souligné.

L’une des premières règles qu’il souhaite voir mises en œuvre est un registre qui exigerait que des systèmes dotés d’un niveau spécifié de capacité fassent rapport au gouvernement, «où les compagnies doivent montrer patte blanche, montrer que leur produit ne va pas créer de nuisance». 

Comme on le fait avec les médicaments, par exemple, cette approche ferait peser la responsabilité et le coût de la démonstration de la sécurité sur les grandes entreprises technologiques qui développent ces systèmes, plutôt que sur les contribuables, souligne M. Bengio.

«Jusqu’à présent, l’informatique a comme échappé à tout ça, parce qu’on pensait que ça n’aurait pas de gros impacts dans la société. Mais là, on arrive à un point (…) où on a besoin d’encadrement.» 

Interrogé sur les vertus de l’autoréglementation des entreprises, M. Bengio a estimé que cela pourrait être «une bonne étape intermédiaire (…) parce que ça peut être mis en place rapidement, et puis les compagnies peuvent se consulter entre elles pour essayer d’arriver à des standards». 

«Mais il va y avoir des mauvais joueurs, et aussi un incitatif à couper les coins ronds si on n’a pas des règles égales pour tout le monde qui sont obligatoires.»

Les systèmes «à usage général»

Le projet de loi C-27, déposé en juin 2022, vise à cibler ce qui est décrit comme les systèmes d’IA «à incidence élevée».

M. Bengio croit que le gouvernement devrait modifier la définition d’«incidence élevée» dans le projet de loi pour inclure les technologies qui posent des menaces à la sécurité nationale et à la société.

Cela pourrait inclure tous les systèmes d’IA que des acteurs malveillants pourraient utiliser pour concevoir des cyberattaques et des armes dangereuses, ou des systèmes qui trouvent des moyens de s’autorépliquer malgré les instructions de programmation contraires.

Des systèmes d’IA générative comme «ChatGPT», capables de créer du texte, des images et des vidéos, sont apparus pour un usage public généralisé après l’introduction du projet de loi. Le gouvernement affirme qu’il prévoit modifier le projet de loi pour tenir compte de ces avancées technologiques.

Les libéraux affirment qu’ils visent à obliger les entreprises derrière ces systèmes à prendre des mesures garantissant que le contenu qu’elles créent est identifiable comme étant généré par l’IA.

Selon le professeur Bengio, il est «très important de couvrir les systèmes d’IA à usage général, car ce sont aussi ceux qui pourraient être les plus dangereux s’ils sont mal utilisés».

Catherine Régis, professeure à l’Université de Montréal, a également déclaré aux membres du comité lundi que le gouvernement devait agir de toute urgence, citant les récents  développements fulgurants en IA.

Elle a souligné que la réglementation de l’IA constitue un effort mondial et que le Canada devait se positionner s’il veut avoir une voix à l’international, où des décisions seront prises. Si le Canada veut jouer un rôle structurant et influent crédible dans la gouvernance mondiale, il devra d’abord établir une vision claire et solide à l’échelle canadienne, selon la professeure Régis.