top of page

Québec freine l’IA, juste au cas où elle ferait mieux qu’un ministère

  • Photo du rédacteur: Seb
    Seb
  • 7 avr.
  • 3 min de lecture

Si t’as suivi un peu l’actualité tech au Québec, t’as sûrement vu passer la nouvelle : le gouvernement a décidé de mettre sur pause l’utilisation de l’IA générative dans ses ministères et organismes publics. Pas juste un avertissement — un vrai moratoire. Plus de nouveaux projets, plus d’expérimentations, tout est suspendu pour un bon moment.

Mais est-ce que c’est vraiment la meilleure façon de gérer les risques liés à l’IA? Et surtout, est-ce que bloquer les projets, c’est pas justement ralentir notre capacité à apprendre à les utiliser intelligemment?


Pourquoi ce moratoire?

Selon le ministère de la Cybersécurité et du Numérique, les raisons sont claires : protéger les données sensibles, éviter les erreurs liées à des réponses générées automatiquement, limiter les risques éthiques comme les biais ou la désinformation. Et dans ce contexte, le Québec est allé jusqu’à interdire l’usage de DeepSeek, un chatbot développé en Chine, par souci de souveraineté numérique.

C’est vrai que les inquiétudes sont pas farfelues. L’IA générative peut sortir des trucs douteux, elle n’est pas toujours transparente, pis y’a des risques si on la laisse opérer sans supervision. Jusque-là, je suis 100% d’accord.


Mais… on avait déjà un plan, non?

Ce qui est un peu surprenant, c’est que le Québec avait déjà lancé une Stratégie d’intégration de l’IA dans la fonction publique (2021–2026). L’idée, c’était justement de tester ces outils graduellement, de façon responsable, pis d’améliorer la prestation de services avec des technologies modernes. Et là, on freine tout d’un coup, comme si on repartait à zéro.

On avait aussi le rapport Prêt pour l’IA du Conseil de l’innovation du Québec, publié en 2024, qui proposait tout un paquet de recommandations concrètes : gouvernance claire, formations, projets pilotes encadrés, lignes directrices éthiques... bref, des solutions pour gérer l’IA sans l’empêcher d’évoluer.


Est-ce que tout bloquer, c’est la bonne solution?

Perso, j’trouve ça sain que le gouvernement prenne au sérieux les risques liés à l’IA. On ne devrait pas foncer tête baissée. Mais je me demande… pourquoi un moratoire total? Pourquoi pas juste former les gens? Pourquoi pas superviser les projets existants au lieu de tout suspendre?

Parce qu’en arrêtant tout, on freine aussi l’apprentissage collectif. On empêche les fonctionnaires, les profs, les techniciens, de comprendre ces outils-là de l’intérieur. On les prive d’expérience, alors que c’est justement ce qu’il nous faut pour les encadrer comme du monde.


Le monde de l’éducation aussi sur pause

C’est pas juste dans les ministères que ça bloque : plusieurs écoles, cégeps, et universités ont reçu des consignes pour suspendre tout nouveau projet en lien avec l’IA générative. Pourtant, l’éducation, c’est un des secteurs où l’IA peut vraiment aider : soutien aux élèves, correction automatisée, accompagnement personnalisé… On parle d’outils qui peuvent faire une différence pour vrai.

Là, on coupe l’élan à pas mal de projets innovants, pis ça risque d’envoyer le message que l’IA, c’est dangereux, point final. Alors qu’en réalité, c’est l’encadrement qui fait toute la différence, pas l’outil lui-même.


Ce qu’on devrait faire, à mon avis

OK, oui, la prudence est essentielle. Mais à mon avis, le gouvernement aurait pu — et aurait dû — miser sur une approche plus nuancée :

  • Former le personnel de la fonction publique sur les risques et les bonnes pratiques;

  • Mettre en place des balises claires, pas juste des interdictions;

  • Continuer à expérimenter, mais de façon encadrée et transparente;

  • Et surtout, impliquer les citoyens et les experts dans la discussion.

Parce qu’on est en train de construire les règles du jeu pour une technologie qui va transformer nos vies. Si on met juste tout sur pause, on se prépare pas mieux — on fait juste retarder le moment où il faudra rattraper notre retard.

Conclusion

Le moratoire du Québec sur l’IA générative, c’est un signal fort. Ça montre que nos dirigeants prennent la chose au sérieux. Mais c’est aussi un rappel que la peur ne doit pas remplacer la réflexion active. Faut pas juste freiner. Faut apprendre à conduire.

Et toi, t’en penses quoi? Est-ce qu’on devrait bloquer pour mieux encadrer? Ou apprendre pendant qu’on avance?


Sébastien Jacques assisté de l’I.A.

תגובות


bottom of page