Le 19 juin dernier, l’équipe Inyulface a suivi la 27ème assemblée générale annuelle de TECHNOcompétences. C’est le comité sectoriel de main-d’œuvre des technologies de l’information et des communications (TIC). Sa mission est de soutenir et de promouvoir le développement des talents et de l’emploi en technologies de l’information et de la communication (TIC) en concertation avec les partenaires de l’industrie. Un champ d’action vaste qu’Inyulface Lab a pu explorer cette année en prêtant main forte à leur équipe pour un projet autour de Power BI.
C’était aussi l’occasion de suivre une intervention très intéressante d’Olivier Blais, cofondateur et vice-président de Decision Science chez Moov AI. Son thème : « L’IA pour une innovation ambitieuse et responsable ».
Retour sur 2023-2024
Cassie L. Rhéaume est la nouvelle directrice de TECHNOcompétences depuis août 2023. Elle était précédemment directrice de l’expérience mentorale chez Lighthouse Lab et auparavant Co-Chapter Lead Montréal du Ladies Learning Code.
Valérie Bécaert est la nouvelle présidente, après avoir assuré la vice-présidence depuis 2018 avec comme président Alex Langlois d’ifCap. C’est la Directrice du groupe recherche et des programmes scientifiques chez ServiceNow Research. Sa motivation : « soutenir l’inclusion et la diversité dans la main d’œuvre en TI et rappeler qu’elle est globale. Il faut donc regarder plus loin que le Québec pour aider les entreprises et les travailleurs ».
- Parmi les orientations stratégiques, TECHNOcompétences a été mandaté pour être porteur de projets de formation. Cela comprend des programmes de compagnonnage, d’apprentissage, et son pôle d’expertise en transformation informatique et numérique. Son objectif : outiller et autonomiser l’ensemble des CSMO (ils sont 29) dans la transformation numérique de leur secteur. Le projet en est actuellement à la fin de la phase d’identification des enjeux. Un appel d’offre est actuellement lancé pour développement d’une solution.
- Le retour de l’enquête de rémunération globale en TI au Québec (édition 2023 et lien pour participer à l’édition 2024).
- Un processus d’évaluation pour un programme pilote d’immigration permanente des travailleurs. Cela concerne les secteurs de l’intelligence artificielle, des technologies de l’information et des effets visuels.
- Parmi les nombreuses initiatives, un projet auquel Inyulface lab a collaboré : un outil d’information sur le marché du travail qui utilise Power BI.
Les initiatives 2024-25
- La politique d’intervention sectorielle de TECHNOcompétences a 3 nouvelles thématiques : la transformation technologique et numérique, la transition verte, et l’information sur le marché du travail avec une portée prospective.
- Rendez-vous au Sommet de la main d’œuvre, le 30 janvier 2025. Au programme, une réflexion collective et des ateliers pour 250 personnes.
- Publication du diagnostic sectoriel 2024-2027 prévue pour fin 2024.
- Plus à venir puisque la planification stratégique est prévue pour janvier 2025 avec déjà 14 projets de formation et webinaires. Parmi les projets d’études et publications : le profil apprenant TI et une cartographie des initiatives jeunesses autour des STIM.
- Deux postes à combler parmi les administrateurs. Vous souhaitez participer aux initiatives de TECHNOcompétences ? Deux postes d’ administrateurs sont ouverts: un représentant du secteur hors TI et un représentant du secteur jeu vidéo.
Résumé de la conférence d’Olivier Blais : « L’IA pour une innovation ambitieuse et responsable »
Olivier est cofondateur et VP science de la décision chez Moov AI. Son regard sur la responsabilité dans le développement de l’IA est particulièrement intéressant, ainsi que son véritable impact sur l’emploi. Car il est aussi éditeur de la norme ISO internationale qui définit la qualité des systèmes d’intelligence artificielle.
Ce qu’il observe actuellement sur le marché de l’IA, en particulier au Canada, c’est surtout l’ambition. Il y a encore 6 ans, le pays était connu pour l’IA « académique ». Seules les plus grosses entreprises s’y essayent. Depuis un transfert de connaissance s’est fait aussi vers les PME, notamment avec l’arrivée d’entreprises comme Moov AI. Les données sont de plus en plus utilisées pour de la prise de décision et de l’automatisation. Et ces deux dernières années, l’IA générative a encore changé la donne, de ChatGPT à Midjourney en passant par une multitude d’outils.
Une statistique pour comprendre le bond dans l’adoption de l’IA : fin 2023, 26% des employés québécois disaient utiliser ou avoir utilisé l’IA générative dans leurs tâches quotidiennes (étude KPMG). Un comparatif intéressant est le taux d’utilisation d’Excel : 50%.
De grands pouvoirs, et de grandes responsabilités
Cette croissance devrait se poursuivre mais le défi est désormais de savoir ce que font les gens avec les nombreux outils d’IA générative à leur disposition.
Car les promesses sont belles, comme travailler plus vite et mieux et aider à la montée en compétences. Mais l’IA fait aussi évoluer les responsabilités et rôles des employés, ce qui devra être accompagné dans chaque entreprise avec de la gouvernance, de la formation et le développement d’une culture AI. Car le Shadow AI (une utilisation non encadrée et non sécurisée des outils AI) amène des risques et inégalités entre collègues.
Utiliser des outils gratuits a aussi ses limites. Pour pouvoir adapter à leurs besoins et sécuriser l’IA générative, les entreprises ont besoin de développer leurs propres outils. Cela implique d’identifier les problèmes qui pourraient découler de l’utilisation de l’IA.
Un renouveau des agents conversationnels
Les agents conversationnels de 3ème génération sont un bon exemple des opportunités et risques avec l’IA génératives. Moov AI a ainsi réalisé l’agent conversationnel CNP (Classification Nationale des Professions) de Qualification Québec ou encore le chatbot Alloprof pour l’aide aux devoirs.
Les outils sont de plus en plus simples pour l’es utilisateurs finaux. Mais pour l’entreprise avoir sa propre version de ChatGPT amène de la complexité. Les entreprises doivent aussi respecter les lois dans la collecte et l’exploitation des données. Penser à la qualité et adopter des cadres de travail comme ISO peut les aider pour ne pas prendre des risques.
Quelques exemples tristement célèbres illustrent les risques d’une utilisation « YOLO » de l’IA, avec le shadow IT ou en fonçant sans anticiper ce qui pourrait mal tourner. Samsung avait fait fuiter des informations sur ses brevets avec ChatGPT. Le chatbot d’AirCanada qui donnait de mauvais conseils. Ou encore l’outil de recrutement AI d’Amazon dont les biais reproduisaient de la discrimination contre les femmes.
La norme ISO pour une utilisation raisonnée de l’IA
Pour éviter ces dérives dans l’utilisation de l’IA, Olivier Blais recommande d’adopter les bonnes pratiques de la norme ISO :
- Créer des politiques internes. Par exemple éviter les données gratuites, ne pas les autoriser en entreprise, mais sélectionner des outils pour les mettre à disposition.
- Mettre en place gouvernance et formation. Par exemple créer une culture du « prompting » pour exceller dans l’utilisation des outils (certaines entreprises font des concours internes sur l’utilisation des IA génératives), créer des templates/gabarit.
- Analyser les impacts. Un système IA à haut impact devra avoir des contrôles en place. Les « General Purpose AI systems » sont classifiés en systèmes à haut risque, donc limiter leur utilisation à un créneau fin lié à une tâche à accomplir va réduire le risque.
- Gérer les risques. Où est-ce que les choses peuvent mal aller et comment gérer le risque pour éviter cela. Par exemple en centre d’appel. Si l’IA est utilisée pour des retranscriptions automatiques des conversations, il faut anticiper d’anonymiser les informations confidentielles comme les numéros de sécurité sociale.
Pour renforcer la culture de la gestion des risques dans l’entreprise, Olivier Blais conseille de s’inspirer du framework publié par le gouvernement du Canada : « Guide sur l’utilisation de l’intelligence artificielle générative ».
Enfin nous vous laissons sur un sourire avec cette remarque finale d’Olivier Blais : « Il n’existe pas de films catastrophe sur un ERP qui a mal viré. La fin du monde c’est toujours avec une IA ». Ce à quoi nous répondrons « oui » pour la perception des risques par le grand public. Mais parlez de déploiement ERP à une équipe TI, elle aura des sueurs froides ! (et on verrait bien Tom Cruise se battre contre un ERP 😊)