Home Société, technologie et angles mortsL’IA et l’accès universel au savoir : un nouveau partage des rôles ?

L’IA et l’accès universel au savoir : un nouveau partage des rôles ?

by Avocat Du diable
IA et fracture numérique 2.0 : l'intelligence artificielle aggrave-t-elle les inégalités ?

On entend souvent dire que l’intelligence artificielle sera le « grand égalisateur ». L’image est puissante : un enfant dans une zone rurale éloignée ou dans un quartier défavorisé, armé d’un simple téléphone, aurait accès au même tuteur privé de calibre doctoral qu’un héritier des grandes écoles. En éliminant le coût marginal de la transmission du savoir, l’IA briserait enfin les barrières de classe. On nous promet une démocratisation radicale où le talent, et non le code postal, deviendrait le seul curseur de la réussite. C’est une vision séduisante, celle d’un monde où la machine comble les failles des systèmes éducatifs humains, souvent trop lents ou trop coûteux pour s’adapter à chaque individu.

La distinction entre la disponibilité et l’accessibilité réelle

Le premier angle mort de cette promesse réside dans la confusion entre ce qui est disponible techniquement et ce qui est accessible économiquement. Si les modèles de base sont souvent gratuits, la performance, elle, devient rapidement une commodité de luxe. On observe déjà une hiérarchie claire entre les modèles « grand public » et les versions professionnelles. Pour un utilisateur au Québec ou ailleurs, la différence entre un modèle gratuit et un abonnement à 20 $US par mois — soit environ 27$ CAD — peut sembler anodine. Pourtant, à l’échelle mondiale ou même pour une famille à faible revenu, ce montant représente une barrière significative. Selon l’Union internationale des télécommunications (UIT), près de 2,6 milliards de personnes n’ont toujours pas accès à Internet en 2023.
Au-delà de la connectivité, c’est la puissance de calcul et la fraîcheur des données qui créent une nouvelle forme de ségrégation. D’un côté, une masse d’utilisateurs interagissant avec des modèles plus anciens, plus lents et plus sujets aux hallucinations. De l’autre, une élite capable de payer pour des agents spécialisés, des bases de données mises à jour en temps réel et des outils de traitement sans limites de tokens. Si l’outil est gratuit, mais que ses performances sont bridées pour ceux qui ne peuvent pas payer, assiste-t-on vraiment à un nivellement des chances, ou simplement à la création d’une nouvelle voie de service pour les moins nantis ? La question n’est pas de savoir si l’outil existe, mais de savoir si l’écart de performance entre l’outil du riche et celui du pauvre ne finit pas par croître plus vite que le bénéfice de l’accès initial.


Le poids de la littératie et de la maîtrise du langage

Une autre hypothèse forte du consensus est que l’IA s’adapte à l’utilisateur. On présume que la machine comprendra l’intention, peu importe la manière dont elle est formulée. Pourtant, l’expérience terrain montre que le gain de productivité et de savoir tiré de l’IA est directement proportionnel à la qualité de l’instruction donnée. Ce qu’on appelle le « prompt engineering » n’est pas qu’une compétence technique ; c’est d’abord une compétence linguistique et conceptuelle. Pour obtenir une réponse précise, il faut savoir structurer une pensée, identifier des variables, contextualiser et, surtout, faire preuve d’esprit critique face au résultat.


On risque de voir apparaître un paradoxe : l’outil censé aider ceux qui ont le plus de difficultés scolaires pourrait être celui qui nécessite justement le plus de bagage académique préalable pour être utilisé efficacement. Les élèves qui possèdent déjà un capital culturel élevé, une aisance rédactionnelle et une capacité d’abstraction utiliseront l’IA comme un levier pour décupler leur avance. À l’inverse, ceux qui peinent à formuler une requête complexe ou à déceler les erreurs subtiles de la machine pourraient se retrouver enfermés dans des boucles de réponses médiocres ou erronées.

Selon l’OCDE, les compétences en littératie numérique sont déjà fortement corrélées au milieu socio-économique. Si l’IA exige une précision de langage accrue pour livrer son plein potentiel, elle pourrait paradoxalement récompenser davantage ceux que le système scolaire privilégiait déjà.


La standardisation des savoirs et la perte d’autonomie

On présente souvent l’IA comme un tuteur, mais un tuteur n’est jamais neutre. Il repose sur des jeux de données massifs qui reflètent les biais, les valeurs et les priorités de ceux qui les ont conçus. En confiant l’éducation à des modèles centralisés, on accepte implicitement une standardisation du savoir. Pour une PME ou une institution d’enseignement, cela pose la question de la diversité des approches. Si chaque enfant du monde reçoit ses explications de la même poignée de modèles développés dans la Silicon Valley, qu’advient-il des nuances culturelles, des méthodes pédagogiques alternatives ou des savoirs locaux ?


L’efficacité de l’IA repose sur sa capacité à fournir la réponse la plus probable, ce qui est l’antithèse de la pensée divergente ou de la remise en question des cadres établis. Si l’on s’appuie sur ces systèmes pour niveler les chances, on prend aussi le risque de niveler les esprits. Ceux qui auront les moyens de s’offrir des tuteurs humains, des mentors ou des expériences de terrain non médiatisées par un écran conserveront une forme d’agilité intellectuelle que la machine ne sait pas encore reproduire. Qu’arrive-t-il à la capacité d’une société à innover si la majorité de sa population apprend à penser à travers le filtre de la probabilité statistique, tandis qu’une minorité continue de cultiver le doute et l’imprévisibilité ? On peut se demander si le véritable avantage compétitif de demain ne sera pas précisément de savoir se passer de l’IA pour valider une intuition ou résoudre un problème complexe.

Si l’on accepte que l’IA puisse effectivement fournir un socle de connaissances minimal à des millions de personnes qui en sont privées, on ne peut ignorer les mécanismes qui maintiennent, voire accentuent, la distance entre les utilisateurs de base et les maîtres de l’outil. On se retrouve alors devant un choix de société qui dépasse la simple question technique.

Qu’est-ce qui représente le plus grand risque pour l’équité sociale : un monde où l’on maintient des systèmes éducatifs humains inégaux mais diversifiés, ou un monde où l’on offre à tous un accès standardisé à une intelligence artificielle dont les clés de performance et les biais de conception appartiennent à une poignée d’acteurs privés ?

You may also like