Si vous n’avez pas encore essayé un agent conversationnel à intelligence artificielle tel que ChatGPT (comme c’était le cas de 70 % de la population canadienne en février 2024 selon la firme Léger), cet article propose de vous en faire découvrir les caractéristiques. Les résultats obtenus par ces logiciels sont certes impressionnants, mais ils sont loin d’être infaillibles. La validation humaine demeure essentielle, voire critique. Voici pourquoi.
Le principe de l’approximation
La conception d’un algorithme d’intelligence artificielle générative implique inévitablement des compromis, même s’ils sont subtils. En effet, pour garantir que l’algorithme soit utilisable au-delà des données d’entraînement, on vise l’équilibre entre les deux extrêmes : le surapprentissage (overfitting) et le sous-apprentissage (underfitting).
Le surapprentissage survient lorsque l’intelligence artificielle (IA) est trop entraînée ou utilise un excès de données. Le modèle mémorise les données d’entraînement, dont les anomalies, avec lesquelles il performe, mais il s’adapte mal à de nouvelles données.
Le sous-apprentissage se produit lorsque l’IA n’est pas suffisamment entraînée ou utilise trop peu de données. Le modèle ne capture pas la complexité des relations dans les données. Par conséquent, celui-ci ne performe pas, tant avec les données d’entraînement qu’avec les nouvelles données.
Ainsi, pour accroître la polyvalence de l’algorithme, il est souvent nécessaire de faire un compromis sur la précision.
Les biais inhérents à la conception des algorithmes
Bien que les concepteurs et conceptrices d’algorithmes s’efforcent de créer les meilleurs modèles possibles, plusieurs biais peuvent y être introduits involontairement. Voici trois types de biais et leurs implications dans un contexte de gestion des ressources humaines :
1. Biais algorithmiques et de conception
Reflètent les points de vue, les expériences et les valeurs des êtres humains concepteurs de l’algorithme. Les choix effectués à cette étape, tels que des critères de sélection ou des pondérations attribuées à des variables, peuvent favoriser certains groupes.
- Système de tri de CV : un algorithme privilégiant des mots-clés associés à des postes traditionnellement masculins (p. ex., « leader », « décisif ») pourrait desservir les candidatures féminines.
- Outils d’évaluation de personnalité : s’ils sont fondés sur des normes culturelles dominantes, ces outils pourraient pénaliser les personnes issues de cultures minoritaires, dont les traits de personnalité pourraient être interprétés différemment.
- Logiciels d’appariement candidats-postes : un algorithme fondé sur les expériences professionnelles des candidats et des candidates pourrait exclure des gens talentueux dont le parcours est atypique ou qui ont pris des pauses dans leur carrière.
2. Biais liés aux données sources
Si les données d’entraînement sont incomplètes, déséquilibrées ou non représentatives de la diversité de la population, l’algorithme d’apprentissage automatique reproduira ces biais dans ses résultats.
- Analyse de sentiment du personnel : si les données d’entraînement sont majoritairement issues de commentaires de personnes satisfaites, l’algorithme pourrait sous-estimer le mécontentement d’autres groupes, notamment ceux issus de minorités.
- Prédiction de la performance : un algorithme formé sur des données historiques de performance biaisées (favorisant les gens ayant bénéficié de privilèges, par exemple) pourrait perpétuer ces inégalités en recommandant des promotions ou des augmentations inéquitables.
3. Biais historiques ancrés dans les données
Les données historiques reflètent souvent des disparités et des discriminations systémiques présentes dans la société. Utiliser ces données sans les analyser et les corriger revient à reproduire et à amplifier ces injustices.
- Analyse des salaires : si les données historiques montrent un écart salarial entre les hommes et les femmes, un algorithme pourrait proposer de maintenir cette différence, voire de l’augmenter.
- Recrutement basé sur les réseaux sociaux : un algorithme qui s’appuie sur les données des réseaux sociaux professionnels pourrait exclure des personnes talentueuses qui n’y ont pas accès ou qui choisissent de ne pas y être présentes.
La solution : une approche itérative avec un être humain dans la boucle
Lorsqu’on fait une requête dans un agent conversationnel, celui-ci fournit une réponse initiale qui peut comporter des imprécisions et des biais. Plus la requête est précisée avec des détails et du contexte, plus les marges d’erreur diminuent, permettant à l’agent d’affiner ses résultats.
L’approche itérative dans la conception des requêtes avec un agent conversationnel génératif vise principalement à améliorer la qualité des réponses obtenues. À chaque itération, l’humain affine sa requête en fonction de la réponse précédente, ciblant ainsi des informations plus précises ou pertinentes. Cette méthode permet d’explorer les nuances du sujet et d’exploiter pleinement les capacités de l’agent.
Au fil des échanges :
- les réponses gagnent en précision, en profondeur et en pertinence;
- l’humain apprend à formuler des questions plus efficaces;
- l’agent conversationnel fournit des informations de plus en plus circonscrites et utiles.
Ce processus d’amélioration continue conduit à des résultats plus riches et mieux adaptés aux besoins spécifiques de l’utilisateur, maximisant ainsi la valeur de l’interaction avec l’agent génératif.