Pourquoi utiliser l'approche Human in the Loop (HITL) dans l'apprentissage automatique ?

Publié: 2022-07-20

Avez-vous entendu parler de la voiture Uber autonome qui a percuté et tué une femme en Arizona ? À une autre occasion, une solution de reconnaissance faciale a présenté un homme de couleur innocent comme un criminel dans le New Jersey, et l'outil de recrutement basé sur l'IA d'Amazon a affiché un parti pris contre les candidates.

De toute évidence, l'intelligence artificielle fait des erreurs. Des erreurs importantes, voire bouleversantes. Alors, comment pouvons-nous encore bénéficier des avantages de l'IA tout en éliminant ce type d'erreur ? Une option consiste à laisser des experts humains former, évaluer et surveiller les solutions commerciales d'IA après le déploiement. Ce concept est appelé apprentissage automatique humain dans la boucle (HITL). Gartner prévoit que dans certains secteurs, les solutions HITL AI représenteront environ 30 % de toutes les offres d'automatisation d'ici 2025.

Nous avons parlé à notre expert en intelligence artificielle, Maksym Bochok, pour comprendre comment les humains s'intègrent dans la boucle, quels avantages ils apportent et comment organiser ce processus.

Human in the loop définition et avantages

L'erreur est humaine, pour vraiment gâcher les choses, il faut un ordinateur.

–Paul Ehlrich, médecin allemand et lauréat du prix Nobel

Aujourd'hui, la citation d'Ehlrich est plus pertinente que jamais. Avec l'IA qui gère les applications critiques, la marge d'erreur s'amenuise. Et les machines ne sont pas parfaites. Ils construisent leur compréhension de la tâche sur la base des données de formation reçues et peuvent faire des hypothèses erronées.

Et cela nous amène à la terminologie de l'apprentissage automatique humain dans la boucle.

L'humain dans la boucle signifie intégrer des employés humains dans le pipeline d'apprentissage automatique afin qu'ils puissent continuellement former et valider des modèles. Cela inclut toutes les personnes qui travaillent avec des modèles et leurs données de formation.

Comment l'humain dans la boucle ajoute de la valeur à vos algorithmes d'apprentissage automatique

Maintient un haut niveau de précision. Ceci est particulièrement important pour les domaines qui ne tolèrent pas les erreurs. Par exemple, lors de la fabrication d'équipements critiques pour un avion, nous voulons l'automatisation et la rapidité, mais nous ne pouvons pas compromettre la sécurité. HITL est également bénéfique dans les applications moins critiques. Par exemple, les grandes sociétés de conseil qui s'appuient fortement sur l'IA pour la conformité réglementaire des documents impliquent l'apprentissage automatique humain dans la boucle pour valider leurs algorithmes de traitement du langage naturel.

Élimine les biais. Les modèles d'apprentissage automatique peuvent devenir biaisés pendant la formation. De plus, ils peuvent acquérir des préjugés après le déploiement, à mesure qu'ils continuent à apprendre. Les employés humains peuvent détecter et éliminer ce phénomène à un stade précoce en corrigeant l'algorithme en conséquence.

Assure la transparence. Les algorithmes ML évaluent des milliers, voire des millions de paramètres pour prendre une décision finale, et cela ne peut souvent pas être expliqué. Avec HITL, il y a un humain qui comprend le fonctionnement des algorithmes et peut justifier les décisions qu'ils prennent. C'est ce qu'on appelle l'IA explicable. Par exemple, lorsqu'une personne demande un prêt et se voit refuser, elle peut demander à un agent de crédit d'expliquer le raisonnement derrière le refus et ce que le demandeur peut faire pour augmenter ses chances la prochaine fois.

Ouvre des opportunités d'emploi. Nous entendons souvent parler de l'IA qui vole les emplois des gens. L'apprentissage automatique avec un humain dans la boucle fournit un exemple de la façon dont la technologie peut créer de nouveaux postes vacants. Il suffit de regarder le marché indien des annotateurs de données.

Le rôle des humains dans le pipeline de l'IA

Maksym explique comment les humains peuvent faire partie du pipeline de l'IA pour améliorer sa capacité à faire des prédictions. Les modèles d'apprentissage automatique fonctionnent en mode d'apprentissage supervisé ou non supervisé. Dans le cas de l'apprentissage supervisé, les personnes peuvent effectuer les tâches suivantes :

  • Étiquetage et annotation. Un employé humain étiquette l'ensemble de données de formation. Selon l'expertise requise, il peut s'agir d'un expert du domaine ou de tout employé ayant reçu une formation appropriée.
  • Réingénierie du modèle. Si nécessaire, les ingénieurs et les programmeurs ML peuvent apporter des ajustements à l'algorithme pour s'assurer qu'il peut tirer le meilleur parti de l'ensemble de données fourni.
  • Formation et recyclage. Les employés alimentent le modèle avec les données annotées, visualisent la sortie, apportent des corrections, ajoutent plus de données si possible et reforment le modèle.
  • Surveillance des performances du modèle après déploiement. L'humain dans le cycle de vie de l'apprentissage automatique ne s'arrête pas après le déploiement de la solution d'IA dans les locaux du client. Les ingénieurs ML continuent de surveiller ses performances avec le consentement du client et apportent des ajustements au modèle si nécessaire grâce à une vérification sélective de sa sortie. Les cas obtenus par vérification sélective augmenteront l'ensemble de données d'entraînement initial pour améliorer les performances de l'algorithme.

Dans l'apprentissage automatique non supervisé, les algorithmes prennent des données non étiquetées en entrée et trouvent une structure par eux-mêmes. Dans ce cas, les humains n'annotent pas le jeu de données et n'interfèrent pas beaucoup dans la formation initiale. Mais ils peuvent enrichir considérablement le modèle en effectuant l'étape 4 ci-dessus.

Quand l'humain dans la boucle, l'apprentissage automatique est une nécessité absolue

Maksym pense que l'approche humaine dans la boucle est bénéfique pour la plupart des cas d'utilisation de l'apprentissage automatique. Les solutions d'IA sont impressionnantes pour faire des prédictions optimales lorsqu'elles sont formées sur de grands ensembles de données étendus, tandis que les humains peuvent reconnaître des modèles à partir d'un nombre limité d'échantillons de données de faible qualité. La combinaison des deux capacités peut créer un système puissant. Même si dans certaines applications, les modèles ML peuvent bien fonctionner avec une intervention humaine limitée, il existe des cas où un humain à part entière dans le système en boucle est indispensable :

  • Lorsque toute erreur de l'algorithme peut être très coûteuse, comme dans le cas d'un diagnostic médical.
  • Lorsque les données dont vous avez besoin pour former correctement l'algorithme sont rares. Plus de données de formation équivaut toujours à de meilleures performances du modèle. Avec l'aide de la surveillance du modèle de post-production, vous pouvez compléter les données de formation avec des échantillons pertinents, donnant au modèle plus d'exemples à partir desquels apprendre.
  • Dans le cas de l'apprentissage ponctuel lorsqu'un algorithme est entraîné sur des centaines voire des milliers d'échantillons pour classer certains objets. Et puis une autre classe est ajoutée, et l'algorithme doit apprendre à l'identifier à partir de seulement quelques échantillons d'apprentissage.
  • Dans les industries fortement réglementées où il est essentiel d'expliquer comment les algorithmes sont arrivés à leurs conclusions. Par exemple, lorsque les médecins utilisent l'IA pour proposer des traitements personnalisés contre le cancer, ils doivent justifier ce plan de traitement auprès du patient.

En ce qui concerne le type de données traitées par les algorithmes ML, HITL AI serait essentiel pour les applications de vision par ordinateur et le traitement du langage naturel (NLP), en particulier lorsqu'il s'agit d'analyser les sentiments d'un texte susceptible de contenir du sarcasme. HITL est moins important pour les données tabulaires et l'analyse des séries chronologiques.

Conseils pour améliorer l'intelligence artificielle avec des pratiques humaines dans la boucle

Maksym propose les conseils suivants pour mettre en œuvre avec succès l'approche de l'humain dans la boucle dans l'apprentissage automatique :

  • Lors de la surveillance et de l'analyse des performances d'un algorithme après le déploiement , quelle que soit la qualité de l'humain dans le système de boucle, les participants humains ne seront pas en mesure de prêter attention à chaque entrée traitée par l'algorithme et à chaque sortie qu'il génère. Choisissez judicieusement vos étuis. Utilisez la vérification sélective pour sélectionner les cas qui méritent votre attention. Maksym suggère ces approches pour une sélection intelligente des cas :
  • Basé sur les niveaux de confiance. Par exemple, un algorithme doit classer chaque image d'entrée comme un chat ou un chien. Les images qui reçoivent un niveau de confiance d'environ 48/52 ou quelque chose de similaire sont celles qui confondent les algorithmes et doivent être correctement étiquetées et utilisées pour réentraîner le modèle.
  • Vérification aléatoire des cas « triviaux ». Supposons que seul un cas sur dix contient des informations précieuses en ce qui concerne les performances d'un algorithme. Un exemple d'un tel cas est lorsque le modèle est trop confiant quant à une mauvaise prédiction. Vous devriez certainement considérer ce cas, mais vous devez également sélectionner au hasard l'un des neuf cas restants pour vous assurer que l'algorithme ne devient pas trop confiant avec ses mauvaises prédictions ou ne permet pas de biais.
  • Lorsque vous analysez les cas que vous avez sélectionnés à l'étape précédente , ne vous limitez pas au résultat final. Au lieu de regarder la sortie de l'ensemble final de neurones dans les réseaux de neurones, vérifiez la couche précédente, comme dans l'image ci-dessous, et analysez la distribution des distances entre une mauvaise prédiction et les prédictions correctes les plus proches faites par l'algorithme.
  • Encouragez les utilisateurs finaux de l'algorithme à donner leur avis sur ses performances. Construisez des formulaires de commentaires et mettez-les à la disposition de tous, afin que les utilisateurs puissent faire part de leurs préoccupations éventuelles.
  • Continuez à augmenter l'ensemble de données d'apprentissage de manière itérative en utilisant les points de données des étapes précédentes. De cette façon, vous serez sûr que votre algorithme demeure pertinent même lorsque certains changements interviennent chez le client.

Outils d'IA compatibles HITL prêts à l'emploi

Il existe des outils d'apprentissage automatique humains prêts à l'emploi qui vous permettent d'étiqueter les ensembles de données de formation et de vérifier le résultat. Cependant, vous ne pourrez peut-être pas mettre en œuvre les conseils ci-dessus avec ces outils standardisés. Voici quelques exemples d'outils humains dans la boucle :

Google Cloud HITL

Cette solution offre un flux de travail et une interface utilisateur (UI) que les utilisateurs peuvent utiliser pour étiqueter, réviser et modifier les données extraites des documents. L'entreprise cliente peut soit utiliser ses propres employés comme étiqueteurs, soit embaucher de la main-d'œuvre Google HITL pour accomplir la tâche.

L'outil dispose de certaines fonctionnalités d'interface utilisateur pour rationaliser le flux de travail des étiqueteurs et filtrer la sortie en fonction du seuil de confiance. Il permet également aux entreprises de gérer leur pool d'étiqueteurs.

IA augmentée d'Amazon (Amazon A2I)

Cet outil d'intelligence artificielle humain dans la boucle permet aux utilisateurs d'examiner des prédictions de ML peu fiables et aléatoires. Contrairement à Google Cloud HITL, qui ne fonctionne que sur du texte, Amazon A2I peut compléter Amazon Recognition pour extraire des images et valider les résultats. Cela peut également aider à examiner les données tabulaires.

Si un client n'est pas satisfait du flux de travail A2I fourni, il peut développer sa propre approche avec SageMaker ou un outil similaire.

DataRobot Humble IA

Humble AI permet aux utilisateurs de spécifier un ensemble de règles que les modèles ML doivent appliquer lors de la réalisation de prédictions. Chaque règle comprend une condition et une action correspondante. Actuellement, il y a trois actions :

  • Aucune opération, lorsque les humains surveillent simplement la condition correspondante sans interférer
  • Remplacement de la prédiction, lorsque les utilisateurs peuvent remplacer la sortie du modèle par une valeur différente
  • Renvoyer une erreur, en supprimant simplement la prédiction

Alors, l'apprentissage automatique avec un humain dans la boucle est-il la meilleure approche pour vous ?

L'utilisation de l'approche d'IA humaine dans la boucle améliore la précision, la transparence et la qualité des prédictions. Cela augmente également les coûts et le temps nécessaires pour accomplir la tâche en raison de l'intervention humaine tout en créant des opportunités d'emploi, ce qui est un effet secondaire positif.

Malgré les avantages évidents de HITL AI, il existe des applications où l'humain hors circuit est une approche privilégiée en raison des risques associés à certaines activités. Pensez au développement et au déploiement d'armes autonomes.

Si vous pensez que vos algorithmes ML peuvent utiliser un humain dans la boucle, mais que vous ne savez pas comment équilibrer les coûts opérationnels et la précision et l'explicabilité souhaitées, contactez des consultants en apprentissage automatique. Ils travailleront avec vous pour trouver le bon ajustement. Si l'apprentissage automatique humain dans la boucle n'est pas la solution optimale dans votre cas, il existe d'autres astuces de ML qui peuvent vous aider à surmonter le problème de la rareté des données d'entraînement :

  • Apprentissage par transfert , lorsque vous affinez des modèles pré-entraînés avec vos propres données
  • Apprentissage semi-supervisé , lorsque vous utilisez un grand ensemble de données non étiquetées avec un petit nombre d'échantillons étiquetés
  • Apprentissage auto-supervisé , lorsque vous masquez une partie aléatoire de l'échantillon d'apprentissage dans chaque lot et que l'algorithme essaie de le prédire

Envisagez-vous d'améliorer la précision et l'explicabilité de votre modèle de ML ? Entrer en contact! Les experts ITRex AI étudieront votre situation et concevront une approche humaine optimale dans la boucle pour répondre à vos besoins.


Publié à l'origine sur https://itrexgroup.com le 17 juillet 2022.