Perché utilizzare l'approccio Human in the Loop (HITL) nell'apprendimento automatico?

Pubblicato: 2022-07-20

Hai sentito dell'auto Uber a guida autonoma che ha investito e ucciso una donna in Arizona? In un'altra occasione, una soluzione di riconoscimento facciale ha profilato un uomo di colore innocente come un criminale nel New Jersey e lo strumento di reclutamento basato sull'intelligenza artificiale di Amazon ha mostrato pregiudizi nei confronti delle candidate donne.

Chiaramente, l'intelligenza artificiale commette errori. Errori significativi, persino che cambiano la vita. Quindi, come possiamo ancora ottenere i vantaggi dell'IA eliminando questo tipo di errore? Un'opzione è consentire a esperti umani di formare, valutare e monitorare le soluzioni aziendali di intelligenza artificiale dopo l'implementazione. Questo concetto è chiamato apprendimento automatico umano in the loop (HITL). Gartner prevede che in alcuni settori, le soluzioni HITL AI rappresenteranno circa il 30% di tutte le offerte di automazione entro il 2025.

Abbiamo parlato con il nostro esperto di intelligenza artificiale, Maksym Bochok, per capire come gli esseri umani si inseriscono nel circuito, quali vantaggi apportano e come organizzare questo processo.

Definizione e vantaggi di Human in the loop

Errare è umano, per sporcare davvero le cose ci vuole un computer.

–Paul Ehlrich, medico tedesco e vincitore del premio Nobel

Ora la citazione di Ehlrich è più rilevante che mai. Con l'intelligenza artificiale che gestisce le applicazioni critiche, il margine di errore si riduce. E le macchine non sono perfette. Costruiscono la loro comprensione dell'attività sulla base dei dati di addestramento ricevuti e possono fare ipotesi errate.

E questo ci porta alla terminologia del machine learning human-in-the-loop.

Human in the loop significa integrare i dipendenti umani nella pipeline di machine learning in modo che possano addestrare e convalidare continuamente i modelli. Ciò include tutte le persone che lavorano con i modelli e i relativi dati di addestramento.

In che modo human-in-the-loop aggiunge valore ai tuoi algoritmi di machine learning

Mantiene un alto livello di precisione. Ciò è particolarmente importante per i domini che non possono tollerare errori. Ad esempio, quando produciamo apparecchiature critiche per un aeromobile, desideriamo automazione e velocità, ma non possiamo mettere a repentaglio la sicurezza. HITL è vantaggioso anche in applicazioni meno critiche. Ad esempio, le grandi società di consulenza che fanno molto affidamento sull'intelligenza artificiale per la conformità alle normative dei documenti coinvolgono l'apprendimento automatico umano per convalidare i loro algoritmi di elaborazione del linguaggio naturale.

Elimina i pregiudizi. I modelli di apprendimento automatico possono diventare distorti durante l'addestramento. Inoltre, possono acquisire pregiudizi dopo l'implementazione, mentre continuano ad apprendere. I dipendenti umani possono rilevare ed eliminare questo fenomeno nelle prime fasi correggendo l'algoritmo di conseguenza.

Garantisce trasparenza. Gli algoritmi ML valutano migliaia o addirittura milioni di parametri per prendere una decisione finale e spesso non può essere spiegata. Con HITL, c'è un essere umano che capisce come funzionano gli algoritmi e può giustificare le decisioni che prendono. Questo si chiama IA spiegabile. Ad esempio, quando una persona richiede un prestito e gli viene negato, potrebbe chiedere a un funzionario di prestito di spiegare il motivo del rifiuto e cosa può fare il richiedente per aumentare le proprie possibilità la prossima volta.

Apre opportunità di lavoro. Sentiamo spesso parlare di IA che ruba il lavoro alle persone. L'apprendimento automatico con un essere umano nel circuito fornisce un esempio di come la tecnologia può creare nuovi posti di lavoro. Basta guardare il mercato indiano degli annotatori di dati.

Il ruolo degli esseri umani nella pipeline dell'IA

Maksym spiega come gli esseri umani possono far parte della pipeline dell'IA per migliorare la sua capacità di fare previsioni. I modelli di apprendimento automatico funzionano in modalità di apprendimento supervisionato o non supervisionato. Nel caso dell'apprendimento supervisionato, le persone possono svolgere le seguenti attività:

  • Etichettatura e annotazione. Un dipendente umano etichetta il set di dati di formazione. A seconda dell'esperienza richiesta, può essere un esperto di dominio o qualsiasi dipendente con una formazione adeguata.
  • Reingegnerizzare il modello. Se necessario, gli ingegneri e i programmatori di ML possono apportare modifiche all'algoritmo per assicurarsi che possa ottenere il meglio dal set di dati fornito.
  • Formazione e riqualificazione. I dipendenti alimentano il modello con i dati annotati, visualizzano l'output, apportano correzioni, aggiungono più dati se possibile e riqualificano il modello.
  • Monitoraggio delle prestazioni del modello dopo la distribuzione. Il ciclo di vita dell'apprendimento automatico umano nel ciclo non si ferma dopo aver distribuito la soluzione di intelligenza artificiale presso il cliente. Gli ingegneri di ML continuano a monitorare le sue prestazioni con il consenso del cliente e ad apportare modifiche al modello quando richiesto attraverso la verifica selettiva del suo output. I casi ottenuti attraverso la verifica selettiva aumenteranno il set di dati di addestramento iniziale per migliorare le prestazioni dell'algoritmo.

Nell'apprendimento automatico non supervisionato, gli algoritmi prendono dati senza etichetta come input e trovano una struttura autonomamente. In questo caso, gli esseri umani non annotano il set di dati e non interferiscono molto nell'addestramento iniziale. Ma possono arricchire significativamente il modello eseguendo il passaggio 4 sopra.

Quando umano in the loop machine learning è una necessità assoluta

Maksym ritiene che l'approccio umano nel ciclo sia vantaggioso per la maggior parte dei casi d'uso di apprendimento automatico. Le soluzioni di intelligenza artificiale sono impressionanti nel fare previsioni ottimali se addestrate su grandi set di dati estesi, mentre gli esseri umani possono riconoscere i modelli da una fornitura limitata di campioni di dati di bassa qualità. La combinazione di entrambe le funzionalità può creare un sistema potente. Anche se in alcune applicazioni i modelli ML possono funzionare bene con un intervento umano limitato, ci sono casi in cui un essere umano in piena regola nel sistema ad anello è d'obbligo:

  • Quando qualsiasi errore dell'algoritmo può essere molto costoso, come nella diagnosi medica.
  • Quando i dati necessari per addestrare correttamente l'algoritmo sono scarsi. Più dati di addestramento equivalgono sempre a migliori prestazioni del modello. Con l'aiuto del monitoraggio del modello di post-produzione, puoi aumentare i dati di addestramento con campioni pertinenti, fornendo al modello più esempi da cui imparare.
  • Nel caso dell'apprendimento one-shot quando un algoritmo viene addestrato su centinaia o addirittura migliaia di campioni per classificare alcuni oggetti. Quindi viene aggiunta un'altra classe e l'algoritmo deve imparare a identificarlo solo da alcuni campioni di addestramento.
  • In settori fortemente regolamentati in cui è essenziale spiegare come gli algoritmi siano giunti alle sue conclusioni. Ad esempio, quando i medici usano l'IA per suggerire trattamenti oncologici personalizzati, devono giustificare questo piano di trattamento al paziente.

Quando si esamina il tipo di dati elaborati dagli algoritmi ML, HITL AI sarebbe essenziale per le applicazioni di visione artificiale e l'elaborazione del linguaggio naturale (NLP), soprattutto quando si tratta di analisi del sentimento di un testo che potrebbe contenere sarcasmo. HITL è meno importante per i dati tabulari e l'analisi delle serie temporali.

Suggerimenti per migliorare l'intelligenza artificiale con le pratiche umane in loop

Maksym offre i seguenti suggerimenti su come implementare con successo l'approccio human in the loop nell'apprendimento automatico:

  • Durante il monitoraggio e l'analisi delle prestazioni di un algoritmo dopo la distribuzione , non importa quanto sia buono il sistema umano nel circuito, i partecipanti umani non saranno in grado di prestare attenzione a ogni input elaborato dall'algoritmo ea ogni output che genera. Scegli i tuoi casi con saggezza. Usa la verifica selettiva per scegliere i casi che meritano la tua attenzione. Maksym suggerisce questi approcci alla selezione dei casi intelligenti:
  • Basato sui livelli di confidenza. Ad esempio, un algoritmo deve classificare ogni immagine di input come un gatto o un cane. Le immagini che ricevono un livello di confidenza di circa 48/52 o qualcosa di simile sono quelle che confondono gli algoritmi e devono essere adeguatamente etichettate e utilizzate per riqualificare il modello.
  • Verifica casuale di casi “banali”. Assumiamo che solo un caso su dieci contenga informazioni preziose quando si tratta delle prestazioni di un algoritmo. Un esempio di un caso del genere è quando il modello è troppo sicuro di una previsione errata. Dovresti assolutamente prendere in considerazione questo caso, ma devi anche selezionare casualmente uno dei nove casi rimanenti per assicurarti che l'algoritmo non diventi eccessivamente sicuro delle sue previsioni sbagliate o permetta distorsioni.
  • Quando analizzi i casi che hai scelto nel passaggio precedente , non limitarti al risultato finale. Invece di guardare l'output del set finale di neuroni nelle reti neurali, controlla il livello precedente, come nell'immagine sottostante, e analizza la distribuzione delle distanze tra una previsione sbagliata e le previsioni corrette più vicine fatte dall'algoritmo.
  • Incoraggiare gli utenti finali dell'algoritmo a fornire feedback sulle sue prestazioni. Costruisci moduli di feedback e mettili a disposizione di tutti, in modo che gli utenti possano esprimere eventuali dubbi.
  • Continua ad aumentare il set di dati di addestramento in modo iterativo utilizzando i punti dati dei passaggi precedenti. In questo modo, sarai sicuro che il tuo algoritmo rimanga rilevante anche quando si verificano alcune modifiche alle operazioni del cliente.

Strumenti di intelligenza artificiale abilitati HITL pronti all'uso

Esistono alcuni strumenti di apprendimento automatico pronti all'uso che consentono di etichettare i set di dati di addestramento e verificarne il risultato. Tuttavia, potresti non essere in grado di implementare i suggerimenti di cui sopra con questi strumenti standardizzati. Ecco alcuni esempi di strumenti umani nel ciclo:

Google Cloud HITL

Questa soluzione offre un flusso di lavoro e un'interfaccia utente (UI) che le persone possono utilizzare per etichettare, rivedere e modificare i dati estratti dai documenti. L'azienda cliente può utilizzare i propri dipendenti come etichettatori o assumere la forza lavoro di Google HITL per svolgere l'attività.

Lo strumento dispone di alcune funzionalità dell'interfaccia utente per semplificare il flusso di lavoro delle etichettatrici e filtrare l'output in base alla soglia di confidenza. Consente inoltre alle aziende di gestire il pool di etichettatrici.

AI aumentata di Amazon (Amazon A2I)

Questo strumento di intelligenza artificiale "umano in the loop" consente alle persone di rivedere previsioni ML casuali e a bassa confidenza. A differenza di Google Cloud HITL, che opera solo su testo, Amazon A2I può integrare Amazon Recognition per estrarre immagini e convalidare i risultati. Può anche aiutare a rivedere i dati tabulari.

Se un cliente non è soddisfatto del flusso di lavoro A2I fornito, può sviluppare il proprio approccio con SageMaker o uno strumento simile.

DataRobot Humble AI

Humble AI consente alle persone di specificare una serie di regole che i modelli ML devono applicare durante le previsioni. Ogni regola include una condizione e un'azione corrispondente. Attualmente sono previste tre azioni:

  • Nessuna operazione, quando gli esseri umani si limitano a monitorare la condizione corrispondente senza interferire
  • Sovrascrivere la previsione, quando le persone possono sostituire l'output del modello con un valore diverso
  • Errore di ritorno, semplicemente scartando del tutto la previsione

Quindi, l'apprendimento automatico con un essere umano nel circuito è l'approccio migliore per te?

L'utilizzo dell'approccio dell'IA umana nel ciclo migliora l'accuratezza, la trasparenza e la qualità delle previsioni. Aumenta anche i costi e il tempo necessari per completare l'attività a causa dell'intervento umano creando opportunità di lavoro, il che è un effetto collaterale positivo.

Nonostante gli ovvi vantaggi dell'IA HITL, ci sono applicazioni in cui l'essere umano fuori dal ciclo è un approccio preferito a causa dei rischi associati a determinate attività. Pensa allo sviluppo e al dispiegamento autonomo delle armi.

Se ritieni che i tuoi algoritmi ML possano utilizzare un essere umano nel loop, ma non sei sicuro di come bilanciare i costi operativi e l'accuratezza e la spiegabilità desiderate, contatta i consulenti di machine learning. Lavoreranno con te per trovare la giusta misura. Se l'apprendimento automatico umano nel ciclo non è la soluzione ottimale nel tuo caso, ci sono altri trucchi ML che possono aiutarti a superare il problema della scarsità di dati di addestramento:

  • Trasferisci l'apprendimento , quando perfezioni i modelli pre-addestrati con i tuoi dati
  • Apprendimento semi-supervisionato , quando si utilizza un grande set di dati senza etichetta insieme a un numero ridotto di campioni etichettati
  • Apprendimento auto-supervisionato , quando si maschera una parte casuale del campione di addestramento in ogni batch e l'algoritmo tenta di prevederlo

Stai pensando di migliorare l'accuratezza e la spiegabilità del tuo modello ML? Mettiti in contatto! Gli esperti di ITRex AI studieranno la tua situazione e elaboreranno un approccio umano ottimale per soddisfare le tue esigenze.


Pubblicato originariamente su https://itrexgroup.com il 17 luglio 2022.