Decodificare il diritto alla spiegazione nell'intelligenza artificiale
Pubblicato: 2020-10-31Uno degli sviluppi politici più importanti per regolamentare l'applicazione dell'IA è stato incluso nel GDPR nel 2018
Proprio come la varietà di motori a combustione interna che esistono oggi, i modelli e gli algoritmi di intelligenza artificiale sono di diversi tipi con vari livelli di complessità
Quando si prendono decisioni, l'IA non attribuisce significato e non classifica le nuove informazioni allo stesso modo degli esseri umani
L'intelligenza artificiale, per la maggior parte delle persone, è una tecnologia che potenzia i chatbot o il riconoscimento delle immagini nella migliore delle ipotesi, in pratica un software che racconta le immagini dei gatti dai cani. Altri lo vedono come una seria minaccia per i loro normali lavori giornalieri. Indipendentemente dal suo impatto sulle loro vite, le persone vedono l'IA come una tecnologia con un enorme potenziale futuro. Sebbene il futuro dell'IA susciti stupore e paura, il suo impatto sul presente rimane in gran parte sconosciuto. Dalla selezione dei curriculum alla diffusione della propaganda, l'IA sta lavorando su di noi più di quanto la maggior parte di noi sappia. Gli effetti sono significativi e i leader di tutto il mondo se ne stanno rapidamente accorgendo.
Battendo per il quadro normativo all'AeroAstro Centennial Symposium del MIT , Elon Musk ha affermato: "Sono sempre più propenso a pensare che dovrebbe esserci qualche supervisione normativa, forse a livello nazionale e internazionale, solo per assicurarci di non fare qualcosa molto sciocco. Voglio dire, con l'intelligenza artificiale stiamo evocando il demone. "
Uno degli sviluppi politici più importanti per regolamentare l'applicazione dell'IA è stato incluso nel GDPR nel 2018. L'articolo 22, nella sezione 4 del GDPR, in sostanza, afferma che se la tua domanda di lavoro o prestito o cittadinanza viene respinta in base ai punteggi di un software di elaborazione intelligente automatizzato, hai il diritto di richiedere una spiegazione. L'inosservanza potrebbe comportare una sanzione fino a 20 milioni di euro o il 4% del fatturato annuo globale dell'azienda. L'idea è di eliminare le predizioni comportamentali discriminatorie e gli stereotipi basati sui dati. E questo è il diritto alla spiegazione in poche parole.
Perché è necessario il diritto alla spiegazione?
I punteggi utilizzati per fare previsioni si basano sulla valutazione di diverse variabili apparentemente non correlate e sulle loro relazioni con un insieme di algoritmi. Senza l'intervento umano, a volte i risultati possono essere irregolari. Deselezionati, questi possono gettare le basi per stereotipi new age e alimentare pregiudizi esistenti. Sebbene l'IA funzioni con i dati, i dati stessi possono generare pregiudizi che falliscono anche nei sistemi di intelligenza artificiale più robusti.
Ad esempio, il rifiuto di una domanda di mutuo da parte di un sistema basato sull'intelligenza artificiale può avere delle ricadute non intenzionali. Un algoritmo di autoapprendimento, basato su dati storici, può abbinare l'età e il codice postale del richiedente a un gruppo di persone che non hanno pagato i loro prestiti nell'ultimo trimestre. Nel farlo, potrebbe trascurare alcuni criteri favorevoli, come la qualità degli asset, assenti nei dati storici.
Senza una valida spiegazione, il rifiuto potrebbe indurre ad azioni legali per stereotipi e discriminazioni, in particolare se il quartiere ospita persone per lo più appartenenti a un gruppo minoritario. Pertanto, in quanto tecnologia che ha il potenziale per prendere decisioni per conto degli esseri umani, l'IA deve fornire etica, equità e giustizia nelle interazioni umane. Come minimo, deve soddisfare i seguenti tipi di giustizia:
Raccomandato per te:
- Distributivo: allocazione socialmente giusta di risorse, opportunità e ricompense
- Il processo procedurale – equo e trasparente per arrivare a un risultato
- Interazione: il processo e il risultato devono entrambi trattare le persone colpite con dignità e rispetto
Il diritto alla spiegazione chiude questo importantissimo ciclo di giustizia nell'uso dell'IA.
AI e sfide al diritto alla spiegazione
Proprio come la varietà di motori a combustione interna che esistono oggi, i modelli e gli algoritmi di intelligenza artificiale sono di diversi tipi con vari livelli di complessità. Il risultato di modelli più semplici, come la regressione lineare, è relativamente facile da spiegare. Sono note le variabili coinvolte, la loro ponderazione e le combinazioni per arrivare al punteggio di output.
Algoritmi complessi come il deep learning, mentre cercano una maggiore precisione, agiscono come una scatola nera: ciò che accade all'interno, rimane all'interno. Con algoritmi che autoapprendono e costruiscono modelli, la causa di un determinato risultato è difficile da spiegare, perché:
- Le variabili effettivamente utilizzate dagli algoritmi non sono note
- L'importanza/peso associato alle variabili non può essere calcolato a ritroso
- Diversi costrutti intermedi e relazioni tra variabili rimangono sconosciuti
Se i processi di ammissione all'università fossero stati interamente alimentati da reti neurali, avrebbe reso il processo opaco di quanto non lo sia oggi. Se ti fosse stato negato un posto in un'università leader, perché il loro algoritmo trova che un certo "background" non si adatta bene, rimarrai a chiederti quale parte del tuo "background" ha funzionato contro di te. Peggio ancora, il comitato di ammissione non te lo spiegherebbe. In uno stato in cui abbondano le disuguaglianze sociali, un'IA opaca è l'ultima cosa che le università chiederebbero.
D'altra parte, un'IA completamente trasparente renderebbe l'algoritmo vulnerabile al gioco e porterebbe al dirottamento dell'intero processo di ammissione. Il diritto alla spiegazione, quindi, riguarda l'IA che raggiunge il giusto grado di traslucenza; non può essere né completamente trasparente né opaco.
La strada davanti
Quando si prendono decisioni, l'IA non attribuisce significato e non classifica le nuove informazioni allo stesso modo degli esseri umani. Rafforza i modelli più comuni ed esclude i casi che non sono nella maggioranza. Una delle possibili soluzioni tecniche che vengono attivamente esplorate riguarda il rendere spiegabile l'IA. L'IA spiegabile (XAI) è indispensabile nei casi d'uso rilevanti ad alto rischio e ad alto rischio, come la diagnosi medica in cui la fiducia è parte integrante della soluzione. Senza una sufficiente trasparenza sull'elaborazione interna, gli algoritmi di Blackbox non riescono a offrire il livello di fiducia necessario per salvare una vita.
Con la fragilità così radicata nella sua architettura fondamentale, sia tecnologica che statistica, l'IA ha bisogno di regolamentazione. Come ha scritto Sundar Pichai su un Financial Times all'inizio di quest'anno, " Ora non ho dubbi sul fatto che l'intelligenza artificiale debba essere regolata. È troppo importante per non farlo. L'unica domanda è come affrontarlo. "
Il quadro giuridico che regola l'IA è in evoluzione e in uno stato di mutamento in diverse parti del mondo.
In India, con il diritto alla privacy al centro del dibattito nazionale alcuni mesi fa, non siamo lontani da una legge globale che regola l'IA che sta prendendo forma. In particolare, un documento di discussione pubblicato da NITI Aayog nel giugno 2018 affronta l'argomento in modo molto dettagliato. Nel tempo, man mano che la sfera di influenza dell'IA si espande, le leggi, in risposta, diventeranno più rigorose per includere più disposizioni.
Man mano che la tecnologia si sviluppa e le sue nuove applicazioni vengono scoperte, è necessaria un'autoregolamentazione da parte del settore. Le organizzazioni devono concentrarsi in modo proattivo sull'implementazione di XAI che preservi la natura umana delle interazioni basata sulla fiducia e sulla comprensione. Se non altro, eviterà che innovazioni potenzialmente in grado di cambiare la vita vengano soffocate da quelle che potrebbero essere leggi protettive ben intenzionate. Come per la maggior parte delle cose nella vita, la soluzione sta nel trovare il giusto equilibrio.