Decodificarea dreptului la explicație în inteligența artificială
Publicat: 2020-10-31Una dintre cele mai importante evoluții de politică pentru reglementarea aplicării AI a fost inclusă în GDPR în 2018
La fel ca varietatea de motoare cu ardere internă care există astăzi, modelele și algoritmii AI sunt de diferite tipuri, cu diferite niveluri de complexitate.
Atunci când iau decizii, AI nu acordă sens și nu clasifică informații noi în același mod ca oamenii
Inteligența artificială, pentru majoritatea oamenilor, este o tehnologie care alimentează în cel mai bun caz chatbot-urile sau recunoașterea imaginilor - practic, un software care spune imagini ale pisicilor de la câini. Alții îl consideră o amenințare serioasă pentru locurile lor de muncă obișnuite. Indiferent de impactul pe care îl are asupra vieții lor, oamenii văd AI ca pe o tehnologie cu un potențial extraordinar de viitor. În timp ce viitorul AI provoacă uimire și frică, impactul său asupra prezentului rămâne în mare parte nerecunoscut. De la selectarea CV-urilor până la răspândirea propagandei, AI lucrează mai mult cu noi decât știm majoritatea dintre noi. Efectele sunt semnificative și liderii din întreaga lume se trezesc rapid la asta.
Luptând pentru cadrul de reglementare la Simpozionul Centenar AeroAstro al MIT , Elon Musk a opinat: „Sunt tot mai înclinat să cred că ar trebui să existe o supraveghere reglementară, poate la nivel național și internațional, doar pentru a ne asigura că nu facem ceva. foarte prostesc. Adică, cu inteligența artificială, invocăm demonul. ”
Una dintre cele mai importante evoluții de politică pentru reglementarea aplicării IA a fost inclusă în GDPR în 2018. Articolul 22, în secțiunea 4 din GDPR, în esență, prevede că, dacă cererea dvs. pentru un loc de muncă sau un împrumut sau cetățenie este respinsă pe baza scorurilor a software-ului automat de procesare inteligentă, aveți dreptul de a cere o explicație. Nerespectarea ar putea duce la o amendă de până la 20 de milioane de euro sau 4% din cifra de afaceri anuală globală a companiei. Ideea este de a elimina comportamentul discriminatoriu - predicțiile și stereotipurile bazate pe date. Și acesta este dreptul la explicație pe scurt.
De ce este necesar dreptul la explicație?
Scorurile folosite pentru a face predicții se bazează pe evaluarea mai multor variabile aparent neînrudite și pe relațiile lor cu un set de algoritmi. Fără intervenția umană, rezultatele pot fi uneori neregulate. Necontrolate, acestea pot pregăti terenul pentru stereotipurile new-age și pot alimenta părtinirile existente. În timp ce AI lucrează cu date, datele în sine pot genera părtinire, eșuând chiar și cele mai robuste sisteme AI.
De exemplu, respingerea unei cereri de credit ipotecar de către un sistem bazat pe inteligență artificială poate avea unele consecințe neintenționate. Un algoritm de auto-învățare, bazat pe date istorice, poate potrivi vârsta și codul poștal al solicitantului cu o grămadă de persoane care au rămas neîndeplinite de împrumuturi în ultimul trimestru. În timp ce face acest lucru, poate trece cu vederea anumite criterii favorabile, cum ar fi calitatea activelor, absente în datele istorice.
Fără o explicație validă, respingerea ar putea duce la acțiuni legale pentru stereotipuri și discriminare, în special dacă cartierul găzduiește persoane aparținând în mare parte unui grup minoritar. Prin urmare, ca tehnologie care are potențialul de a lua decizii în numele oamenilor, AI trebuie să asigure etica, corectitudinea și justiția în interacțiunile umane. Cel puțin, trebuie să satisfacă următoarele tipuri de justiție:
Recomandat pentru tine:
- Distributiv – alocare socială justă a resurselor, oportunităților și recompenselor
- Procesul procedural – echitabil și transparent pentru a ajunge la un rezultat
- Interacțional – atât procesul, cât și rezultatul trebuie să trateze persoanele afectate cu demnitate și respect
Dreptul la explicație închide această buclă extrem de importantă a justiției în utilizarea AI.
AI și provocări la dreptul la explicație
La fel ca varietatea de motoare cu ardere internă care există astăzi, modelele și algoritmii AI sunt de diferite tipuri, cu niveluri diferite de complexitate. Rezultatul modelelor mai simple, cum ar fi regresia liniară, este relativ ușor de explicat. Sunt cunoscute variabilele implicate, ponderea lor și combinațiile pentru a ajunge la scorul de rezultat.
Algoritmii complecși, cum ar fi învățarea profundă, în timp ce se străduiesc pentru o mai mare acuratețe, acționează ca o cutie neagră – ceea ce se întâmplă în interior rămâne în interior. Cu algoritmi care învață singur și construiesc modele, cauza unui anumit rezultat este dificil de explicat, deoarece:
- Variabilele folosite efectiv de algoritmi nu sunt cunoscute
- Importanța/ponderea atașată variabilelor nu poate fi calculată înapoi
- Mai multe constructe intermediare și relații între variabile rămân necunoscute
Dacă procesele de admitere la universitate ar fi fost alimentate în întregime de rețele neuronale, ar fi făcut procesul mai opac decât este astăzi. Li s-a refuzat un loc la o universitate de top, deoarece algoritmul lor găsește că un anumit „fond” este mai puțin potrivit, te-ai lăsa să te întrebi care parte din „fondul” tău a funcționat împotriva ta. Și mai rău, comisia de admitere nu ți-ar explica. Într-o stare în care inechitățile sociale abundă, un IA opac este ultimul lucru pe care universitățile l-ar cere.
Pe de altă parte, o IA complet transparentă ar face algoritmul vulnerabil la joc și ar duce la deturnarea întregului proces de admitere. Dreptul la explicație, prin urmare, se referă la atingerea gradului potrivit de transluciditate a IA; nu poate fi nici complet transparent, nici opac.
Calea de urmat
Atunci când iau decizii, AI nu acordă sens și nu clasifică informații noi în același mod ca oamenii. Întărește cele mai comune modele și exclude cazurile care nu sunt majoritare. Una dintre posibilele soluții tehnice explorate în mod activ este aceea de a face AI explicabilă. IA explicabilă (XAI) este indispensabilă în cazurile relevante de utilizare cu risc ridicat și cu miză mare, cum ar fi diagnosticul medical în care încrederea este parte integrantă a soluției. Fără suficientă transparență asupra procesării sale interne, algoritmii Blackbox nu reușesc să ofere nivelul de încredere necesar pentru salvarea unei vieți.
Cu fragilitatea atât de înrădăcinată în arhitectura sa fundamentală – atât tehnologică, cât și statistică – AI are nevoie de reglementare. Așa cum scria Sundar Pichai într-un Financial Times la începutul acestui an, „ Acum, în mintea mea, nu există nicio îndoială că inteligența artificială trebuie reglementată. Este prea important să nu. Singura întrebare este cum să o abordăm. ”
Cadrul legal care reglementează IA evoluează și se află într-o stare de flux în diferite părți ale lumii.
În India, cu dreptul la confidențialitate ocupand centrul dezbaterii naționale în urmă cu câteva luni, nu suntem departe de o lege cuprinzătoare care reglementează AI. În special, un document de discuție publicat de NITI Aayog în iunie 2018 abordează subiectul în detaliu considerabil. În timp, pe măsură ce sfera de influență a IA se extinde, legile, ca răspuns, vor deveni mai stricte pentru a include mai multe prevederi.
Pe măsură ce tehnologia se dezvoltă și noile ei aplicații sunt descoperite, este nevoie de autoreglementare de către industrie. Organizațiile trebuie să se concentreze în mod proactiv pe implementarea XAI care păstrează natura umană a interacțiunilor care se bazează pe încredere și înțelegere. Dacă nimic, va împiedica inovațiile care pot schimba viața să fie înăbușite de ceea ce ar putea fi legi de protecție bine intenționate. Ca și în majoritatea lucrurilor din viață, soluția constă în atingerea echilibrului potrivit.