Dekodowanie prawa do wyjaśnienia w sztucznej inteligencji
Opublikowany: 2020-10-31Jedno z najważniejszych zmian w polityce regulujące stosowanie sztucznej inteligencji zostało uwzględnione w RODO w 2018 r.
Podobnie jak wiele istniejących obecnie silników spalinowych, modele i algorytmy sztucznej inteligencji są różnego rodzaju o różnym stopniu złożoności
Podejmując decyzje, sztuczna inteligencja nie nadaje znaczenia i nie kategoryzuje nowych informacji w taki sam sposób jak ludzie
Sztuczna inteligencja dla większości ludzi to technologia, która w najlepszym przypadku obsługuje chatboty lub rozpoznawanie obrazów – w zasadzie oprogramowanie, które odróżnia koty od psów. Inni postrzegają to jako poważne zagrożenie dla ich codziennej pracy. Niezależnie od jej wpływu na ich życie, ludzie postrzegają sztuczną inteligencję jako technologię o ogromnym potencjale na przyszłość. Chociaż przyszłość sztucznej inteligencji budzi podziw i strach, jej wpływ na teraźniejszość pozostaje w dużej mierze niezauważony. AI pracuje nad nami ciężej, niż większość z nas wie. Efekty są znaczące, a liderzy na całym świecie szybko się do tego przebudzają.
Elon Musk , walcząc o ramy prawne na sympozjum AeroAstro Centennial MIT , powiedział: „Coraz bardziej skłaniam się ku przekonaniu, że powinien istnieć pewien nadzór regulacyjny, być może na poziomie krajowym i międzynarodowym, aby upewnić się, że czegoś nie zrobimy bardzo głupi. Mam na myśli sztuczną inteligencję przyzywamy demona. ”
Jedno z najważniejszych zmian w polityce regulujące stosowanie sztucznej inteligencji zostało uwzględnione w RODO w 2018 r. Art. 22 ust. 4 RODO stanowi w istocie, że jeśli Twój wniosek o pracę, pożyczkę lub obywatelstwo zostanie odrzucony na podstawie wyników zautomatyzowanego inteligentnego oprogramowania przetwarzającego, masz prawo żądać wyjaśnień. Nieprzestrzeganie przepisów grozi grzywną w wysokości do 20 mln euro lub 4% globalnego rocznego obrotu firmy. Chodzi o to, aby wyeliminować dyskryminujące przewidywania zachowań i stereotypy oparte na danych. I to jest prawo do wyjaśnienia w pigułce.
Dlaczego potrzebne jest prawo do wyjaśnienia?
Wyniki wykorzystywane do przewidywania opierają się na ocenie kilku pozornie niepowiązanych zmiennych i ich relacji z zestawem algorytmów. Bez interwencji człowieka wyniki mogą być czasami nieobliczalne. Niesprawdzone, mogą one przygotować grunt pod stereotypy nowego wieku i podsycać istniejące uprzedzenia. Podczas gdy sztuczna inteligencja pracuje z danymi, same dane mogą prowadzić do błędu nawet w najbardziej niezawodnych systemach sztucznej inteligencji.
Na przykład odrzucenie wniosku o kredyt hipoteczny przez system oparty na sztucznej inteligencji może mieć niezamierzone skutki. Algorytm samouczący się, oparty na danych historycznych, może dopasować wiek i kod pocztowy wnioskodawcy do grupy osób, które nie spłaciły pożyczek w ostatnim kwartale. Czyniąc to, może przeoczyć pewne korzystne kryteria, takie jak jakość aktywów, nieobecne w danych historycznych.
Bez uzasadnionego wyjaśnienia, odrzucenie mogłoby skłonić do podjęcia kroków prawnych w sprawie stereotypów i dyskryminacji, szczególnie, jeśli w sąsiedztwie mieszkają osoby w większości należące do grupy mniejszościowej. Dlatego jako technologia, która ma potencjał do podejmowania decyzji w imieniu ludzi, sztuczna inteligencja musi zapewniać etykę, uczciwość i sprawiedliwość w interakcjach międzyludzkich. Musi spełniać przynajmniej następujące rodzaje sprawiedliwości:
Polecany dla Ciebie:
- Dystrybucyjny – sprawiedliwa społecznie alokacja zasobów, możliwości i nagród
- Procedura – uczciwy i przejrzysty proces dochodzenia do wyniku
- Interakcyjne – zarówno proces, jak i wynik muszą traktować osoby dotknięte chorobą z godnością i szacunkiem
Prawo do wyjaśnienia zamyka tę niezwykle ważną pętlę sprawiedliwości w korzystaniu z AI.
Sztuczna inteligencja i wyzwania do wyjaśnienia
Podobnie jak wiele istniejących obecnie silników spalinowych, modele i algorytmy sztucznej inteligencji są różnego rodzaju o różnym stopniu złożoności. Wynik prostszych modeli, takich jak regresja liniowa, jest stosunkowo łatwy do wyjaśnienia. Zaangażowane zmienne, ich waga i kombinacje w celu uzyskania wyniku wyjściowego są znane.
Złożone algorytmy, takie jak głębokie uczenie, dążąc do większej dokładności, działają jak czarna skrzynka – to, co dzieje się w środku, zostaje w środku. W przypadku algorytmów, które samouczą się i konstruują wzorce, przyczyna określonego wyniku jest trudna do wyjaśnienia, ponieważ:
- Zmienne faktycznie używane przez algorytmy nie są znane
- Ważność/waga przypisana do zmiennych nie może być obliczona wstecz
- Kilka konstruktów pośrednich i relacji między zmiennymi pozostaje nieznanych
Gdyby procesy rekrutacji na uniwersytety były w całości zasilane przez sieci neuronowe, proces ten byłby nieprzejrzysty niż obecnie. Odmówiono Ci miejsca na wiodącym uniwersytecie, ponieważ ich algorytm uzna, że pewne „tło” jest mniej odpowiednie, będziesz się zastanawiać, która część twojego „tła” działała przeciwko tobie. Co gorsza, komisja rekrutacyjna nie wyjaśniłaby ci tego. W stanie, w którym panują nierówności społeczne, nieprzejrzysta sztuczna inteligencja jest ostatnią rzeczą, o którą prosiłyby uniwersytety.
Z drugiej strony całkowicie przezroczysta sztuczna inteligencja naraziłaby algorytm na podatność na gry i doprowadziłaby do przejęcia całego procesu przyjmowania. Prawo do wyjaśnienia dotyczy zatem uzyskania przez sztuczną inteligencję odpowiedniego stopnia przezroczystości; nie może być ani całkowicie przezroczysty, ani nieprzezroczysty.
Droga naprzód
Podejmując decyzje, sztuczna inteligencja nie nadaje znaczenia i nie kategoryzuje nowych informacji w taki sam sposób, jak ludzie. Wzmacnia najczęstsze wzorce i wyklucza przypadki, które nie występują w większości. Jednym z możliwych rozwiązań technicznych, które są aktywnie eksplorowane, jest umożliwienie wyjaśnienia sztucznej inteligencji. Wyjaśnialna sztuczna inteligencja (XAI) jest niezbędna w odpowiednich przypadkach użycia wysokiego ryzyka i wysokiego ryzyka, takich jak diagnoza medyczna, w której zaufanie jest integralną częścią rozwiązania. Bez wystarczającej przejrzystości wewnętrznego przetwarzania algorytmy Blackbox nie zapewniają poziomu zaufania wymaganego do uratowania życia.
Przy kruchości tak głęboko zakorzenionej w swojej podstawowej architekturze – zarówno technologicznej, jak i statystycznej – sztuczna inteligencja wymaga regulacji. Jak Sundar Pichai napisał na początku tego roku w Financial Times : „ Teraz nie mam wątpliwości, że sztuczna inteligencja musi zostać uregulowana. To zbyt ważne, żeby tego nie robić. Pozostaje tylko pytanie, jak do tego podejść. ”
Ramy prawne regulujące sztuczną inteligencję ewoluują i podlegają zmianom w różnych częściach świata.
W Indiach, w których prawo do prywatności znalazło się w centrum krajowej debaty kilka miesięcy temu, nie jesteśmy daleko od nabierającego kształtu kompleksowego prawa regulującego sztuczną inteligencję. Warto zauważyć, że artykuł do dyskusji opublikowany przez NITI Aayog w czerwcu 2018 r. porusza ten temat dość szczegółowo. Z biegiem czasu, w miarę rozszerzania się sfery wpływów sztucznej inteligencji, przepisy w odpowiedzi będą coraz bardziej rygorystyczne, obejmując więcej przepisów.
Wraz z rozwojem technologii i odkrywaniem jej nowych zastosowań, branża potrzebuje samoregulacji. Organizacje muszą proaktywnie skoncentrować się na wdrażaniu XAI, który zachowuje ludzki charakter interakcji oparty na zaufaniu i zrozumieniu. Jeśli nic, to zapobiegnie tłumieniu potencjalnie zmieniających życie innowacji przez coś, co mogłoby być dobrze zamierzonymi przepisami ochronnymi. Jak w przypadku większości rzeczy w życiu, rozwiązaniem jest znalezienie właściwej równowagi.