Dekodowanie prawa do wyjaśnienia w sztucznej inteligencji

Opublikowany: 2020-10-31

Jedno z najważniejszych zmian w polityce regulujące stosowanie sztucznej inteligencji zostało uwzględnione w RODO w 2018 r.

Podobnie jak wiele istniejących obecnie silników spalinowych, modele i algorytmy sztucznej inteligencji są różnego rodzaju o różnym stopniu złożoności

Podejmując decyzje, sztuczna inteligencja nie nadaje znaczenia i nie kategoryzuje nowych informacji w taki sam sposób jak ludzie

Sztuczna inteligencja dla większości ludzi to technologia, która w najlepszym przypadku obsługuje chatboty lub rozpoznawanie obrazów – w zasadzie oprogramowanie, które odróżnia koty od psów. Inni postrzegają to jako poważne zagrożenie dla ich codziennej pracy. Niezależnie od jej wpływu na ich życie, ludzie postrzegają sztuczną inteligencję jako technologię o ogromnym potencjale na przyszłość. Chociaż przyszłość sztucznej inteligencji budzi podziw i strach, jej wpływ na teraźniejszość pozostaje w dużej mierze niezauważony. AI pracuje nad nami ciężej, niż większość z nas wie. Efekty są znaczące, a liderzy na całym świecie szybko się do tego przebudzają.

Elon Musk , walcząc o ramy prawne na sympozjum AeroAstro Centennial MIT , powiedział: „Coraz bardziej skłaniam się ku przekonaniu, że powinien istnieć pewien nadzór regulacyjny, być może na poziomie krajowym i międzynarodowym, aby upewnić się, że czegoś nie zrobimy bardzo głupi. Mam na myśli sztuczną inteligencję przyzywamy demona.

Jedno z najważniejszych zmian w polityce regulujące stosowanie sztucznej inteligencji zostało uwzględnione w RODO w 2018 r. Art. 22 ust. 4 RODO stanowi w istocie, że jeśli Twój wniosek o pracę, pożyczkę lub obywatelstwo zostanie odrzucony na podstawie wyników zautomatyzowanego inteligentnego oprogramowania przetwarzającego, masz prawo żądać wyjaśnień. Nieprzestrzeganie przepisów grozi grzywną w wysokości do 20 mln euro lub 4% globalnego rocznego obrotu firmy. Chodzi o to, aby wyeliminować dyskryminujące przewidywania zachowań i stereotypy oparte na danych. I to jest prawo do wyjaśnienia w pigułce.

Dlaczego potrzebne jest prawo do wyjaśnienia?

Wyniki wykorzystywane do przewidywania opierają się na ocenie kilku pozornie niepowiązanych zmiennych i ich relacji z zestawem algorytmów. Bez interwencji człowieka wyniki mogą być czasami nieobliczalne. Niesprawdzone, mogą one przygotować grunt pod stereotypy nowego wieku i podsycać istniejące uprzedzenia. Podczas gdy sztuczna inteligencja pracuje z danymi, same dane mogą prowadzić do błędu nawet w najbardziej niezawodnych systemach sztucznej inteligencji.

Na przykład odrzucenie wniosku o kredyt hipoteczny przez system oparty na sztucznej inteligencji może mieć niezamierzone skutki. Algorytm samouczący się, oparty na danych historycznych, może dopasować wiek i kod pocztowy wnioskodawcy do grupy osób, które nie spłaciły pożyczek w ostatnim kwartale. Czyniąc to, może przeoczyć pewne korzystne kryteria, takie jak jakość aktywów, nieobecne w danych historycznych.

Bez uzasadnionego wyjaśnienia, odrzucenie mogłoby skłonić do podjęcia kroków prawnych w sprawie stereotypów i dyskryminacji, szczególnie, jeśli w sąsiedztwie mieszkają osoby w większości należące do grupy mniejszościowej. Dlatego jako technologia, która ma potencjał do podejmowania decyzji w imieniu ludzi, sztuczna inteligencja musi zapewniać etykę, uczciwość i sprawiedliwość w interakcjach międzyludzkich. Musi spełniać przynajmniej następujące rodzaje sprawiedliwości:

Polecany dla Ciebie:

Jak platforma agregacji kont RBI ma zmienić fintech w Indiach

Jak platforma agregacji kont RBI ma przekształcić fintech w Indiach

Przedsiębiorcy nie mogą tworzyć zrównoważonych, skalowalnych startupów poprzez „Jugaad”: CEO CitiusTech

Przedsiębiorcy nie mogą tworzyć zrównoważonych, skalowalnych start-upów poprzez „Jugaad”: Cit...

Jak Metaverse zmieni indyjski przemysł motoryzacyjny?

Jak Metaverse zmieni indyjski przemysł motoryzacyjny?

Co oznacza przepis anty-profitowy dla indyjskich startupów?

Co oznacza przepis anty-profitowy dla indyjskich startupów?

W jaki sposób startupy Edtech pomagają w podnoszeniu umiejętności i przygotowują pracowników na przyszłość

W jaki sposób start-upy Edtech pomagają indyjskim pracownikom podnosić umiejętności i być gotowym na przyszłość...

Akcje New Age Tech w tym tygodniu: Kłopoty Zomato nadal, EaseMyTrip publikuje Stro...

  • Dystrybucyjny – sprawiedliwa społecznie alokacja zasobów, możliwości i nagród
  • Procedura – uczciwy i przejrzysty proces dochodzenia do wyniku
  • Interakcyjne – zarówno proces, jak i wynik muszą traktować osoby dotknięte chorobą z godnością i szacunkiem

Prawo do wyjaśnienia zamyka tę niezwykle ważną pętlę sprawiedliwości w korzystaniu z AI.

Sztuczna inteligencja i wyzwania do wyjaśnienia

Podobnie jak wiele istniejących obecnie silników spalinowych, modele i algorytmy sztucznej inteligencji są różnego rodzaju o różnym stopniu złożoności. Wynik prostszych modeli, takich jak regresja liniowa, jest stosunkowo łatwy do wyjaśnienia. Zaangażowane zmienne, ich waga i kombinacje w celu uzyskania wyniku wyjściowego są znane.

Złożone algorytmy, takie jak głębokie uczenie, dążąc do większej dokładności, działają jak czarna skrzynka – to, co dzieje się w środku, zostaje w środku. W przypadku algorytmów, które samouczą się i konstruują wzorce, przyczyna określonego wyniku jest trudna do wyjaśnienia, ponieważ:

  • Zmienne faktycznie używane przez algorytmy nie są znane
  • Ważność/waga przypisana do zmiennych nie może być obliczona wstecz
  • Kilka konstruktów pośrednich i relacji między zmiennymi pozostaje nieznanych

Gdyby procesy rekrutacji na uniwersytety były w całości zasilane przez sieci neuronowe, proces ten byłby nieprzejrzysty niż obecnie. Odmówiono Ci miejsca na wiodącym uniwersytecie, ponieważ ich algorytm uzna, że ​​pewne „tło” jest mniej odpowiednie, będziesz się zastanawiać, która część twojego „tła” działała przeciwko tobie. Co gorsza, komisja rekrutacyjna nie wyjaśniłaby ci tego. W stanie, w którym panują nierówności społeczne, nieprzejrzysta sztuczna inteligencja jest ostatnią rzeczą, o którą prosiłyby uniwersytety.

Z drugiej strony całkowicie przezroczysta sztuczna inteligencja naraziłaby algorytm na podatność na gry i doprowadziłaby do przejęcia całego procesu przyjmowania. Prawo do wyjaśnienia dotyczy zatem uzyskania przez sztuczną inteligencję odpowiedniego stopnia przezroczystości; nie może być ani całkowicie przezroczysty, ani nieprzezroczysty.

Droga naprzód

Podejmując decyzje, sztuczna inteligencja nie nadaje znaczenia i nie kategoryzuje nowych informacji w taki sam sposób, jak ludzie. Wzmacnia najczęstsze wzorce i wyklucza przypadki, które nie występują w większości. Jednym z możliwych rozwiązań technicznych, które są aktywnie eksplorowane, jest umożliwienie wyjaśnienia sztucznej inteligencji. Wyjaśnialna sztuczna inteligencja (XAI) jest niezbędna w odpowiednich przypadkach użycia wysokiego ryzyka i wysokiego ryzyka, takich jak diagnoza medyczna, w której zaufanie jest integralną częścią rozwiązania. Bez wystarczającej przejrzystości wewnętrznego przetwarzania algorytmy Blackbox nie zapewniają poziomu zaufania wymaganego do uratowania życia.

Przy kruchości tak głęboko zakorzenionej w swojej podstawowej architekturze – zarówno technologicznej, jak i statystycznej – sztuczna inteligencja wymaga regulacji. Jak Sundar Pichai napisał na początku tego roku w Financial Times : „ Teraz nie mam wątpliwości, że sztuczna inteligencja musi zostać uregulowana. To zbyt ważne, żeby tego nie robić. Pozostaje tylko pytanie, jak do tego podejść.

Ramy prawne regulujące sztuczną inteligencję ewoluują i podlegają zmianom w różnych częściach świata.

W Indiach, w których prawo do prywatności znalazło się w centrum krajowej debaty kilka miesięcy temu, nie jesteśmy daleko od nabierającego kształtu kompleksowego prawa regulującego sztuczną inteligencję. Warto zauważyć, że artykuł do dyskusji opublikowany przez NITI Aayog w czerwcu 2018 r. porusza ten temat dość szczegółowo. Z biegiem czasu, w miarę rozszerzania się sfery wpływów sztucznej inteligencji, przepisy w odpowiedzi będą coraz bardziej rygorystyczne, obejmując więcej przepisów.

Wraz z rozwojem technologii i odkrywaniem jej nowych zastosowań, branża potrzebuje samoregulacji. Organizacje muszą proaktywnie skoncentrować się na wdrażaniu XAI, który zachowuje ludzki charakter interakcji oparty na zaufaniu i zrozumieniu. Jeśli nic, to zapobiegnie tłumieniu potencjalnie zmieniających życie innowacji przez coś, co mogłoby być dobrze zamierzonymi przepisami ochronnymi. Jak w przypadku większości rzeczy w życiu, rozwiązaniem jest znalezienie właściwej równowagi.