Decodificando o direito à explicação em inteligência artificial
Publicados: 2020-10-31Um dos desenvolvimentos políticos mais importantes para regular a aplicação da IA foi incluído no GDPR em 2018
Assim como a variedade de motores de combustão interna que existem hoje, os modelos e algoritmos de IA são de diferentes tipos com diferentes níveis de complexidade
Ao tomar decisões, a IA não atribui significado e categoriza novas informações da mesma maneira que os humanos
A Inteligência Artificial, para a maioria das pessoas, é uma tecnologia que alimenta chatbots ou reconhecimento de imagem na melhor das hipóteses – basicamente, um software que diferencia imagens de gatos de cães. Outros veem isso como uma séria ameaça aos seus empregos regulares. Independentemente de seu impacto em suas vidas, as pessoas veem a IA como uma tecnologia com um tremendo potencial futuro. Embora o futuro da IA cause admiração e medo, seu impacto no presente permanece em grande parte desconhecido. Desde a pré-seleção de currículos até a divulgação de propaganda, a IA está trabalhando mais em nós do que a maioria de nós sabe. Os efeitos são significativos e os líderes em todo o mundo estão acordando rapidamente para isso.
Lutando pela estrutura regulatória no AeroAstro Centennial Symposium do MIT , Elon Musk opinou: “Estou cada vez mais inclinado a pensar que deveria haver alguma supervisão regulatória, talvez em nível nacional e internacional, apenas para garantir que não façamos algo muito tolo. Quero dizer, com inteligência artificial, estamos convocando o demônio. ”
Um dos desenvolvimentos políticos mais importantes para regular a aplicação da IA foi incluído no GDPR em 2018. O Artigo 22, na seção 4 do GDPR, em essência, afirma que se sua inscrição para um emprego, empréstimo ou cidadania for rejeitada com base em pontuações de software de processamento inteligente automatizado, você tem o direito de exigir uma explicação. O descumprimento pode levar a uma multa de até € 20 milhões ou 4% do faturamento anual global da empresa. A ideia é eliminar as previsões de comportamento discriminatórias e os estereótipos baseados em dados. E isso é Direito à Explicação em poucas palavras.
Por que o direito à explicação é necessário?
As pontuações usadas para fazer previsões são baseadas na avaliação de várias variáveis aparentemente não relacionadas e suas relações com um conjunto de algoritmos. Sem intervenção humana, os resultados podem ser erráticos às vezes. Se não forem controlados, eles podem preparar o terreno para estereótipos da nova era e alimentar preconceitos existentes. Embora a IA trabalhe com dados, os próprios dados podem gerar viés, falhando até mesmo nos sistemas de IA mais robustos.
Por exemplo, a rejeição de um pedido de hipoteca por um sistema baseado em IA pode ter algumas consequências não intencionais. Um algoritmo de autoaprendizagem, baseado em dados históricos, pode comparar a idade e o CEP do solicitante a um grupo de pessoas que não pagaram seus empréstimos no último trimestre. Ao fazer isso, pode ignorar certos critérios favoráveis, como qualidade de ativos, ausentes nos dados históricos.
Sem uma explicação válida, a rejeição pode levar a ações legais por estereótipos e discriminação, principalmente se o bairro abrigar pessoas pertencentes principalmente a um grupo minoritário. Portanto, como uma tecnologia que tem o potencial de tomar decisões em nome dos humanos, a IA precisa oferecer ética, justiça e justiça nas interações humanas. No mínimo, precisa satisfazer os seguintes tipos de justiça:
Recomendado para você:
- Distributiva – alocação socialmente justa de recursos, oportunidades e recompensas
- O processo processual – justo e transparente para chegar a um resultado
- Interacional – o processo e o resultado precisam tratar as pessoas afetadas com dignidade e respeito
O direito à explicação fecha esse importante ciclo de justiça no uso da IA.
IA e desafios ao direito à explicação
Assim como a variedade de motores de combustão interna que existem hoje, os modelos e algoritmos de IA são de diferentes tipos com diferentes níveis de complexidade. O resultado de modelos mais simples, como Regressão Linear, é relativamente fácil de explicar. As variáveis envolvidas, seus pesos e combinações para chegar à pontuação de saída são conhecidas.
Algoritmos complexos, como aprendizado profundo, enquanto buscam maior precisão, agem como uma caixa preta – o que acontece dentro, permanece dentro. Com algoritmos que autoaprendem e constroem padrões, a causa de um determinado resultado é difícil de explicar, porque:
- As variáveis realmente usadas pelos algoritmos não são conhecidas
- A importância/peso anexado às variáveis não pode ser recalculado
- Vários construtos intermediários e relacionamentos entre variáveis permanecem desconhecidos
Se os processos de admissão na universidade fossem totalmente alimentados por redes neurais, isso tornaria o processo mais opaco do que é hoje. Negado uma vaga em uma universidade líder, porque o algoritmo deles acha que um certo “background” é menos adequado, você ficaria se perguntando qual parte de seu “background” funcionou contra você. Pior ainda, o comitê de admissão não explicaria a você. Em um estado onde abundam as desigualdades sociais, uma IA opaca é a última coisa que as universidades pediriam.
Por outro lado, uma IA completamente transparente tornaria o algoritmo vulnerável a ser manipulado e levaria ao sequestro de todo o processo de admissão. O direito à explicação, portanto, é sobre a IA atingir o grau certo de translucidez; não pode ser completamente transparente nem opaco.
O caminho a seguir
Ao tomar decisões, a IA não atribui significado e categoriza novas informações da mesma forma que os humanos. Reforça os padrões mais comuns e exclui os casos que não são a maioria. Uma das possíveis soluções técnicas que estão sendo exploradas ativamente é tornar a IA explicável. A IA explicável (XAI) é indispensável em casos de uso relevantes de alto risco e alto risco, como diagnóstico médico em que a confiança é parte integrante da solução. Sem transparência suficiente em seu processamento interno, os algoritmos do Blackbox não oferecem o nível de confiança necessário para salvar uma vida.
Com a fragilidade tão arraigada em sua arquitetura fundamental – tanto tecnológica quanto estatística – a IA precisa de regulamentação. Como Sundar Pichai escreveu em um Financial Times no início deste ano: “ Agora não há dúvida em minha mente de que a inteligência artificial precisa ser regulamentada. É muito importante não. A única questão é como abordá-lo. ”
A estrutura legal que regula a IA está evoluindo e em estado de fluxo em diferentes partes do mundo.
Na Índia, com o direito à privacidade ocupando o centro do debate nacional há alguns meses, não estamos longe de uma lei abrangente que regula a IA tomando forma. Notavelmente, um documento de discussão publicado pelo NITI Aayog em junho de 2018 aborda o assunto em detalhes consideráveis. Com o tempo, à medida que a esfera de influência da IA se expande, as leis, em resposta, ficarão mais rigorosas para incluir mais disposições.
À medida que a tecnologia se desenvolve e suas novas aplicações são descobertas, há uma necessidade de autorregulação por parte da indústria. As organizações precisam se concentrar proativamente na implementação do XAI que preserva a natureza humana das interações baseadas na confiança e no entendimento. Se nada, impedirá que inovações potencialmente transformadoras sejam sufocadas pelo que poderiam ser leis protetoras bem-intencionadas. Tal como acontece com a maioria das coisas na vida, a solução está em encontrar o equilíbrio certo.