Decodificando el Derecho a la Explicación en Inteligencia Artificial

Publicado: 2020-10-31

Uno de los desarrollos de políticas más importantes para regular la aplicación de IA se incluyó en GDPR en 2018

Al igual que la variedad de motores de combustión interna que existen hoy en día, los modelos y algoritmos de IA son de diferentes tipos con diferentes niveles de complejidad.

Al tomar decisiones, la IA no atribuye significado ni categoriza la nueva información de la misma manera que los humanos

La inteligencia artificial, para la mayoría de las personas, es una tecnología que, en el mejor de los casos, potencia los chatbots o el reconocimiento de imágenes; básicamente, un software que distingue las imágenes de los gatos de las de los perros. Otros lo ven como una seria amenaza para sus trabajos habituales. Independientemente de su impacto en sus vidas, las personas ven la IA como una tecnología con un tremendo potencial de futuro. Si bien el futuro de la IA provoca asombro y miedo, su impacto en el presente sigue sin reconocerse en gran medida. Desde la preselección de currículos hasta la difusión de propaganda, la IA está trabajando más duro con nosotros de lo que la mayoría de nosotros sabemos. Los efectos son significativos y los líderes de todo el mundo se están dando cuenta rápidamente.

Al luchar por el marco regulatorio en el Simposio del Centenario AeroAstro del MIT , Elon Musk opinó: “Cada vez me inclino más a pensar que debería haber alguna supervisión regulatoria, tal vez a nivel nacional e internacional, solo para asegurarnos de que no hagamos algo. muy tonto Quiero decir, con la inteligencia artificial estamos invocando al demonio.

Uno de los desarrollos de políticas más importantes para regular la aplicación de IA se incluyó en GDPR en 2018. El artículo 22, en la sección 4 de GDPR, en esencia, establece que si su solicitud para un trabajo o un préstamo o ciudadanía es rechazada en base a puntajes de software de procesamiento inteligente automatizado, tiene derecho a exigir una explicación. El incumplimiento podría conllevar una multa de hasta 20 Mn€ o el 4% de la facturación anual global de la compañía. La idea es eliminar comportamientos discriminatorios: predicciones y estereotipos basados ​​en datos. Y eso es Derecho a la Explicación en pocas palabras.

¿Por qué es necesario el derecho a la explicación?

Los puntajes utilizados para hacer predicciones se basan en la evaluación de varias variables aparentemente no relacionadas y sus relaciones con un conjunto de algoritmos. Sin la intervención humana, los resultados pueden ser erráticos a veces. Si no se controlan, estos pueden preparar el escenario para los estereotipos de la nueva era y alimentar los prejuicios existentes. Si bien la IA funciona con datos, los datos en sí mismos pueden generar sesgos que fallan incluso en los sistemas de IA más robustos.

Por ejemplo, el rechazo de una solicitud de hipoteca por parte de un sistema basado en IA puede tener algunas consecuencias no deseadas. Un algoritmo de autoaprendizaje, basado en datos históricos, puede hacer coincidir la edad y el código postal del solicitante con un grupo de personas que no pagaron sus préstamos en el último trimestre. Al hacerlo, puede pasar por alto ciertos criterios favorables, como la calidad de los activos, ausentes en los datos históricos.

Sin una explicación válida, el rechazo podría invitar a acciones legales por estereotipos y discriminación, en particular, si el barrio alberga a personas en su mayoría pertenecientes a un grupo minoritario. Por lo tanto, como tecnología que tiene el potencial de tomar decisiones en nombre de los humanos, la IA debe cumplir con la ética, la equidad y la justicia en las interacciones humanas. Como mínimo, debe satisfacer los siguientes tipos de justicia:

Recomendado para ti:

Cómo se configura el marco de agregación de cuentas de RBI para transformar Fintech en India

Cómo se configura el marco de agregación de cuentas de RBI para transformar Fintech en India

Los emprendedores no pueden crear nuevas empresas sostenibles y escalables a través de 'Jugaad': CEO de CitiusTech

Los emprendedores no pueden crear startups sostenibles y escalables a través de 'Jugaad': Cit...

Cómo Metaverse transformará la industria automotriz india

Cómo Metaverse transformará la industria automotriz india

¿Qué significa la disposición contra la especulación para las nuevas empresas indias?

¿Qué significa la disposición contra la especulación para las nuevas empresas indias?

Cómo las empresas emergentes de Edtech están ayudando a mejorar las habilidades y preparar a la fuerza laboral para el futuro

Cómo las empresas emergentes de Edtech están ayudando a la fuerza laboral de la India a mejorar y prepararse para el futuro...

Acciones tecnológicas de la nueva era esta semana: los problemas de Zomato continúan, EaseMyTrip publica...

  • Distributivo: asignación socialmente justa de recursos, oportunidades y recompensas.
  • El procedimiento: proceso justo y transparente para llegar a un resultado
  • Interaccional: tanto el proceso como el resultado deben tratar a las personas afectadas con dignidad y respeto.

El derecho a la explicación cierra este importante ciclo de justicia en el uso de la IA.

IA y desafíos al derecho a la explicación

Al igual que la variedad de motores de combustión interna que existen en la actualidad, los modelos y algoritmos de IA son de diferentes tipos con diferentes niveles de complejidad. El resultado de modelos más simples, como la regresión lineal, es relativamente fácil de explicar. Se conocen las variables involucradas, su ponderación y combinaciones para llegar a la puntuación de salida.

Algoritmos complejos como el aprendizaje profundo, mientras se esfuerzan por lograr una mayor precisión, actúan como una caja negra: lo que sucede dentro, permanece dentro. Con algoritmos que aprenden por sí mismos y construyen patrones, la causa de un determinado resultado es difícil de explicar porque:

  • Las variables realmente utilizadas por los algoritmos no se conocen.
  • La importancia/peso asignado a las variables no se puede volver a calcular
  • Se desconocen varios constructos intermedios y relaciones entre variables

Si los procesos de admisión a la universidad estuvieran alimentados en su totalidad por redes neuronales, el proceso se habría vuelto más opaco de lo que es hoy. Si se le niega un asiento en una universidad líder, porque su algoritmo encuentra que cierto "antecedente" no es el adecuado, se preguntará qué parte de su "antecedente" funcionó en su contra. Peor aún, el comité de admisiones no te lo explicaría. En un estado donde abundan las desigualdades sociales, una IA opaca es lo último que pedirían las universidades.

Por otro lado, una IA completamente transparente haría que el algoritmo fuera vulnerable a ser manipulado y conduciría al secuestro de todo el proceso de admisión. El derecho a la explicación, por lo tanto, se trata de que la IA logre el grado correcto de translucidez; no puede ser completamente transparente ni opaco.

El camino a seguir

Al tomar decisiones, la IA no atribuye significado ni categoriza la nueva información de la misma manera que los humanos. Refuerza los patrones más comunes y excluye los casos que no son mayoritarios. Una de las posibles soluciones técnicas que se está explorando activamente es hacer que la IA sea explicable. La IA explicable (XAI) es indispensable en casos de uso relevantes de alto riesgo y alto riesgo, como el diagnóstico médico, donde la confianza es parte integral de la solución. Sin suficiente transparencia en su procesamiento interno, los algoritmos de Blackbox no ofrecen el nivel de confianza necesario para salvar una vida.

Con la fragilidad tan arraigada en su arquitectura fundamental, tanto tecnológica como estadística, la IA necesita regulación. Como escribió Sundar Pichai en Financial Times a principios de este año: “ Ahora no tengo ninguna duda de que la inteligencia artificial necesita ser regulada. Es demasiado importante para no hacerlo. La única pregunta es cómo abordarlo.

El marco legal que regula la IA está evolucionando y en estado de cambio en diferentes partes del mundo.

En India, con el derecho a la privacidad ocupando un lugar central en el debate nacional hace unos meses, no estamos lejos de que tome forma una ley integral que regule la IA. En particular, un documento de debate publicado por NITI Aayog en junio de 2018 aborda el tema con gran detalle. Con el tiempo, a medida que se expande la esfera de influencia de la IA, las leyes, en respuesta, se volverán más estrictas para incluir más disposiciones.

A medida que se desarrolla la tecnología y se descubren sus nuevas aplicaciones, existe la necesidad de una autorregulación por parte de la industria. Las organizaciones deben enfocarse de manera proactiva en implementar XAI que preserve la naturaleza humana de las interacciones que se basa en la confianza y la comprensión. En todo caso, evitará que las innovaciones potencialmente transformadoras se vean sofocadas por lo que podrían ser leyes protectoras bien intencionadas. Como con la mayoría de las cosas en la vida, la solución radica en lograr el equilibrio adecuado.