¿Por qué utilizar el enfoque Human in the Loop (HITL) en el aprendizaje automático?
Publicado: 2022-07-20¿Escuchaste del auto Uber autónomo que atropelló y mató a una mujer en Arizona? En otra ocasión, una solución de reconocimiento facial perfiló a un hombre inocente de color como un criminal en Nueva Jersey, y la herramienta de reclutamiento impulsada por IA de Amazon mostró prejuicios contra las candidatas.
Claramente, la inteligencia artificial comete errores. Errores significativos, incluso que alteran la vida. Entonces, ¿cómo podemos seguir obteniendo los beneficios de la IA mientras eliminamos este tipo de error? Una opción es dejar que los expertos humanos capaciten, evalúen y supervisen las soluciones comerciales de IA después de la implementación. Este concepto se denomina aprendizaje automático humano en el bucle (HITL). Gartner predice que, en algunas industrias, las soluciones HITL AI comprenderán alrededor del 30 % de todas las ofertas de automatización para 2025.
Hablamos con nuestro experto en IA, Maksym Bochok, para comprender cómo encajan los humanos en el circuito, qué beneficios aportan y cómo organizar este proceso.
Human in the loop definición y beneficios
Errar es humano, ensuciar realmente las cosas requiere una computadora.
–Paul Ehlrich, médico alemán y ganador del Premio Nobel
Ahora la cita de Ehlrich es más relevante que nunca. Con la IA manejando aplicaciones críticas, el margen de error se está reduciendo. Y las máquinas no son perfectas. Construyen su comprensión de la tarea en función de los datos de capacitación recibidos y pueden hacer suposiciones erróneas.
Y esto nos lleva a la terminología de aprendizaje automático humano en el circuito.
Human in the loop significa integrar empleados humanos en la tubería de aprendizaje automático para que puedan capacitar y validar modelos continuamente. Esto incluye a todas las personas que trabajan con modelos y sus datos de entrenamiento.
Cómo el humano en el circuito agrega valor a sus algoritmos de aprendizaje automático
Mantiene un alto nivel de precisión. Esto es particularmente importante para dominios que no pueden tolerar errores. Por ejemplo, cuando fabricamos equipos críticos para un avión, queremos automatización y velocidad, pero no podemos poner en peligro la seguridad. HITL también es beneficioso en aplicaciones menos críticas. Por ejemplo, las grandes empresas de consultoría que dependen en gran medida de la IA para el cumplimiento normativo de documentos involucran el aprendizaje automático humano en el circuito para validar sus algoritmos de procesamiento de lenguaje natural.
Elimina el sesgo. Los modelos de aprendizaje automático pueden verse sesgados durante el entrenamiento. Además, pueden adquirir sesgos después del despliegue, a medida que continúan aprendiendo. Los empleados humanos pueden detectar y eliminar este fenómeno en etapas tempranas al corregir el algoritmo en consecuencia.
Garantiza la transparencia. Los algoritmos de ML evalúan miles o incluso millones de parámetros para tomar una decisión final y, a menudo, no se puede explicar. Con HITL, hay un humano que entiende cómo funcionan los algoritmos y puede justificar las decisiones que toman. Esto se llama IA explicable. Por ejemplo, cuando una persona solicita un préstamo y se le niega, puede pedirle a un oficial de préstamos que le explique el motivo del rechazo y qué puede hacer el solicitante para aumentar sus posibilidades la próxima vez.
Abre oportunidades de empleo. A menudo escuchamos que la IA roba los trabajos de las personas. El aprendizaje automático con un ser humano en el circuito proporciona un ejemplo de cómo la tecnología puede crear nuevas vacantes. Solo mire el mercado indio de anotadores de datos.
El papel de los humanos en la canalización de la IA
Maksym explica cómo los humanos pueden ser parte de la tubería de IA para mejorar su capacidad de hacer predicciones. Los modelos de aprendizaje automático operan bajo modos de aprendizaje supervisado o no supervisado. En el caso del aprendizaje supervisado, las personas pueden realizar las siguientes tareas:
- Etiquetado y anotación. Un empleado humano etiqueta el conjunto de datos de entrenamiento. Dependiendo de la experiencia requerida, puede ser un experto en el dominio o cualquier empleado con la capacitación adecuada.
- Reingeniería del modelo. Si es necesario, los ingenieros y programadores de ML pueden realizar ajustes en el algoritmo para asegurarse de que pueda aprovechar al máximo el conjunto de datos proporcionado.
- Formación y reeducación. Los empleados alimentan el modelo con los datos anotados, ven el resultado, hacen correcciones, agregan más datos si es posible y vuelven a entrenar el modelo.
- Supervisar el rendimiento del modelo después de la implementación. El ciclo de vida del aprendizaje automático humano en el bucle no se detiene después de implementar la solución de IA en las instalaciones del cliente. Los ingenieros de ML continúan monitoreando su desempeño con el consentimiento del cliente y hacen ajustes al modelo cuando es necesario a través de la verificación selectiva de su salida. Los casos obtenidos a través de la verificación selectiva aumentarán el conjunto de datos de entrenamiento inicial para mejorar el rendimiento del algoritmo.
En el aprendizaje automático no supervisado, los algoritmos toman datos no etiquetados como entrada y encuentran una estructura por sí mismos. En este caso, los humanos no anotan el conjunto de datos y no interfieren mucho en el entrenamiento inicial. Pero pueden enriquecer significativamente el modelo realizando el paso 4 anterior.
Cuando el aprendizaje automático humano en el circuito es una necesidad absoluta
Maksym cree que el enfoque humano en el bucle es beneficioso para la mayoría de los casos de uso de aprendizaje automático. Las soluciones de IA son impresionantes para hacer predicciones óptimas cuando se entrenan en grandes conjuntos de datos extensos, mientras que los humanos pueden reconocer patrones a partir de un suministro limitado de muestras de datos de baja calidad. La combinación de ambas capacidades juntas puede crear un sistema poderoso. Aunque en algunas aplicaciones los modelos ML pueden funcionar bien con una intervención humana limitada, hay casos en los que un sistema humano en el bucle completo es imprescindible:
- Cuando cualquier error del algoritmo puede ser muy costoso, como en el diagnóstico médico.
- Cuando los datos que necesita para entrenar correctamente el algoritmo son escasos. Más datos de entrenamiento siempre equivalen a un mejor rendimiento del modelo. Con la ayuda del monitoreo del modelo de posproducción, puede aumentar los datos de entrenamiento con muestras relevantes, lo que le brinda al modelo más ejemplos para aprender.
- En el caso del aprendizaje de una sola vez, cuando un algoritmo se entrena en cientos o incluso miles de muestras para clasificar algunos objetos. Y luego se agrega otra clase, y el algoritmo tiene que aprender a identificarla a partir de solo unas pocas muestras de entrenamiento.
- En industrias fuertemente reguladas donde es fundamental explicar cómo los algoritmos llegaron a sus conclusiones. Por ejemplo, cuando los médicos utilizan la IA para sugerir tratamientos personalizados contra el cáncer, deben justificar este plan de tratamiento ante el paciente.
Al observar el tipo de datos que procesan los algoritmos de ML, HITL AI sería esencial para las aplicaciones de visión artificial y el procesamiento del lenguaje natural (NLP), especialmente cuando se trata del análisis de sentimientos de un texto que podría contener sarcasmo. HITL es menos importante para datos tabulares y análisis de series temporales.
Consejos para mejorar la inteligencia artificial con prácticas humanas en el circuito
Maksym ofrece los siguientes consejos sobre cómo implementar con éxito el enfoque humano en el bucle en el aprendizaje automático:
- Al monitorear y analizar el rendimiento de un algoritmo después de la implementación , no importa qué tan bueno sea el sistema humano en el bucle, los participantes humanos no podrán prestar atención a cada entrada que procesa el algoritmo y cada salida que genera. Elija sus casos sabiamente. Utilice la verificación selectiva para elegir los casos que merecen su atención. Maksym sugiere estos enfoques para la selección inteligente de casos:
- Basado en niveles de confianza. Por ejemplo, un algoritmo necesita clasificar cada imagen de entrada como un gato o un perro. Las imágenes que reciben un nivel de confianza de alrededor de 48/52 o algo similar son las que confunden los algoritmos y deben etiquetarse correctamente y usarse para volver a entrenar el modelo.
- Verificación aleatoria de casos “triviales”. Supongamos que solo uno de cada diez casos contiene información valiosa en lo que respecta al rendimiento de un algoritmo. Un ejemplo de tal caso es cuando el modelo tiene un exceso de confianza en una predicción incorrecta. Definitivamente debería considerar este caso, pero también debe seleccionar al azar uno de los nueve casos restantes para asegurarse de que el algoritmo no se vuelva demasiado confiado con sus predicciones incorrectas o permita sesgos.
- Al analizar los casos que eligió en el paso anterior , no se limite al resultado final. En lugar de mirar la salida del conjunto final de neuronas en las redes neuronales, verifique la capa anterior, como en la imagen a continuación, y analice la distribución de distancias entre una predicción incorrecta y las predicciones correctas más cercanas que hace el algoritmo.
- Anime a los usuarios finales del algoritmo a dar su opinión sobre su desempeño. Cree formularios de comentarios y póngalos a disposición de todos, para que los usuarios puedan transmitir cualquier inquietud que puedan tener.
- Siga aumentando el conjunto de datos de entrenamiento de forma iterativa utilizando puntos de datos de los pasos anteriores. De esta manera, estará seguro de que su algoritmo seguirá siendo relevante incluso cuando se produzcan algunos cambios en las operaciones del cliente.
Herramientas de IA listas para usar habilitadas para HITL
Hay algunas herramientas de aprendizaje automático listas para usar que le permiten etiquetar conjuntos de datos de entrenamiento y verificar el resultado. Sin embargo, es posible que no pueda implementar los consejos anteriores con estas herramientas estandarizadas. Aquí hay algunos ejemplos de herramientas humanas en el bucle:
Google Cloud HITL
Esta solución ofrece un flujo de trabajo y una interfaz de usuario (UI) que las personas pueden utilizar para etiquetar, revisar y editar los datos extraídos de los documentos. La empresa cliente puede utilizar a sus propios empleados como etiquetadores o puede contratar personal de Google HITL para realizar la tarea.
La herramienta tiene ciertas funciones de interfaz de usuario para optimizar el flujo de trabajo de los etiquetadores y filtrar la salida según el umbral de confianza. También permite a las empresas gestionar su grupo de etiquetadoras.
IA aumentada de Amazon (Amazon A2I)
Esta herramienta de inteligencia artificial humana en el bucle permite a las personas revisar predicciones de ML aleatorias y de baja confianza. A diferencia de Google Cloud HITL, que solo opera con texto, Amazon A2I puede complementar Amazon Recognition para extraer imágenes y validar resultados. También puede ayudar a revisar los datos tabulares.
Si un cliente no está satisfecho con el flujo de trabajo A2I proporcionado, puede desarrollar su propio enfoque con SageMaker o una herramienta similar.
IA humilde de DataRobot
Humble AI permite a las personas especificar un conjunto de reglas que los modelos ML deben aplicar al hacer predicciones. Cada regla incluye una condición y una acción correspondiente. Actualmente, hay tres acciones:
- Sin operación, cuando los humanos solo monitorean la condición correspondiente sin interferir
- Predicción anulada, cuando las personas pueden reemplazar la salida del modelo con un valor diferente
- Devolviendo el error, simplemente descartando la predicción por completo
Entonces, ¿el aprendizaje automático con un humano al tanto es el mejor enfoque para usted?
Emplear el enfoque humano en el circuito de IA mejora la precisión, la transparencia y la calidad de las predicciones. También aumenta los costos y el tiempo necesario para completar la tarea debido a la intervención humana al tiempo que crea oportunidades de empleo, lo cual es un efecto secundario positivo.
A pesar de los beneficios obvios de HITL AI, hay aplicaciones en las que el enfoque humano fuera del circuito es un enfoque preferido debido a los riesgos asociados con ciertas actividades. Piense en el desarrollo y despliegue de armas autónomas.
Si cree que sus algoritmos de ML pueden usar un ser humano en el circuito, pero no está seguro de cómo equilibrar los costos operativos y la precisión y explicabilidad deseadas, comuníquese con consultores de aprendizaje automático. Ellos trabajarán con usted para encontrar el ajuste adecuado. Si el aprendizaje automático humano en el bucle no es la solución óptima en su caso, existen otros trucos de ML que pueden ayudarlo a superar el problema de la escasez de datos de entrenamiento:
- Transfiere el aprendizaje , cuando ajustas modelos previamente entrenados con tus propios datos
- Aprendizaje semisupervisado , cuando utiliza un gran conjunto de datos sin etiquetar junto con una pequeña cantidad de muestras etiquetadas
- Aprendizaje autosupervisado , cuando enmascara una parte aleatoria de la muestra de entrenamiento en cada lote y el algoritmo intenta predecirlo
¿Está considerando mejorar la precisión y la explicabilidad de su modelo ML? ¡Ponerse en contacto! Los expertos en IA de ITRex estudiarán su situación y diseñarán un enfoque humano óptimo en el circuito para abordar sus necesidades.
Publicado originalmente en https://itrexgroup.com el 17 de julio de 2022.