06 | 10 | 2021

IA explicable (XAI): comprenda la razón fundamental detrás de los resultados del AA

Comprensión de la inteligencia artificial explicable (XAI)

La Inteligencia Artificial (IA) desarrolla una parte cada vez mayor de nuestra vida diaria. Los sistemas de reconocimiento facial y de imagen están apareciendo en varias aplicaciones del aprendizaje automático (ML). Análisis predictivo potenciado, aplicaciones conversacionales, dispositivos autónomos y sistemas hiperpersonalizados; estamos descubriendo que necesitan confiar en estos sistemas basados ​​en IA con todo tipo de toma de decisiones y predicciones que son primordiales.
La IA se está abriendo camino en varias industrias, como educación, construcción, salud, manufactura, aplicación de la ley y finanzas. Como resultado, el tipo de decisiones y predicciones que realizan los sistemas habilitados por IA son cada vez más importantes. agudo, y en muchos casos, crítico a la vida, la muerte y el bienestar personal. Por ejemplo, estos pronósticos son excepcionalmente precisos para los sistemas de inteligencia artificial utilizados en la atención médica.

Como seres humanos, debemos comprender completamente cómo se toman las decisiones para poder confiar en las decisiones de los sistemas de inteligencia artificial. La explicabilidad y la confianza limitadas obstaculizan nuestra capacidad para confiar plenamente en los sistemas de IA.

Hacer que la IA sea transparente con la IA explicable (XAI)

Por lo tanto, la mayoría de los propietarios, operadores y usuarios esperan que XAI https://www.youtube.com/watch?v=xB-eutXNUMXJtA&feature=youtu.be algunas preguntas candentes como:
¿Por qué el sistema de inteligencia artificial hizo una predicción o decisión específica?
¿Por qué el sistema de inteligencia artificial no hizo otra cosa?
¿Cuándo tuvo éxito el sistema de IA y cuándo falló?
¿Cuándo los sistemas de inteligencia artificial brindan suficiente seguridad en la decisión de que puede confiar en ellos?
¿Cómo pueden los sistemas de IA corregir los errores que surgen?

La Inteligencia Artificial Explicable (XAI) es un conjunto de técnicas y métodos que permite humano operadores a comprender y confianza los resultados y la salida creada por los algoritmos de aprendizaje automático. La IA explicable se utiliza para definir un patrón de IA, su impacto probable y posibles sesgos. Ayuda distinguir la precisión, la equidad, la transparencia y los resultados del modelo en decisiones impulsadas por la inteligencia artificial haciendo. XAI es crucial para una organización a la hora de generar confianza al poner en producción modelos de IA

 

 

¿Por qué es importante la IA explicable (XAI)?

La IA explicable es utilizado para tomar decisiones de IA tanto comprensibles como interpretables por humanos. Esto los deja expuestos a un riesgo significativo; sin un ser humano involucrado en el proceso de desarrollo. Los modelos de IA pueden generar resultados sesgados que pueden conducir a problemas de cumplimiento normativo y ético más adelante.

¿Cómo se logra una IA explicable?

Para lograr una IA explicable, deben controlar los datos utilizados en los modelos, lograr un equilibrio entre precisión y explicabilidad, centrarse en el usuario final y desarrollar indicadores clave de rendimiento (KPI) para evaluar el riesgo de IA.

¿Qué es un ejemplo de IA explicable?

Los ejemplos incluyen la traducción automática mediante redes neuronales recurrentes y la clasificación de imágenes mediante una red neuronal convolucional. Además, la investigación publicada por Google DeepMind ha despertado interés en el aprendizaje por refuerzo.

¿Qué caso se beneficiaría de los principios explicables de la IA?

En consecuencia, la salud es un excelente lugar para comenzar, en parte porque también es un área en la que la IA puede ser bastante ventajosa. Por ejemplo, las máquinas explicables impulsadas por IA pueden ahorrar mucho tiempo a los profesionales médicos, permitiéndoles concentrarse en las tareas interpretativas de la medicina en lugar de en una tarea repetitiva.

Principios explicables de la IA: una breve introducción

  • Los modelos son intrínsecamente explicables: simples, transparentes y fáciles de entender.
  • Modelos que son de caja negra por naturaleza y requieren explicación a través de modelos independientes que se reproducen y que imitan el comportamiento del modelo original. Explique su razón de ser detrás de decisiones o predicciones.

 

Inteligencia artificial (IA): ¿10 preguntas?

Los modelos complicados de aprendizaje automático a menudo se consideran cajas negras, lo que significa que nadie, ni siquiera el creador del modelo, sabe por qué el modelo hizo una recomendación o predicción en particular. Como resultado, simplemente no se puede explicar. La IA explicable, o XAI, intenta rectificar el problema de la caja negra con los modelos de aprendizaje automático. El objetivo general de XAI es producir un modelo que pueda explicar su razón de ser para tomar ciertas decisiones o predicciones y destacar sus fortalezas y debilidades.
XAI ayuda a los usuarios del modelo a saber qué esperar y cómo podría funcionar el modelo. Por ejemplo, comprender por qué un modelo eligió un camino sobre otro y los errores típicos que cometerá un modelo es un avance masivo en el aprendizaje automático.
Este nivel de transparencia y explicabilidad ayuda a generar confianza en las predicciones o resultados producidos por un modelo.

 

¿Cómo puede una organización empezar a utilizar la inteligencia artificial y el aprendizaje automático? | Sistemas v500

Contáctenos para obtener más información e implementar la inteligencia artificial y el aprendizaje automático, y cómo nuestras herramientas pueden hacer que sus datos sean más precisos. Podemos responder a todas sus preguntas.
Programe una reunión | Inteligencia artificial | Café virtual

Por favor, eche un vistazo a nuestros estudios de casos y otras publicaciones para obtener más información:

Inteligencia artificial

Inteligencia Artificial en Salud

Datos precisos gracias a la inteligencia artificial

Calculadora AI ROI

Inteligencia artificial (IA): ¿10 preguntas?

ARTÍCULOS RELACIONADOS

08 | 09 | 2022

Cómo hacer que la revisión de documentos legales sea menos costosa

Los bufetes de abogados y los equipos legales corporativos a menudo subcontratan a proveedores externos para extraer datos de contratos de sus carteras de contratos para obtener información procesable.
04 | 07 | 2022

Automatización en la Plataforma Cloud

La inteligencia artificial tiene el potencial de aumentar significativamente la eficiencia de nuestras industrias al mismo tiempo que mejora el trabajo que los humanos pueden realizar. Cuando la IA se hace cargo de tareas mundanas o peligrosas, libera al trabajador humano para que sea CREATIVO
15 | 06 | 2022

¡Los bufetes de abogados se sientan en toneladas de datos no estructurados, sin darse cuenta de la mina de oro que poseen!

La investigación de Gartner predice que el volumen de datos en el mundo crecerá un 800 % en los próximos cinco años, y hasta el 80 % de esos datos estarán completamente desestructurados. Ahora existe una forma más inteligente de realizar esta tarea: leer y comprender.
15 | 05 | 2022

Automatización Inteligente para el Sector Financiero y Legal

Sabemos que al aprovechar la inteligencia artificial y el aprendizaje automático dentro de sus organizaciones, puede reducir una gran cantidad de tiempo y ahorrar dinero al mismo tiempo.