Inteligencia Artificial explicable (XAI)** y su importancia en la Administración Tributaria
General
La inteligencia artificial (IA) viene impactando no solamente los negocios, sino también nuestra vida diaria, desde reconocimientos faciales y de imágenes hasta analítica predictiva basada en aprendizaje de máquina, aplicaciones conversacionales, máquinas autónomas y sistemas hiperpersonalizados[1]. El tipo de decisiones y predicciones que realizan los sistemas habilitados por IA se están volviendo mucho más profundas y, en muchos casos, críticas para la vida, la muerte y el bienestar personal (Schmelzer, 2019).
A pesar de que afectan la vida de todos, pocos somos capaces de comprender cómo y por qué los sistemas de IA toman sus decisiones y cómo éstas están siendo aplicadas en nuestras vidas. Tampoco se logra rehacer el camino recorrido por muchos algoritmos a partir de los resultados encontrados. Esta opacidad conlleva a desconfianzas en los resultados. Especialmente, se destacan aplicaciones en salud, coches sin conductor y operaciones de drones en guerras. En la actualidad, es cada vez más importante, para determinadas aplicaciones, reconocer también los impactos legales y en los derechos humanos fundamentales asociados a decisiones o recomendaciones de sistemas de IA. Además, en casos llevados a tribunales, jueces confrontan cada vez más los algoritmos de aprendizaje de máquina, buscando explicaciones en las cuales puedan basar sus decisiones.
Este contexto fortalece el debate sobre cuáles decisiones fundamentadas en algoritmos de IA requieren ser explicadas y qué tipos de aclaraciones son estas. Así, la explicación de cómo se ha llegado a determinada conclusión podría ser importante para permitir que los afectados por la misma impugnen o cambien ese resultado.
Los algoritmos de IA
IA está fundamentada en varios tipos de algoritmos, que actúan sobre conjuntos de datos, en modelos como aprendizaje de máquina (ML), aprendizaje profundo (DL) y redes neurales (NN). De acuerdo con la IBM, muchos de estos modelos a menudo se consideran “cajas negras”, que son imposibles de interpretar. Las redes neuronales, que se utilizan en el aprendizaje profundo, son algunas de las más difíciles de entender para el ser humano. El sesgo, a menudo basado en la raza, el género, la edad o la ubicación, es un riesgo que siempre ha estado presente en el entrenamiento de modelos de IA. Además, conforme la misma fuente, el rendimiento del modelo puede variar o degradarse, por ser los datos de producción diferentes de los datos de entrenamiento. Esto añade un argumento adicional decisivo para una institución monitorear y administrar continuamente modelos de IA, promover la elucidación y evaluar sus decisiones.
Algoritmos y consecuencias legales
Problemas operativos y legales con sistemas basados en algoritmos no son novedosos, la literatura tiene algunos ejemplos, como el caso del sistema de detección de fraudes en pedidos de seguro de desempleo del estado de Michigan (Estados Unidos), que indebidamente cargó multas y bloqueó devolución de impuestos a miles de beneficiarios, y ahora responde a procesos legales. En 2019 un tribunal holandés determinó que un algoritmo usado en la detección de fraudes de asistencia social violaba los derechos humanos y ordenó al gobierno que no lo utilice mas (Wykstra, 2020).
La administración tributaria, que está complacida con el potencial de los algoritmos de IA para mejorar su desempeño en distintas áreas, también debe considerar los efectos de los algoritmos cuando el tema sea pasible de discusión en tribunales.
Kuzniacki y Tylinski (2020) indican que la mayor fuente de riesgos para integración de IA al proceso legal en Europa son las Regulaciones Generales de Protección de Datos-RGPD[2] y la Convención Europea de Derechos Humanos-CEDH[3]. Los artículos legales mencionados por los autores son los siguientes:
Kroll, Huey et al. (2017) indican que el uso de modelos de IA avanzados y complicados, como las redes neuronales, aún no es transparente para ser utilizado como la única herramienta que tome decisiones fiscales sin supervisión humana. Por lo tanto, en lugar de redes neuronales, recomiendan en estos casos utilizar modelos de IA que se puedan explicar fácilmente, como árboles de decisión, diferentes versiones del uso simultáneo de múltiples métodos de aprendizaje de máquina (ensemble learning), de modo que sea posible proporcionar información significativa sobre la lógica involucrada en el modelo. Los resultados deben ser presentados de modo inteligible por humanos, así como los factores que llevaron al modelo a tomar la decisión de aplicar o no aplicar la ley tributaria. Esto permite a las personas desafiar tales decisiones, incluso antes de que se emitan oficialmente.
¿Qué es XAI?
El contexto descrito anteriormente conllevó a la necesidad de estudios más avanzados y estructurados sobre el tema, a ser consolidados en un nuevo campo, la Inteligencia Artificial Explicable o XAI.
XAI puede ser definida como un conjunto de procesos y métodos, que permite a las personas comprender y confiar en los resultados y orientaciones generados por los algoritmos de aprendizaje automático. La IA explicable se utiliza para describir un modelo de IA, su impacto esperado y posibles sesgos[4]. De todos modos, promociona la responsabilización de los algoritmos (algorithm accountability).
En este contexto la XAI también ayuda a promover la confianza del usuario final, la auditabilidad del modelo y el uso productivo de la IA, además de mitigar los riesgos de cumplimiento legales, de seguridad y de reputación.
Empresas como la IBM identificaron la importancia de la XAI y ofrecen recursos como blogs y toolkits para que sus clientes puedan iniciarse en esta área.
Se observa que el área legal será la principal parte interesada y la conductora funcional de los estudios de XAI de una administración tributaria.
En la situación actual, en los países europeos y en los Estados Unidos, no se percibe una orientación clara de los tribunales en los casos que tratan de decisiones basadas en algoritmos. Como no existen precedentes consolidados, las decisiones son tomadas basadas en los criterios de cada juez.
Deeks (2021) sostiene que los jueces se enfrentarán a una variedad de casos en los que deben exigir explicaciones para la toma de decisiones, recomendaciones o predicciones algorítmicas. Debido a esas exigencias los jueces desempeñarán un papel fundamental en la configuración de la naturaleza y la forma de XAI. Utilizando las herramientas del derecho consuetudinario, los tribunales pueden construir lo que debería ser el papel de la XAI en diferentes contextos legales, incluidos los casos penales, administrativos y civiles. Así, concluye que los jueces son los actores principales en la definición y significado de XAI.
El mismo autor afirma que a medida que los tribunales empleen y desarrollen la jurisprudencia existente frente a los algoritmos predictivos, que surgen en una serie de litigios, crearán el «derecho común de XAI», una ley sensible a los requisitos de diferentes audiencias (jueces, jurados, demandantes o acusados) y diferentes usos para las explicaciones provistas (entornos de derecho penal, civil o administrativo).
Comentarios finales
La necesidad de explicación de algoritmos de IA es un tema todavía nuevo para las administraciones tributarias en ALC (y quizás del mundo). Pero se está avanzando en el uso de IA en prácticamente todas las áreas fiscales, y seguramente las demandas judiciales vendrán, ya que los principios jurídicos y las leyes generales de protección de datos vigentes o en preparación están muchas veces basadas en principios de sus congéneres europeos y norteamericanos.
De acuerdo con Doshi-Velez, Kortz et al. (2017), en este nuevo campo de investigaciones legales y tecnológicas, el papel de la explicación de algoritmos de IA para garantizar su responsabilidad debe ser reevaluado periódicamente para adaptarse a un mundo tecnológico cambiante. El acceso a mayores recursos computacionales puede reducir la carga computacional asociada con la explicación, pero permite también usar algoritmos aún más sofisticados, aumentando los desafíos asociados con una explicación precisa.
Por otro lado, no toda solución de IA necesita ser “explicable”. Así, el primer paso es identificar esta necesidad antes del diseño.
Asimismo, no cuesta estar alerta para los embates que se acercan.
Referencias bibliográficas:
Deeks, A. 2021. The Judicial demand for explainable Artificial Intelligence. Columbia Law Review. Vol. 119. No. 7. Disponible en: https://www.columbialawreview.org/content/the-judicial-demand-for-explainable-artificial-intelligence/
Doshi-Velez, F., Kortz, M. et al. 2017. Accountability of AI under the law: The role of explanation. Working Draft from Berkman Klein Center Working Group on AI Interpretability. Disponible en: https://arxiv.org/ftp/arxiv/papers/1711/1711.01134.pdf
Kroll, J., Huey, J. et al. 2017. Accountable alghoritms. University of Pennsylvania Law Review. Disponible en: https://scholarship.law.upenn.edu/penn_law_review/vol165/iss3/3/
Kuzniacki, B., Tylinski, K. 2020. Legal risks stemming from the integration of artificial intelligence (AI) to taxlaw. Kluer International tax blog. Disponible en: kluwertaxblog.com/2020/09/04/legal-risks-stemming-from-the-integration-of-artificial-intelligence-ai-to-tax-law/
Schmelzer, R. 2019. Understanding Explainable AI. Disponible en: https://www.forbes.com/sites/cognitiveworld/2019/07/23/understanding-explainable-ai/
Wykstra, S. 2020. How the government’s use of algorithm serves up false fraud charges. Salon.com. Disponible en: https://www.salon.com/2020/06/14/how-the-governments-use-of-algorithm-serves-up-false-fraud-charges_partner/
** Explainable AI en inglés
[1] La hiperpersonalización es la forma más avanzada en que las marcas pueden adaptar su marketing a clientes individuales. Se hace mediante la creación de experiencias personalizadas y específicas mediante el uso de datos, análisis, inteligencia artificial y automatización (Deloitte).
[2] Véase https://gdpr-info.eu/
[3] Véase https://www.echr.coe.int/Documents/Convention_ENG.pdf
[4] Véase https://www.ibm.com/watson/explainable-ai
5,337 total views, 2 views today
7 comentarios
Apreciado Antonio.
Como sueles tenernos acostumbrados este también es un muy buen artículo. Felicitaciones.
Gracias, amigo Celso. Saludos!!!
Excelente Artículo, muchas gracias.!!!
Estimado Sr. Miguel, nos complace que le haya resultado útil.
very informative articles or reviews at this time.
There is definately a lot to find out about this subject. I like all the points you made
I appreciate the comments. I am at your disposal for any questions or suggestions.
Antonio Seco…