¿Podría la Inteligencia Artificial ayudar a resolver las controversias con las Administraciones Tributarias?
Introducción
El objetivo de la presente colaboración es revisar algunas experiencias, en la aplicación de la Inteligencia Artificial (IA), que puedan ser aplicables para la resolución de controversias con las Administraciones Tributarias (AATT), vale decir para la sustanciación de los recursos que presentan los contribuyentes frente a diversos actos administrativos, incluso ante la Justicia.
En primer lugar, destacamos que no existe una definición única de la IA, se refiere a la capacidad que tiene un sistema digital de emular funciones cognitivas, como aprender, interactuar, crear y replicar, que previamente sólo se atribuían a los humanos.
Según una reciente publicación[1], por el momento, la IA existente se conoce como IA blanda, capaz de realizar una tarea específica, relativamente simple o rutinaria, con mejor rendimiento que un ser humano, en oposición a la IA dura, que sería capaz de razonar como el intelecto humano, en tareas más complejas. Esta última, plantea mayores discrepancias entre los expertos.
La aplicación de la IA ha optimizado el análisis de los datos, proporcionando insumos que permiten hacer más eficientes los procesos y permitiendo una toma de decisiones basada en evidencia. Una de las principales ventajas de la IA es su capacidad de procesamiento de grandes volúmenes de datos, acortando de manera notable los plazos.
No obstante, ello, advertimos desde el comienzo que hay que ser muy cauteloso con su uso, de modo de no generar sesgos con su utilización ni consecuencias no deseadas.
Existen riesgos de un mal uso de la misma, lo que exige una valoración incluso desde la perspectiva ética y la adopción de una serie de principios que deben presidir su uso.
Una arista no menor, que tiene que ver con incorporación de mecanismos de automatización y robótica, incluyendo la IA, es la destrucción de empleo que se producirá, ante un uso cada vez mayor de estas técnicas.
Algunas experiencias de utilización de la inteligencia artificial en la Justicia
Yendo a un terreno concreto, cabe destacar la aplicación de la IA en la Justicia, donde podemos mencionar que en Argentina en 2017 la Fiscalía de la Ciudad de Buenos Aires desarrolló PROMETEA, un sistema que aplica IA para preparar automáticamente dictámenes judiciales.
Consiste en un sistema de software, que tiene como cometido principal la automatización de tareas reiterativas y la elaboración automática de dictámenes jurídicos, basándose en casos análogos, para cuya solución ya existen precedentes judiciales reiterados.
PROMETEA le ha permitido a la Fiscalía incrementar la eficiencia de sus procesos de manera significativa[2].
El componente más innovador de PROMETEA es que, para cada caso y en base a sentencias previas de casos similares, permite, a partir de inferencia predictiva, la elaboración de la recomendación que el fiscal debe hacer para que el juez dicte sentencia, y prepara y le propone al fiscal el modelo de dictamen jurídico. Ello se basa en una correlación estadística entre palabras clave asociadas a cada proceso y patrones de sentencias previas.
Además de su uso en la Fiscalía, PROMETEA fue entrenada para mejorar procesos en otros Organismos.
Por otra parte, en Estados Unidos existe el programa COMPAS (Correctional Offender Management Profiling for Alternative Sanctions)[3], que se usa en varios Estados. Se trata de un software que se utiliza desde 1998 para analizar, según los antecedentes penales de un acusado, sus probabilidades de reincidir.
El programa plantea un cuestionario al acusado. Una vez que éste responde, el sistema calcula el riesgo de reincidencia, por lo que el juez define, por ejemplo, si conviene o no otorgar la libertad condicional.
COMPAS saltó a la fama con el caso Loomis, al cual acusado de huir de la policía y usar un vehículo sin autorización de su dueño, lo condenaron a 6 años de prisión y 5 años de condicional, porque el sistema estimó un riesgo alto de reincidencia. Loomis recurrió la decisión, alegando que su defensa no podía rebatir los métodos de COMPAS porque el algoritmo no era público. La Corte Suprema del Estado de Wisconsin desestimó el recurso.
Años más tarde, en 2018, se supo que el sistema analiza 137 aspectos de cada imputado. Pero, al contrastar el nivel de éxito entre las predicciones del sistema y decisiones de juristas se constató que el nivel de acierto de la IA no es superior, o incluso, quedan en evidencia errores graves.
En China, en octubre de 2019 se presentó en Beijing el Tribunal de Internet, definido como un “centro de litigios en línea”. Se trata de una plataforma donde las partes cargan los datos de la controversia a resolver y la IA hace el resto: busca jurisprudencia, analiza la temática, contrasta pruebas y dicta sentencia.
El sistema no tiene grandes diferencias técnicas con el de Estonia[4], donde también se está apostando fuerte por la automatización de la justicia, sin intervención humana en todo el proceso. A grandes rasgos, las partes presentan digitalmente sus demandas y sus pruebas. El juez de IA -en desarrollo- analizará la documentación y emitirá una sentencia. Ello permitiría acelerar decenas de contiendas atrasadas. Si alguna de las partes disiente con el resultado siempre podrán presentar un recurso ante un juez humano.
Recientemente en Colombia, la Corte Constitucional anunció la adopción de un programa de IA, denominado PRETORIA. Es un sistema predictivo de detección inteligente de sentencias e información para facilitar el trabajo de los jueces[5].
Posible aplicación en la resolución de contiendas tributarias
Llegado a este punto cabe preguntarse si estas innovaciones, que ya se aplican en la Justicia, podrían utilizarse en la resolución de controversias tributarias, en el ámbito de las AATT y también de la Justicia tributaria (tribunales fiscales), es decir en el tratamiento de los recursos o mecanismos de defensa que tienen los contribuyente para controvertir los actos proferidos por la administración fiscal, tales como las liquidaciones determinadas, las sanciones impuestas, y diversos actos administrativos.
Como antecedente, cabe mencionar que las AATT en los últimos años han empezado a utilizar mecanismos automáticos, que podríamos llegar a calificar como IA blanda, para resolver ciertos trámites e incluso para tratar la disconformidad que puedan plantear los contribuyentes, donde ciertamente se intenta evitar al máximo la intervención de los recursos humanos de aquellas y la presencia de los contribuyentes en las agencias.
Lo expuesto representa un antecedente para plantearnos la posibilidad de aplicar la IA a la resolución de las contiendas tributarias.
Prima facie, no avizoramos mayores problemas en la utilización de la IA, en un comienzo, para coadyuvar en la resolución de los litigios fiscales simples y rutinarios, tales como aplicación ciertas multas y en los ámbitos judiciales por ejemplo los incidentes para litigar sin gastos, la regulación de honorarios profesionales, etc.
También eventualmente podrían tratarse con IA contiendas tributarias más básicas que involucren la aplicación de impuestos en supuestos simples.
En todo caso, lo que haría la IA es brindar al juez o a quién decida un elemento de consulta o respaldo para la decisión que indudablemente tiene que ser tomada por la persona que ejerza tales roles.
La posible aplicación de IA, no debe omitir la premisa que un sistema de resolución de controversias debe ser justo, rápido y efectivo, como una salvaguarda importante para los contribuyentes, donde se respeten sus distintos derechos y garantías, en el debido proceso.
Los contribuyentes deben tener garantías que el manejo de su información es seguro, por lo que se requieren leyes integrales que protejan la confidencialidad.
Estas leyes deben precisar la responsabilidad ante fallas de los sistemas, por ejemplo, cuando se producen filtraciones por el accionar de ciberdelincuentes o de los propios los recursos humanos de las AATT.
Los principios intemporales de la protección del contribuyente y los marcos de derechos existentes en cada país deberían adaptarse a la disrupción digital y en su caso contemplar el uso de la IA para resolver controversias. De lo contrario el uso de la IA puede entrar en conflicto con los derechos y garantías de los contribuyentes.
Por ello, nos parece que el contribuyente debe tener el derecho a conocer de qué manera la IA llega a la conclusión del recurso, y desde luego poder impugnarla.
Asimismo, cabe recordar que es vital, que las resoluciones de los recursos sean debidamente motivadas por las AATT, que resuelvan la controversia, debiéndose pronunciar sobre todas las cuestiones planteadas por el recurrente y las que se susciten en el expediente (conforme quede planteada la litis), así como de las pruebas producidas o elementos considerados.
Asimismo, cabe mencionar que la OCDE[6] recomienda ciertos principios complementarios basados en valores para la administración responsable de IA confiable.
No hay que olvidar, que alguna experiencia ha demostrado que si los sistemas de IA no se diseñan adecuadamente pueden, tener efectos discriminatorios, injustos y con implicaciones sociales no deseables, como sucedió con el caso de COMPAS en los EEUU.
La adopción de la IA requiere una cuidadosa administración y gobernanza de datos. La IA recurre a datos para que el algoritmo “aprenda” a decidir. Pero si estos datos existentes reflejan sesgos que ya se encuentran en el mundo real, por lo que se puede decir que los algoritmos aprenden a tomar decisiones que reflejan dichos sesgos.
Por eso es clave el tema de cómo se construye la ética del algoritmo, es importante tener la posibilidad de examinar y supervisar el código de estos algoritmos, ya que se corre el riesgo de incorporar, intencionalmente o no, sesgos, prejuicios u otros elementos en la misma programación que de algún modo “contaminen” la respuesta.
La ética de la IA resulta ser fundamental como un primer paso para los límites deseables en la utilización de la moderna tecnología en las AATT. Ciertos principios de la ética de la IA deben ser respetados, tales como la privacidad, responsabilidad, seguridad, transparencia y explicación, justicia y no discriminación, control y supervisión humana de la tecnología, y promoción de los valores humanos dentro del marco del derecho internacional de los derechos humanos.
La aplicación de la IA a trámites, solicitudes, disconformidades y en las contiendas tributarias, además de disminuir los tiempos de resolución, puede permitir estandarizar las decisiones, vale decir uniformar criterios, para que no se brinden dos respuestas diferentes ante el mismo problema.
En todo el proceso de adopción de Tics en AATT -y en tribunales tributarios- es clave definir estratégicamente el nuevo rol del recurso humano, ya que se requieren nuevas competencias digitales.
A modo de síntesis
En definitiva, creemos que la IA puede llegar a aplicarse para resolver controversias tributarias, pero siempre y cuando sea como apoyo para la resolución que deba tomar el juez en la resolución de las mismas, y no resolver por sí misma a partir de un algoritmo.
Desde ya descartamos la idea de que los jueces puedan ser reemplazados por robots que actúen mediante algoritmos de la IA que desplacen totalmente el ingenio humano, aunque el debate queda abierto.
[1] Constanza Gómez Mont, Claudia May Del Pozo, Ana Victoria Martín del Campo. Economía de datos e inteligencia artificial en América Latina Oportunidades y riesgos para un aprovechamiento responsable. Este reporte fue desarrollado por C Minds y comisionado por el Centro de Estudios en Tecnología y Sociedad (CETyS) de la Universidad de San Andrés en Argentina.
[2] Elsa Estévez Sebastián Linares Lejarraga Pablo Fillottrani. PROMETEA. TRANSFORMANDO LA ADMINISTRACIÓN DE JUSTICIA CON HERRAMIENTAS DE INTELIGENCIA ARTIFICIAL. BID 2020.
[3] https://retina.elpais.com/retina/2020/03/03/innovacion/1583236735_793682.html
[4] https://confilegal.com/20191013-china-y-estonia-desarrollan-jueces-virtuales-basados-en-inteligencia-artificial-para-resolver-demandas-de-cantidad/
[5] https://www.metrolatam.com/hub/tecnologia/2020/08/07/la-inteligencia-artificial-ahora-podria-juzgarte.html
[6] https://www.oecd.org/going-digital/ai/principles/
7,974 total views, 5 views today
12 comentarios
Excelente artículo para reflexionar. Enhorabuena.
Muchas gracias Jesús, efectivamente esa fue la idea que tuvimos en mente con Alfredo, instalar el tema y empezar a reflexionar sobre su factibilidad, aunque como decimos en el escrito ya algunas AT utilizan mecanismos automatizados en ciertos trámites y solicitudes, la idea es ir más allá y plantear la resolución de controversias tributarias. La nuevas tecnologías irrumpen tan rápido que muchas veces no nos dan tiempo de pensar detenidamente sus consecuencias. Saludos
Estimado Jesus muchas gracias por tus palabras¡ Un abrazo
Interesante articulo para analizar la IA como colaboradora, para optimizar el tiempo y recursos, de las resoluciones tomadas por las personas humanas.
Hola Rubén, muchas gracias. Comparto el rol de «colaboradora» de la AI pero nunca puede reemplazar el ingenio, raciocinio y sana crítica de un juez o evaluador de una controversia. Indudablemente ayuda en términos de plazos y recursos. En términos más amplios, otro tema a considerar, como para ir pensando cómo lo trataremos y/o compensaremos, es el escenario cuando la incorporación masiva de la automización y la AI a los procesos productivos genere desplazo de mano de obra en un principio en tares simples y rutinarias y más adelantes tal vez en otras…Saludos
¡Muy interesante el artículo, felicitaciones por traer el tema a debate!
Al finalizar la lectura de la contextualización y aspectos a considerar, además de algunas de las experiencias de utilización de la inteligencia artificial en la Justicia citadas en el artículo, me puse a pensar cómo serían las conclusiones/decisiones de algunos casos conocidos de litigio tributario si a ellos se aplicara la IA.
Por su relevancia e impacto, me vino a la mente el reciente fallo del Tribunal de la Unión Europea (TUE) en el caso Apple/Irlanda – este es el enlace con un reportaje sobre el tema: Tribunal de la Unión Europea falla a favor de Apple y evita pago de 15 mil mdd en impuestos pasados – https://www.sinembargo.mx/15-07-2020/3823633
Se supone que la aplicación de la IA pueda estandarizar decisiones y uniformar criterios, además que la IA debe respetar ciertos principios de la ética, como explicación, justicia y no discriminación. Si se aplicase una IA con criterios uniformes al proceso tributario de Apple/Irlanda, las decisiones desde la Comisión Europea hasta el TUE serían semejantes y, como hipótesis, el fallo del TUE no sería favorable a Apple.
En el artículo podemos leer que “es clave el tema de cómo se construye la ética del algoritmo” pues “se corre el riesgo de incorporar, intencionalmente o no, sesgos, prejuicios u otros elementos en la programación que de algún modo ‘contaminen’ la respuesta”. Y viene la duda: ¿acaso también podría haber “sesgos, prejuicios y otros elementos” en la “Inteligencia Humana”? Mirando la cantidad de noticias e iniciativas que buscan combatir los beneficios concedidos a las empresas multinacionales que usan estructuras como la usada por Apple en Irlanda y comparándolo com el fallo del TUE, personalmente me parece que sí es posible haber en la “Inteligencia Humana” los citados sesgos, que debemos estar atentos para evitarlos en la “Inteligencia Artificial”.
O quizás se podría decir que, con la Inteligencia Artificial, sería posible evitar “sesgos, prejuicios u otros elementos” de la Inteligencia Humana que pueden “contaminar” las conclusiones/decisiones. Algo como Capital e Ideología, de que fala Pikety. Sería un punto a favor de la IA, con un algoritmo transparente y auditable.
Hola Joao, muy interesante tu comentario, gracias por compartirlo. No se si las decisiones desde la Comisión al Tribunal para el caso Appel/irlanda serían semejantes, en todo caso los precedentes que resultarían insumos que utilizarían los respectivos algoritmos puede que lleve a conclusiones distintas a la Comisión y al Tribunal (cada uno tendría sus antecedentes, aunque obviamente alguna ponderación se tendría que dar a la instancia siguiente). Me animo a decir que en casos complejos como los de Appel/irlanda y también Amazon/Luxemburgo (más otros tantos que desde la Comisión fueron tachados de afectar la competencia en la UE) la AI de por sí no lo resuelve, entiendo la AI como una herramienta de trabajo y en ningún caso reemplazarían la decisión de las personas humanas, aún como bien dices ésta puede estar contaminada con cuestiones que afectan la objetividad.
Los precedentes que se utilizan en los algoritmos resultan también de decisiones humanas (y éstas pueden tener sesgos) por ende las conclusiones de AI los tendrá indefectiblemente.
Es tema muy apasionante y con muchísimas aristas a considerar, pero que necesariamente debemos abordar, porque el avance de las nuevas tecnologías es imparable.
Saludos
Buenos días para todos y como comento Jesús Perez es un tema para reflexionar, imagínate tener un apoyo para la toma de decisiones después de un análisis de varios temas analizados, pero si hasta cierto punto es inquietante para mi y cito el siguiente párrafo: Estas leyes deben precisar la responsabilidad ante fallas de los sistemas, por ejemplo, cuando se producen filtraciones por el accionar de ciberdelincuentes o de los propios los recursos humanos de las AATT. Esto es tan palpable tal cual como el uso de coimas para favorecer en la decision a un obligado tributario, y pues que si necesitamos embestirnos de valores para hechar a andar este magnifico proyecto de las IA.
Gracias Ricardo por tu comentario. La responsabilidad de filtraciones o mal utilización debe estar claramente precisada y penada en las leyes, comparto plenamente. Saludos
Alfredo Collosa y Pablo Porporatto, excelentes cada uno de sus trabajos, sobre todo en estos temas que hasta hace unas décadas sólo eran una utopía y que hoy son una realidad; un reto que deben asumir las AATT, evaluando evaluando un sin números de vertientes, pero que además, se garantice la transparencia, ética y que ingenio humano tenga la capacidad de tomar decisiones basados en los resultados obtenidos; donde el ser humano sigue siendo su eje transversal. Un tema complejo.
Gracias por sus aportes, leerlos es un verdadero placer, rompen paradigmas con sus aseveraciones. Saludos ambos.
Estimada Beatriz muchas gracias por tu comentario y todo tu apoyo. Son temas que cuando nos acordemos ya los tenemos instalados en nuestras AATT por eso nos parece dar un adecuado debate planificando adecuadamente la instrumentación del tema con sus beneficios y posibles riesgos de su aplicación. Saludos¡¡
Buen Día.
Hay infinidad de intenciones e ideas muy buenas, pero antes, hay que discernir en el mundo en donde se está viviendo. El sistema Pentágono de orden y seguridad impuesto en los Estados Unidos es un forma de control, mediante la legalidad y la técnica, de los paradigmas religiosos, políticos, económicos, militares y científicos, desde las cúpulas. El sistema de información que interconecta a todas las instituciones es cuántico, es decir, que la modificación de un dato repercute en todo el sistema de manera instantánea lo que otorga ordenamiento y dirección sobre un mismo objetivo o interés basado en la seguridad nacional, por tanto, el procedimiento es resguardado bajo privilegios extraordinarios de confidencialidad. Por otra parte todos los sistemas digitales son vulnerables en su normativa por la condición de seguridad nacional impulsado por un factor claramente manipulado desde el terrorismo que ha servido para ir mermando la libertad de los individuos desde el concepto masa. Hoy la I.A. sirve fundamentalmente para la ingeniería social y así determinar perfiles que puedan amenazar al Estado y sus instituciones, es decir, que intentan ampliar el concepto terrorismo hacia la ciudadanía disidente en contra la opresión estatal. Es por eso que se promociona la censura de la libertad de expresión que como bien indica la palabra expresión se extiende en la acción libre y soberana, es decir, que el Estado pretende instalarse como propietario de los cuerpos físicos de la personas mediante la figura legal que representa a la humana.
Entonces, el sistema I.A en la justicia, propicia que la comodidad del mecanismo se imponga resonantemente sobre la mente de los funcionarios desde la lógica pura sin discernimiento desde el sentido común, es decir, que no se necesite de la experiencia de vida que moldea la virtud del funcionario moldeándolo hacia la mente de un psicópata calculador que es precisamente la raíz formativa desenvuelta desde la I.A. A todo esto, en un sistema piramidal con una cadena de mando militarizada, la orden llega hasta el agente de la institución que también adopta la percepción robótica del actuar sin discernir, ya que el simple acatamiento de la orden lo pone en una situación de conformidad y rectitud con su vestidura que es recompensada por el sistema y que en caso de disidencia lo castiga o expulsa, por lo que rige un sistema primario de supervivencia muy lejos del concepto humano y más cerca del concepto animal.
La educación, la instrucción, el entretenimiento, la propaganda y las terapias psicológicas, están destinadas para interferir la mente individual y generar vulnerabilidades mediante identificaciones y definiciones de persona y así conseguir instalar en la mente dispositivos o implantes racionales de lógica binaria que resuenen con la información exterior en un juicio predefinido. Esta intrusión sobre el sentido común como una envoltura o máscara es una manera de dominio de la mente para así dominar el cuerpo y generar costumbres que sirven como medios de comunicación en la masa. El efecto de desgobierno provocado en la mente y cuerpo de los individuos es el factor sine qua non que necesita el gobernante como la cabeza de ese cuerpo llamado masa.
Básicamente una vulnerabilidad es una herida psicológica que en la infancia marca un espacio de memoria sin resolución, es decir, indefinible, por lo cual es sentido como una carencia o falta que es al mismo tiempo abundancia y una desmesura incomprensible. Este espacio indefinible es lo que se procura reproducir desde el Estado para incidir desnaturalizando el sentido común y lograr programar las mentes asociándolas a una herida como costra racional, por tanto, la información que amenace la lógica implicada es respondida con una reacción de rechazo inconsciente ya que forma parte de la identidad de la persona como personaje de una obra. Del espacio manipulado de carencia y desmesura, se genera el matrimonio víctima-victimario, oprimido-opresor, esclavo-amo, centrado desde los complejos de inferioridad-superioridad. Esto determina el apetito por la vida y que durante el conflicto interno se suscita el nacimiento de la figura del salvador o libertador que forma parte como de un factor de manipulación desde el gobierno.
La manipulación psicológica del Pentágono condiciona la autoridad, el deseo, las ideas, las emociones, las necesidades y la inteligencia de los individuos. Este procedimiento del imperio de la mente es un hecho histórico y es originado desde una génesis mitológica que sigue su curso de manera más sofisticada hasta estos días, el pastor no ha dejado de ser pastor de su ganado, y los sacrificios continúan amparados bajo la legalidad y la técnica, el sacrificio de los individuos por una entelequia, por una estadística, para el bien común. El canibalismo fue simbolizado y evolucionado lógicamente cuando la figura legal del ser humano se transformó en una empresa para luego ser absorbida por otras, o una corporación mayor y nacional, un Estado S.A, y que bajo esos términos puede ser comprado por otra corporación nacional o privada, llámese Bancos o una industria farmacéutica o una big tech totalmente interconectados en una familia. Es así que con un simple tratado internacional se puede pasar por sobre cualquier constitución, y hoy, con una simple resolución de una entidad privada.
Por eso, es mejor detenerse y verificar que el Progreso que tanto promocionan es una simple avanzada sobre las pequeñas y superfluas ignorancias llevando a cuestas una ignorancia supina oculta bajo la tecnocracia en una huida hacia adelante. Ya conocemos sus modus operandi y vivendi, y la cadena de falsas banderas es muy obvia. La mayoría no tiene capacidad de discernir el majestuoso engaño y la simple intuición le ocasiona el miedo programado a la libertad, ya que toda la responsabilidad, poder, deber, autoridad, voluntad, valor, la ha proyectado y entregado a una entelequia a cambio de seguridad que es alimentada con el miedo. La cadena de corrupción es cuántica como la I.A y se encuentra en todos los escalafones de la estructura de poder y cada uno cuida su puesto, es decir, el personaje que le brinda la sensación de realización, es más, por ejemplo, un médico cotiza lo mismo más allá si sana o no, en todo caso, si el enfermo persiste en su condición, más beneficios para toda la cadena productiva que llega hasta las farmacéuticas y las corporaciones en negro llamadas mafias, hermanadas de las primeras. Así que, ¿en verdad se busca la justicia? ¿o el ímpetu se corresponde a ser una resistencia de un flujo programado para su persistencia en la inercia?