Del algoritmo al diálogo: el poder de la IA generativa en los chatbots e implicaciones en la administración tributaria
A medida que la inteligencia artificial (IA) se hace más popular, muchas empresas se apresuran a adoptar chatbots con la intención de ahorrar tiempo, reducir costos y maximizar la eficiencia. La empresa Gartner predice que los chatbots se convertirán en el principal canal de atención al cliente en 2027. [1]
Los chatbots siguen fundamentalmente dos tipos de tecnologías: inteligencia artificial generativa (GenAI) y basado en reglas (rule-based).
Los chatbots de IA generativa tienen la ventaja de una mejor comprensión del lenguaje, adaptabilidad y la capacidad de generar contenido creativo. Aprenden de grandes cantidades de datos de texto y actualizan continuamente su conocimiento para brindar respuestas precisas y relevantes. Sin embargo, pueden producir información engañosa o incorrecta y existen cuestionamientos con respecto a la privacidad. [2]
Los chatbots basados en reglas se destacan en escenarios con consultas simples y predecibles, y ofrecen una solución rentable. Carecen de la flexibilidad y la creatividad de los chatbots de IA generativa, pero pueden manejar de manera eficiente las preguntas frecuentes y las tareas de soporte al cliente.
Los chatbots de IA generativa utilizan modelos de lenguaje a gran escala (LLM) para generar respuestas basadas en las solicitudes del usuario. Estos modelos se entrenan en conjuntos de datos masivos, lo que les permite comprender y producir respuestas similares a las humanas mediante modelos de aprendizaje profundo, redes neuronales y procesamiento del lenguaje natural.
Por el contrario, los chatbots basados en reglas se adhieren a una colección de reglas predeterminadas y utilizan declaraciones “if/then” para determinar la respuesta adecuada en función de palabras clave específicas. [3]
Por el largo espectro de aplicabilidad y flexibilidad de tratamiento de temas complejos, además de proporcionar un diálogo más fluido, mejorando la experiencia general del cliente, los chatbots basados en LLM avanzan en la preferencia de grandes organizaciones.
Los modelos más conocidos de IA generativa usados en chatbots son:
- • GPT (Generative Pre-trained Transformer): usado en sistemas como ChatGPT, conocido por su capacidad de generar texto coherente y preciso en distintos contextos.
- • LaMDA (Language Model for Dialogue Applications): modelo de Google diseñado específicamente para conversaciones extensas y complejas.
- • BERT (Bidirectional Encoder Representations from Transformers): aunque no es puramente generativo, mejora la comprensión del contexto.
- • LLaMA (Large Language Model Meta AI) es un modelo LLM divulgado por Meta AI en febrero de 2023.
Sin embargo, este tipo de chatbot no está exento de problemas. En ocasiones, pueden inventar información o cometer errores (denominados “alucinaciones”), lo que pone en duda su fiabilidad para proporcionar datos precisos y pueden causar serios daños a empresas que los adopten.
Los problemas reales
Un ejemplo de esto ocurrió con Air Canada. Su chatbot aconsejó erróneamente a un cliente seguir una política de “reembolso por duelo” que no existía. En febrero, un tribunal canadiense de reclamos menores falló a favor del cliente, a pesar de que la aerolínea intentó culpar al software, alegando que el chatbot era una «entidad legal separada responsable de sus propias acciones». [4]
En otro caso, la empresa de entregas DPD, que utiliza inteligencia artificial en su chat en línea para responder preguntas en conjunto con operadores humanos, tuvo que desactivar parte de su chatbot. Tras una actualización, el sistema comenzó a insultar a los clientes y a criticar a la propia empresa, mostrando cómo un fallo puede perjudicar la reputación corporativa.
El problema no se limita al sector privado. El chatbot MyCity, creado por la ciudad de Nueva York para proporcionar a los ciudadanos información precisa sobre regulaciones y leyes locales, cometió errores graves. En lugar de ayudar terminó ofreciendo orientación incorrecta, como afirmar que los empleadores podían apropiarse de parte de las propinas de sus empleados, o que no existían leyes que exigieran notificar a los trabajadores sobre cambios en los turnos. [5]
En otro caso una empresa startup tecnológica decidió apostar por la implementación de un chatbot con el objetivo de optimizar la atención al cliente y automatizar procesos internos. Para ello, contrataron a una empresa de prestigio en el mercado para desarrollar la herramienta, dedicaron tiempo y recursos para capacitar a su equipo y esperaron con entusiasmo el lanzamiento. Sin embargo, el resultado no fue el esperado. Los clientes encontraron dificultades para interactuar con el chatbot, cuyas respuestas eran genéricas y, en muchos casos, irrelevantes. Esto no solo frustró a los usuarios, sino que también provocó un aumento considerable en las quejas y un descenso en los niveles de satisfacción del cliente, dejando a la empresa con la necesidad de replantear su estrategia tecnológica. [6]
Cabe destacar que los mismos proveedores tienen sus problemas. El 26 de diciembre de 2024, ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, experimentó una interrupción global, dejando de funcionar correctamente y mostrando mensajes de error a los usuarios. OpenAI atribuyó el problema a un proveedor externo y trabajó para resolverlo.
En un caso trágico, un hombre belga llamado Pierre (nombre ficticio), preocupado por el cambio climático, interactuó con un chatbot de IA llamado Eliza. Las conversaciones llevaron a Pierre a tomar decisiones extremas, culminando en su suicidio. Este incidente resaltó los riesgos de depender de chatbots para apoyo emocional sin supervisión adecuada. [7]
Estos casos reales no son mostrados para desalentar el uso de chatbots basados en IA, sino que advierten que además de los inmensos beneficios, también tienen su “lado oscuro” que hay que cuidar.
Chatbots y consultas vinculantes
Regresando al mundo tributario, la consulta vinculante es un mecanismo formal previsto en la legislación tributaria mediante el cual el contribuyente presenta una pregunta específica a la administración tributaria, y la respuesta emitida tiene carácter obligatorio para dicha administración. Este procedimiento solo se aplica al caso concreto consultado y debe estar enmarcado en un proceso formal y regulado.
Si la consulta se realiza fuera de los procedimientos oficiales, como a través de llamadas telefónicas, correos electrónicos o portales de asistencia automatizada, la respuesta emitida se considera solo orientativa y carece de carácter vinculante.
Debido a las limitaciones mencionadas anteriormente, los chatbots, incluso aquellos basados en IA, serían recomendados principalmente para gestionar consultas no vinculantes.
Sin embargo, y tomando en cuenta que las consultas vinculantes suelen ser las más demandantes en términos de consumo de recursos y de seguridad jurídica para las administraciones tributarias, considerar como alternativa la adopción de chatbots como herramienta de apoyo en el manejo de consultas vinculantes podría optimizar este proceso.
Un enfoque ideal sería que la administración tributaria presente la consulta vinculante al chatbot. Este generaría un borrador como respuesta inicial, la cual sería revisada y perfeccionada por los funcionarios responsables de la respuesta oficial. Una vez concluida / finalizada, la respuesta final sería incorporada al sistema del chatbot mediante técnicas de aprendizaje de máquina. Esto permitiría al chatbot «aprender» del proceso, además de ayudar en la detección de posibles inconsistencias y sugerir mejoras en la respuesta.
Con esta opción, la tendencia sería que las intervenciones humanas disminuyan progresivamente, agilizando las respuestas y mejorando la eficiencia operativa.
Además, el conocimiento acumulado por el chatbot incrementaría la precisión y calidad de las respuestas a las consultas generales no vinculantes, fortaleciendo la confianza de los contribuyentes en los servicios de las administraciones tributarias.
El contexto descrito para consultas vinculantes aplicase al uso de chatbots en varias áreas críticas de la administración tributaria.
Así, la orientación no es evitar los chatbots basados en IA, sino solucionar o mitigar los riesgos que presentan, aprovechando al mismo tiempo las grandes ventajas que ofrecen estas tecnologías.
Buenas prácticas
La solución o mitigación de los riesgos asociados al uso de chatbots basados en IA está basada en la combinación de buenas prácticas técnicas, éticas y operativas, asegurando la mejoría de su efectividad y fiabilidad en la atención al contribuyente.
A continuación, se presentan varias estrategias importantes organizadas por áreas de requisitos. [8] Algunas de ellas son aplicables a todos los tipos de chatbots, otras son inherentes a chatbots basados en IA generativa:
- Datos de calidad
Entrenamiento del modelo con datos confiables y adecuados al contexto de actuación: Utilizar conjuntos de datos actualizados, sin sesgos ni información incorrecta. Es fundamental tener el marco legal actualizado, así como del histórico de la evolución legal. No es un requisito fácil de ser seguido, pero disciplinas de “gobierno de datos” pueden apoyar la realización de esta indicación. [9]
Priorizar datos de fuentes verificadas.
Ejemplo: emplear bases de datos propias de la administración tributaria y otros órganos gubernamentales, además de los Poderes Legislativo y Judicial; adquirir bases de datos externas confiables, cuando sea necesario.
Monitoreo continuo: Evaluar periódicamente los datos utilizados para evitar desactualización y tendencias obsoletas o no deseadas.
- Transparencia y ética
Declaración de intenciones y limitaciones: Informar a los contribuyentes sobre la finalidad del chatbot, sus capacidades y sus limitaciones.
Ejemplo: «Este chatbot (o canal) proporciona información general y no sustituye el canal de consultas vinculantes».
Registro de fuente: Siempre que sea posible, incluya referencias o enlaces para validar las respuestas proporcionadas.
Evite los prejuicios: Implementar auditorías frecuentes en el sistema para identificar y mitigar sesgos en datos y algoritmos. Tenemos en la literatura ejemplos de problemas causados por sesgos de datos y algoritmos que ocasionan serias molestias para contribuyentes y para la propia administración tributaria y el gobierno. [10]
- Robustez técnica
Actualización constante del modelo: Incorporar mejoras constantes, basadas en los avances de la tecnología y el feedback de los contribuyentes.
Sistemas de detección de errores: Implementar mecanismos que identifiquen y notifiquen errores o inconsistencias en el sistema.
Capacidades para afrontar la incertidumbre: Cuando no sepa una respuesta, el chatbot debe ser capaz de admitirlo y, si es posible, redireccionar al contribuyente a fuentes fiables.
- Seguridad y privacidad
Protección de datos: Asegurarse de que el chatbot sigue las normas de protección de datos, como GDPR o LGPD.
No recopilar información personal sin el consentimiento explícito del contribuyente.
Cifrado de datos: Utilizar métodos seguros para almacenar y procesar la información recopilada.
Anonimidad: Evitar vincular los datos del contribuyente con información personal.
- Experiencia del usuario
Interfaz clara y fácil de usar: Estructurar las respuestas de forma accesible, evitando términos técnicos complejos.
Comentarios del contribuyente: Incluir canales para que los contribuyentes reporten problemas o sugieran mejoras.
Capacidad de aprendizaje continuo: Implementar aprendizaje automático supervisado para ajustar el comportamiento del chatbot a las necesidades de los contribuyentes.
- Evaluación continua
Pruebas periódicas: Realizar auditorías técnicas y pruebas de desempeño con frecuencia.
Simular escenarios para verificar la confiabilidad de las respuestas en diferentes contextos.
Métricas de calidad: Evaluar la satisfacción del contribuyente, la tasa de error y la coherencia de las respuestas.
Perspectivas y comentarios finales
Los chatbots basados en IA generativa tienen un gran potencial para liderar el segmento en las administraciones tributarias, gracias a su capacidad de ofrecer interacciones más dinámicas y personalizadas. Sin embargo, para ser adoptados de manera masiva, deben superar desafíos importantes relacionados con la precisión, los costos de implementación y el cumplimiento normativo.
Su consolidación definitiva dependerá tanto de los avances tecnológicos como de la adopción de prácticas éticas y seguras que fortalezcan su fiabilidad. Con la llegada de nuevos modelos de lenguaje más precisos, como GPT-5 o Gemini de Google, se espera una reducción de errores y una mejora significativa en la calidad de las respuestas.
Además, una tendencia emergente es la combinación de IA generativa con sistemas tradicionales basados en reglas, con el fin de alcanzar un equilibrio óptimo entre creatividad y precisión, garantizando así interacciones más eficientes y seguras para los usuarios.
En términos de tendencias para el futuro, los especialistas mencionan los modelos SML (Small Model Language), que por medios de técnicas tales como la destilación del conocimiento (knowledge distillation) permite entrenar un modelo más pequeño, conocido como «estudiante», para que imite el comportamiento de un modelo más grande y complejo, denominado «maestro». De este modo, gran parte del conocimiento del modelo maestro se transfiere al modelo estudiante, permitiendo conservar una alta precisión, pero con una carga computacional considerablemente menor. Esta técnica resulta especialmente útil en despliegues en entornos on-premise, donde los recursos de hardware suelen ser limitados.[11]
Finalmente, en lo general, se recomienda consultar una publicación del FMI que aborda temas relevantes sobre el uso de IA en las administraciones tributarias y aduaneras, incluyendo casos de uso donde se detalla la tecnología de IA más adecuada, el valor potencial, el nivel de madurez, requisito de IA explicable, el grado de intervención humana en el proceso y la clasificación de riesgos. [12]
Referencias
[1]Véase: https://www.gartner.com/en/newsroom/press-releases/2022-07-27-gartner-predicts-chatbots-will-become-a-primary-customer-service-channel-within-five-years
[2] Por lo general cuando el aprendizaje se realiza con datos en la nube o en ambientes externos.
[3]Véase: https://www.toolify.ai/ai-news/decoding-generative-ai-chatbots-a-comparison-with-rulebased-chatbots-2655743
[4]Véase: https://www.bbc.com/travel/article/20240222-air-canada-chatbot-misinformation-what-travellers-should-know
[5]Véase: https://www.cnnbrasil.com.br/internacional/prefeito-de-ny-defende-chatbot-que-aconselhou-empresarios-a-infringir-a-lei/?hidemenu=true
[6]Véase: https://evolvy.com.br/blog/caso-de-insucesso-na-implementacao-de-chatbot/
[7]Véase: https://www.euronews.com/next/2023/03/31/man-ends-his-life-after-an-ai-chatbot-encouraged-him-to-sacrifice-himself-to-stop-climate-
[8]Estas estrategias fueron recolectadas en publicaciones especializadas y revisadas / adaptadas por el autor.
[9]Véase publicación del CIAT “Gobierno de datos para las administraciones tributarias. Una guía práctica / 2024” disponible en: https://biblioteca.ciat.org/opac/book/5884
[10]Véase caso ocurrido en los Países Bajos –https://es.euronews.com/2021/01/13/el-escandalo-por-la-discriminacion-racial-en-las-ayudas-familiares-cerca-al-gobierno-de-ru
[11]Véase: https://www.sdggroup.com/es-es/insights/blog/las-nuevas-fronteras-de-la-ia-generativa-multimodalidad-y-sml
[12]Véase: https://www.elibrary.imf.org/downloadpdf/view/journals/005/2024/006/article-A000-en.pdf