Skip to main content
"El Turco", autómata de Wolfang von Kempelen (1769) que ganó una partida de ajedrez a Napoleón

TÚ, ROBOT. Inteligencia Artificial y Derecho Tributario

Me preguntaste una vez que qué hay en la habitación 101.
Te dije que ya sabías la respuesta.
Todo el mundo lo sabe.
Lo que hay en la habitación 101 es la peor cosa en el mundo.

1984. George Orwell

En su sentencia del pasado 11 de julio, el Tribunal Supremo dio la razón a la AEDAF estimando el recurso de casación relativo a la impugnación de la Orden HAC/277/2019, de 4 de marzo, respecto a la obligación de los contribuyentes de relacionarse electrónicamente con la Administración tributaria.

La imposición a los obligados tributarios de relacionarse electrónicamente con la Administración, recogida en la referida orden, no es ajustada a Derecho, se dice, pues se establece de manera general para todos los obligados tributarios, sin determinar los supuestos y condiciones precisas para imponer tal obligación.

La impugnación de la orden y el recurso de casación fue dirigido por nuestro compañero de la AEDAF, Esaú Alarcón, a quien felicitan estas páginas, y le aseguran un futuro prometedor, pues la implementación de la inteligencia artificial multiplicará por cientos este tipo de recursos.

Creo recordar que el concepto de “actuación administrativa automatizada” fue introducido por la Ley 11/2007, de 22 de junio de “acceso electrónico de los ciudadanos a los servicios públicos”. Con semejante título, y en 2007, poca atención nos mereció el referido concepto de “actuación administrativa automatizada”, más allá de la lógica inquietud que transmite. Al igual que el artículo 96 de la Ley General Tributaria, pocos, entonces, podíamos suponer que la “utilización de tecnologías informáticas y telemáticas” fuera más allá de las notificaciones tributarias, de regular la firma electrónica en los actos administrativos o de la generalización de los expedientes electrónicos. Pues no. Esto va muy en serio y se refiere incluso a dictar actos administrativos con Inteligencia Artificial (IA).Ya hace un par de años fue noticia que la Agencia Tributaria se servía de algoritmos para cargar contribuyentes en sus planes de inspección, lo que me parece una idea estupenda que debe redundar en incrementar su tasa de acierto en la selección de actividades y contribuyentes de especial riesgo.

Pero lo que no imaginábamos es que los actos administrativos de Gestión Tributaria pudieran ser dictados por máquinas, y ese es el futuro inmediato al que nos abocan unas facultades legales que, ingenuamente, pensábamos que eran para sustituir a las notificaciones de los carteros por modernos buzones electrónicos, pero no sospechábamos que serían usadas para liquidar impuestos.

La IA es la replicación de la inteligencia humana por máquinas computacionales, mediante el uso de algoritmos y bases de datos, de tal manera que la máquina aprende y se entrena con los datos suministrados (Machine Learning). En la actualidad, el concepto de Machine Learnig está siendo sustituido por el de Deep Learning, donde sistemas computacionales gigantes desarrollan redes neuronales profundas y crean nuevos algoritmos, llegando a lo que se conoce como motores de conocimiento ‘Black Box’, donde los humanos carecen del poder de interpretabilidad de los algoritmos creados por la máquina. Se trata de algoritmos inteligentes, que evoluciona en sus decisiones mediante procesos que los ingenieros de sistemas no son capaces de explicar; de ahí el término de ‘Black Box’, porque su contenido no es descifrable por sus creadores.

El hecho de que las decisiones en el interior de la Black Box no sean interpretables constituye un obstáculo al deber de motivar los actos administrativos. Si ya la doctrina considera discutible que la IA pueda dictar actos administrativos discrecionales, ¿que será de aquellos donde las facultades discrecionales dejan paso a potestades regladas sometidas al estricto principio de legalidad, como en el derecho tributario?

La doctrina disponible sobre la IA el Deep Learning y su aplicación en el derecho administrativo, es, si bien escasa, también unánime al negar la legalidad de las tecnologías Black Box para su utilización el ámbito del derecho administrativo sancionar o cuando se desplieguen potestades inquisitivas y limitativas de derechos individuales.

En Italia el Consejo de Estado ha dictado varias sentencias sobre la exigencia de motivación en los actos administrativos basados en algoritmos, por todas, la 8472 de 13 de diciembre de 2019, exige “el pleno conocimiento del módulo utilizado y de los criterios aplicados”, así como que “este conocimiento del algoritmo debe garantizarse en todos los aspectos: desde sus autores hasta el procedimiento utilizado para su elaboración, el mecanismo de decisión, las prioridades asignadas en el procedimiento de evaluación y toma de decisiones y los datos seleccionados como relevantes (…) a fin de poder verificar que los criterios, condiciones y resultados del procedimiento robótico cumplen con las prescripciones y las finalidades establecidas por la ley o por la propia administración sobre dicho procedimiento y para que queden claras —y, por lo tanto, sean cuestionables— las modalidades y reglas a partir de las que se haya programado”.

La Sentencia del TJUE de 21 de junio de 2022, asunto C-817/19, a propósito de una cuestión prejudicial del Tribunal Constitucional Belga en el recurso de la Ligue des droits humains contra el tratamiento automatizado de los datos y nombres de los pasajeros de las líneas aéreas dentro de la UE. “En particular, las autoridades competentes deben asegurarse de que el interesado, al que no necesariamente se permite, en el procedimiento administrativo, tomar conocimiento de los criterios de evaluación predeterminados y de los programas que aplican tales criterios, pueda comprender el funcionamiento de esos criterios y de esos programas, de forma que pueda decidir, con pleno conocimiento de causa, si ejerce o no su derecho a un recurso judicial, garantizado en el artículo 13, apartado 1, de la Directiva PNR, con objeto de cuestionar, en su caso, el carácter ilícito y, en particular, discriminatorio de los mencionados criterios.”

Aún cuando es Soft Law, La Carta de Derechos Digitales de la Unión Europea reconoce el derecho de la ciudadanía en sus relaciones con las Administraciones públicas a “c) Obtener una motivación comprensible en lenguaje natural de las decisiones que se adopten en el entorno digital, con justificación de las normas jurídicas relevantes, tecnología empleada, así como de los criterios de aplicación de las mismas al caso”, y “d) Que la adopción de decisiones discrecionales quede reservada a personas, salvo que normativamente se prevea la adopción de decisiones automatizadas con garantías adecuadas”.

Otro tanto sucede, con el sesgo de las decisiones administrativas acordadas con el uso de algoritmos. El sesgo es discriminatorio por definición y vulnera el principio de igualdad consagrado en el art. 14 de la CE. En la primavera de 2021 el gobierno de los Países Bajos dimitió en bloque y convocó elecciones generales para el 17 de marzo. 26 mil familias de inmigrantes fueron injustamente acusadas de fraude fiscal por no declarar ayudas a los hijos. Muchas fueron abocadas a la ruina financiera por tener que devolver esas ayudas en escasas semanas. Ahora sabemos que las 26.000 cartas fueron redactadas y enviadas por algoritmos Black Box. En EEUU un programa desarrollado por sus instituciones penitenciarias para predecir la potencial reincidencia penal de una persona, dio falsos positivos y discriminó y penalizó a los negros. De manera que la falta de explicabilidad y el sesgo de las decisiones tomadas por Cajas Negras está íntimamente relacionado con la replicación de los algoritmos: la máquina magnifica el sesgo de sus creadores. Y lo hace por dos vías: por el posible sesgo intelectual de los creadores del algoritmo y, sobre todo, por el posible sesgo en el suministro de los datos, el big data para la Black Box.

Falta de motivación y sesgo son incompatibles con el derecho tributario, que ha de ser refractario a la IA, incluso fuera de la utilización de sistemas de supercomputación capaces de manejar redes neuronales profundas. Todos los algoritmos, incluso los más básicos, como el correo no deseado de nuestras aplicaciones de correo electrónico, utilizan la analogía, entendida como la relación lógica de semejanza entre cosas distintas, para rechazar correos sospechosos. A cualquier buen tributarista debieran ponérsele los pelos de punta ante la posibilidad de dictar actos de liquidación con fundamento en la analogía.

Por eso me parece tan importante el recurso dirigido por Esaú. Porque no resulta discutible que existe una tensión creciente entre la protección de los derechos subjetivos y la actuación administrativa automatizada. Nos enfrentamos a una lluvia fina que viene de lejos y que moja poco a poco, y de manera imperceptible nos sume en el paradigma orwelliano del Gran Hermano. Y porque si no se recurre esta lluvia fina, si la sociedad civil permanece impávida, entonces el problema no serán las máquinas que liquidan los impuestos: El problema será, mañana, que los robots ejercerán la potestad jurisdiccional que la Constitución reserva a los jueces.

Un día son los bancos que obligan a nuestros abuelos del pueblo a disponer de sus ahorros con aplicaciones de banca electrónica. Otro día es la Agencia Tributaria que les obliga a presentar sus rentas mediante ordenador. Y luego vendrán, no lo duden, actos de gestión tributaria dictados sin intervención humana.

En su novela distópica ‘1984’, George Orwell sólo se precipitó con la fecha. En todo lo demás creo que acertó.

Antón Beiras Cal

Economista. Auditor. Abogado Tributarista

linkedin 40px twitter 40px

#𝔗𝔞𝔵𝔩𝔞𝔫𝔡𝔦𝔞