Skip to main content

¿Debe informar la Administración tributaria acerca de la utilización de IA en sus actividades de control del fraude? (a propósito de la Sentencia Elsbury)

A nadie se le escapa que el uso de la inteligencia artificial (en adelante, IA) es una obligación para las Administraciones tributaria de todos los países desarrollados. No solo por la conveniencia de utilizar el potencial que ofrece la IA para obtener ganancias en eficiencia en la lucha contra el fraude, sino por la necesidad de colocarse, como mínimo, al mismo nivel que los operadores privados, que están haciendo ya un uso intensivo de dicho tipo de herramientas. Su utilización no sólo debe centrarse en la actividad de control tributario, sino también en las labores de información y asistencia. Un buen ejemplo de ello son los asistentes virtuales elaborados por la Agencia Tributaria y, en particular, el del Impuesto sobre el Valor Añadido. Para 2025, el Plan de Control Tributario (en adelante, PCT) ha anunciado la creación de un modelo, basado en la IA, que permitirá prever la demanda de cada uno de los servicios de asistencia por parte de los ciudadanos, al objeto de acomodar mejor la oferta de citas previas.

En el ámbito del control del fraude, nuestro país no es una excepción, como lo demuestra el PCT de 2025, donde puede leerse lo siguiente:

“La primera de las novedades que se destaca en las directrices generales de 2025 está relacionada con el inicio del estudio de distintos proyectos para utilizar la inteligencia artificial (en adelante, IA), en los diferentes ámbitos de actuación de la Agencia Tributaria, para conseguir una mayor eficiencia de sus actuaciones, sin permitir en ningún caso que la IA sea la última instancia de toma de decisiones ya que, en todo caso, cualquier actuación va a estar sujeta a supervisión humana.

En este sentido, todas las nuevas propuestas de proyectos de uso de IA se canalizarán por los diferentes Departamentos y Servicios de la Agencia Tributaria hacia un grupo de trabajo que coordinará las peticiones de desarrollo de nuevas propuestas, garantizando que cumplen con los criterios y prioridades establecidos en el Plan Estratégico de la Agencia Tributaria aprobado para el periodo 2024-2027”.

Partiendo de dicha constatación, también se entiende la alarma provocada por los posibles riesgos que implica la utilización masiva de este tipo de tecnologías. Buena prueba de ello es el interés que dicha cuestión ha suscitado en el mundo académico, donde proliferan trabajos y proyectos de investigación relativos al uso de la IA por parte de las Administraciones tributarias.

La realidad, sin embargo, no es tan prolífica en cuanto a resultados, ya que son escasos los pronunciamientos administrativos o judiciales sobre la materia. Dado el carácter incipiente de utilización de la IA, parece que son escasos los litigios que tienen como base el empleo de este tipo de instrumentos. De hecho, no existe, que sepamos, ningún pronunciamiento en relación con un caso español. Es muy conocida, eso sí, la Sentencia del Tribunal del Distrito de La Haya de 5 de febrero de 2020, que considera que la legislación neerlandesa reguladora de la herramienta denominada SyRI –SUWI Act- es contraria al art. 8 del Convenio Europeo de los Derechos Humanos (derecho a la vida privada y familiar). La cuestión dio lugar a un notable escándalo en Países Bajos, que finalizó con la dimisión del Gobierno. Y ello ya que dicha herramienta incorporaba un sesgo en la selección de los contribuyentes a investigar, derivado de su origen extranjero, lo que condujo a la supresión de un beneficio fiscal a muchos contribuyentes basándose en un mero prejuicio. Dicho sesgo fue introducido por los programadores, a su vez, como consecuencia de un fraude masivo previo, cometido por ciudadanos de origen búlgaro.

En tales condiciones, parece lógico que la Sentencia citada anulara la norma reguladora de una herramienta de IA que había provocado resultados tan nocivos. Debe destacarse, sin embargo, que el citado sesgo no vino provocado por la utilización de SyRI, sino que fue el fruto de un prejuicio presente en los humanos que lo programaron. Es cierto, no obstante, que el empleo de este tipo de herramientas agrava el problema, dada su mayor eficacia.

En todo caso, a mi juicio, lo más interesante de esta resolución judicial es la exigencia de transparencia en el uso de la IA, como garantía de respeto al art. 8 del Convenio. El Tribunal considera que se incumple dicho principio porque la SUWI Act no explicita ninguno de los elementos de hecho que se tienen en cuenta para configurar un perfil de alto riesgo. Tanto es así, que el propio Tribunal sólo conoce algunos ejemplos suministrados por la Administración durante el litigio, como el relativo a personas formalmente domiciliadas en diferentes direcciones pero que, de hecho, viven en el mismo domicilio.

Pues bien, la exigencia de transparencia se erige como la única garantía de la que disponemos los ciudadanos para controlar que el uso de la IA no genera discriminaciones como las registradas en el caso concreto. Así, los demandantes, durante el litigio, pusieron de manifiesto la sospecha de que la ausencia de transparencia permitía que SyRI tuviera un efecto discriminatorio. De hecho, la investigación parlamentaria posteriormente realizada reveló que SyRI dio lugar a realizar mayores investigaciones en barrios conflictivos, lo que provocó descubrir mayores irregularidades en aquéllos, retroalimentando sesgadamente el proceso.

En relación con este aspecto esencial de la transparencia se ha producido un segundo pronunciamiento de interés, cuyas conclusiones pueden utilizarse en el caso español y que es el que motiva la presente entrada. Nos referimos a la Sentencia del Tribunal de Primera Instancia británico, de 2 de agosto de 2025, [2025] UKFTT 915 (GRC), recaída en el asunto Elsbury v The Information Commissioner (en adelante, Sentencia Elsbury).

En la Sentencia Elsbury se plantea la procedencia de una solicitud de información realizada a la Administración tributaria británica, equiparable a las de nuestra legislación de transparencia, relativa al uso de la IA en la comprobación de los incentivos fiscales a la I+D+i. En concreto, los contribuyentes solicitaron al HMRC información sobre el uso de modelos extensos de lenguaje y herramientas de IA por parte de la unidad encargada del control de tales incentivos. Para el caso de respuesta afirmativa al uso de tales instrumentos, se incluía una batería adicional de solicitudes de información, las más importantes, relativas a la seguridad de los datos. El contribuyente alegaba que algunas de las respuestas recibidas de la Administración tributaria permitían sospechar, no sólo acerca del uso de herramientas de IA generativa, sino, además, que su entrenamiento se estaba produciendo con datos sensibles de las empresas, relativos a sus actividades de I+D+i. Por ello, se interesaba por la seguridad de dichos datos, ya que es posible que se estuvieran cediendo a empresas privadas con las que se subcontrata el entrenamiento de tales instrumentos. Estas sospechas habían determinado, según el solicitante, que las empresas redujeran los incentivos aplicados, con un resultado contrario a los objetivos de política económica diseñados por el Gobierno.

Pues bien, ante esta situación, la Administración tributaria británica se negó a ofrecer la información requerida, decisión avalada por el Commissioner. El fundamento invocado es una excepción en la normativa británica de transparencia que permite no ofrecer la información cuando ello pudiera perjudicar a la recaudación de impuestos. En este sentido, la Administración entendía que el hecho de que los contribuyentes no supieran si se estaban utilizando herramientas de IA constituía, por sí mismo, un instrumento de lucha contra el fraude, ya que incrementaba la incertidumbre de los defraudaores.

Dicha posición es rechazada por la Sentencia Elsbury, que realiza una ponderación de los intereses en juego favorable a la transparencia. Para llegar a dicha conclusión tiene en cuenta el hecho cierto de una reducción del número de deducciones aplicadas, lo que implica que, como consecuencia de una decisión administrativa, se frustra una política diseñada y querida por el Gobierno. También toma en consideración, en esta misma línea, que la negativa del HMRC a confirmar si usaba o no herramientas de IA en esta labor de control no hace otra cosa que incrementar la desconfianza de las empresas acerca de un posible uso indebido de sus datos. Finalmente, también afirma que la Administración tributaria británica estaba atribuyendo una relevancia exagerada a la ausencia de información en la lucha contra el fraude, sin aportar ninguna evidencia.

Como consecuencia de todo ello, la Sentencia Elsbury anula la decisión administrativa, obligando a proporcionar la información solicitada por los contribuyentes. Así las cosas, debemos preguntarnos qué sucedería en el caso español ante un supuesto similar, teniendo en cuenta que, como ya dijimos, la Agencia Tributaria se dispone a desarrollar modelos de IA centrados en el control tributario.

En la Estrategia de Inteligencia Artificial de la Agencia Tributaria puede leerse, sobre la transparencia, lo siguiente:

“La Agencia Tributaria manifiesta su voluntad de aplicar principios de transparencia en el uso de la IA con las limitaciones que puedan derivarse de la viabilidad técnica para hacerlo, o del carácter reservado de ciertos datos y actuaciones de conformidad con lo previsto en el artículo 95 de la Ley General Tributaria y normas de desarrollo. En esta línea, cuando la Agencia Tributaria haga uso de sistemas de IA para interactuar directamente con empresas y ciudadanos, y conforme a lo que señalen las normas de aplicación vigentes, se informará expresamente de tal circunstancia, salvo que la situación resulte evidente”.

Se trata de una declaración de principios a favor de la transparencia en el uso de la IA, pero que, en su plasmación concreta, tiene un alcance muy limitado y con un amplio abanico de excepciones, como es el que se deriva de la “viabilidad técnica”. La Agencia Tributaria únicamente se compromete a informar acerca del uso de sistemas de IA cuando se empleen para interactuar directamente con los contribuyentes, pero no hará lo mismo en los casos en que aquéllos se utilicen en las tareas previas de selección de sujetos y operaciones investigadas. Y es en este ámbito, como sabemos, donde el empleo de la IA puede dar lugar a la introducción de sesgos discriminatorios que deberían ser objeto de control, incluyendo el de los órganos de revisión administrativos y judiciales.

En realidad, se trata de un problema muy antiguo, que no es otro que el de la tensión entre la eficacia de la lucha contra el fraude, que aconseja no proporcionar mucha información, y la tutela de los derechos de los contribuyentes, que impone la necesidad de controlar una posible arbitrariedad en la selección de los sujetos inspeccionados. En la actualidad, la solución a dicha contraposición de intereses se ha plasmado en la publicación de las directrices generales del control en los planes anuales, que ofrecen una información genérica, donde se identifican las principales áreas de actuación, pero sin el suficiente detalle como para comprometer la eficacia de la lucha contra el fraude. Como mínimo, entendemos que los planes anuales deben proporcionar información de las actuaciones en las que se están empleando estas herramientas de IA y de tratamiento masivo de datos. Su identificación expresa por parte de la Administración tributaria permitirá reforzar los controles sobre dichas actuaciones, pudiendo identificar resultados aparentemente discriminatorios o carentes de una justificación razonable.

Pero, adicionalmente, se hace necesario un esfuerzo decidido de la Agencia Española de Supervisión de la Inteligencia Artificial a fin de definir cuál deba ser el estándar de transparencia en el uso de la IA por parte de la Administración tributaria, así como de diseñar los controles necesarios para la eliminación de sesgos que puedan provocar resultados discriminatorios. A mi juicio, la intervención de una agencia pública como la descrita, permitirá incrementar la seguridad y confianza de los contribuyentes, sin comprometer la eficacia del funcionamiento de la Administración tributaria. Ambos objetivos -derechos de los contribuyentes vs. lucha contra el fraude- pueden y deben alcanzarse conjuntamente, también en la era de la IA.

Jesús Rodríguez Márquez

Abogado y Profesor de Derecho Financiero y Tributario

linkedin 40px twitter 40px