Hace poco conocí el caso de Harber vs HMRC, un episodio que, aunque no es ampliamente conocido ni documentado, me pareció profundamente revelador. La historia gira en torno a una contribuyente británica que olvidó declarar la venta de un inmueble, lo que naturalmente le generó una sanción por omisión del impuesto sobre las ganancias de capital. Hasta aquí, todo suena a un caso más de incumplimiento tributario. Sin embargo, lo interesante —y preocupante— es lo que vino después.
En su intento de impugnar la sanción, su equipo legal presentó nueve decisiones judiciales como precedentes para respaldar su defensa. El problema: esos precedentes no existían. Eran completamente inventados, generados por un sistema de inteligencia artificial. Y lo más inquietante es que la contribuyente no tenía idea de que esos documentos eran falsos. Según el tribunal, carecía de los conocimientos para distinguir entre fuentes jurídicas reales y contenido generado artificialmente.
Más allá de la anécdota, este caso me dejó pensando en las implicaciones que tiene para el diseño de la política pública tributaria en estos tiempos de automatización y tecnología desbordada. ¿Estamos realmente considerando a todos los actores cuando hablamos de transformación digital en la administración tributaria?
Las autoridades fiscales en muchos países —incluido el nuestro— han hecho grandes avances en digitalización. Plataformas electrónicas, declaraciones automáticas, inteligencia artificial para detectar inconsistencias… todo eso ha mejorado la recaudación y la eficiencia del sistema. Pero ¿qué pasa cuando los contribuyentes no tienen el mismo acceso o entendimiento de estas herramientas? ¿Cómo protegemos a quienes están en desventaja?
Este caso expone una gran brecha: no todos los contribuyentes tienen los conocimientos técnicos, legales o digitales necesarios para navegar por un sistema tributario cada vez más automatizado. La política pública tiene que tomar en cuenta esa desigualdad. No podemos exigir el mismo grado de diligencia a una gran empresa con asesores expertos que a una persona que apenas entiende el lenguaje tributario y confía ciegamente en quien la asesora.
También me preocupa el impacto que esto tiene en la confianza hacia la administración tributaria. Si un ciudadano es sancionado por un error que no entendió, y además no puede defenderse adecuadamente porque las herramientas que usó lo engañaron, es muy difícil que siga viendo al sistema fiscal como algo justo. Y cuando se pierde esa confianza, todo el esfuerzo por mejorar la recaudación y reducir la evasión se ve comprometido.
Otro tema clave es la regulación del uso de IA en contextos legales y fiscales. Cada vez más personas —y profesionales— están usando herramientas que generan textos, argumentos o referencias jurídicas. Pero no todo lo que brilla es oro. La información generada por IA puede parecer muy convincente, pero si no se verifica, puede llevar a consecuencias graves. Las políticas públicas deben establecer reglas claras sobre cómo y cuándo se puede usar esta tecnología, y quién es responsable cuando algo sale mal.
Lo que más me deja este caso es la sensación de que necesitamos repensar el enfoque con el que diseñamos nuestra política tributaria. Más allá de ser un conjunto de normas técnicas, debería ser una herramienta de equidad y confianza. Y eso implica atender las brechas, acompañar a los contribuyentes y generar mecanismos más humanos para evaluar los errores y sanciones.
La OCDE ya ha advertido sobre esto en sus informes más recientes: la inteligencia artificial no solo plantea desafíos técnicos, sino también éticos, especialmente en la gestión pública. Y si no actuamos pronto, podríamos estar construyendo un sistema tributario que, sin querer, castigue a quienes menos preparados están para enfrentarlo.
En resumen, el caso Harber no es un simple error jurídico. Es un recordatorio urgente de que la política tributaria debe avanzar al ritmo de la tecnología, sí, pero sin dejar atrás a quienes más la necesitan.
El autor es Country Managing Partner – EY
