Barcenilla: “La IA liberará a los auditores de las tareas más repetitivas”
 
 
10.12.2025. La directora Forensic Digital de KPMG, María Barcenilla, considera que la “inteligencia artificial (IA) liberará a los auditores de las tareas más repetitivas y manuales”. La experta en IA participó en la Jornada Auditoría 360, organizada por los auditores gallegos (ICJCE Galicia) en Santiago de Compostela. “Una competencia básica y clave es el pensamiento crítico, el escepticismo profesional”, señala la directiva de KPMG. “La IA no nos va a quitar el trabajo, nos va a ayudar. Me puedo apoyar en ella para trabajar de una forma más eficiente, pero el criterio humano es y será imprescindible”, asegura Barcenilla.
 
¿Cómo puede la IA hacer de la auditoría una profesión mejor?
Va a liberar a los auditores de las tareas más repetitivas y manuales. Permite automatizar tareas representativas repetitivas, como conciliaciones o pruebas sustantivas, y además reduce errores y tiempos en este tipo de tareas. También permite analizar grandes volúmenes de datos para detectar patrones o anomalías que manualmente serían difícilmente detectables. Todo esto hace que la auditoría sea un proceso más ágil, más preciso y más orientado a la prevención y libera al auditor y a otros profesionales de tiempo para poder aportar un valor más estratégico, de asesoría, más criterio profesional. De todas formas, es importante distinguir entre la IA que voy a llamar tradicional y la IA generativa, que es este boom de los últimos años, porque sus usos son diferentes.
 
 “Es importante distinguir entre la IA tradicional y la IA generativa”  
 
¿Cómo se diferencian ambos tipos de IA?
La IA tradicional, como el machine learning, etcétera, con la que llevamos trabajando años, es más analítica, más enfocada a datos y a detección de patrones y anomalías. Y luego está la generativa, más novedosa, que está enfocada en el lenguaje. Ayuda en la relación de informes o en el resumen de información. Puedes pedirle, por ejemplo, que detecte alguna discrepancia entre lo que consta en un lugar y en otro.
 
¿Qué nuevas competencias o perfiles profesionales serán necesarios para que los auditores puedan aprovechar al máximo las herramientas de inteligencia artificial?
Uno básico y que ya es clave, pero que lo será aún más el día mañana, es el pensamiento crítico, el escepticismo profesional. Hay muchas cosas que automatizamos, pero tenemos que ser capaces de validar que lo que nos da el sistema de Inteligencia Artificial es lo que realmente queremos, que es veraz, y garantizar también la ética en el uso de este tipo de sistemas. El pensamiento crítico sería una competencia a trabajar en nuevos perfiles. También estamos avanzando hacia perfiles híbridos, como auditores tecnológicos, especialistas en datos, expertos en riesgos digitales... Profesionales que combinan conocimientos contables y de negocio con ciertas habilidades tecnológicas.
 
¿Cómo se combaten los riesgos de filtración de datos e información confidencial?
En temas de ciberseguridad siempre se dice que el humano es el eslabón más débil, entonces primero hay que atacar ahí, y eso se hace con formación, con concienciación y con mucha comunicación. Igual que a nadie se le ocurre poner información confidencial en Wikipedia, tampoco deberíamos ponerla en ChatGPT. Hay algunas medidas más tecnológicas para combatir estos riesgos: el cifrado de datos, anonimizar la información, controles estrictos de acceso a los datos, que todos los datos estén en una nube privada para que podamos cacharrear un poco más... En definitiva, que no sean entornos abiertos donde todo el mundo pueda acceder. Y también establecer protocolos claros sobre qué información es confidencial y cuál es pública, que todos seamos conscientes de esa cultura de clasificar los datos.
 
 “Igual que a nadie se le ocurre poner información confidencial en Wikipedia, tampoco deberíamos ponerla en ChatGPT”  
 
Si una decisión o conclusión de auditoría se apoya en modelos de IA, ¿cómo se garantiza la trazabilidad y la responsabilidad profesional del auditor?
Toda decisión que tenga un mínimo de relevancia no debe apoyarse únicamente en la IA, sino que siempre debe haber lo que es un human on the loop, una persona que tome la decisión de decidir entre x, y o z. La responsabilidad siempre va a ser del auditor, otra cosa es que se apoye en la inteligencia artificial, igual que se apoya en el equipo para hacer tareas con ciertas estructuras. Un sistema de IA es como un recién licenciado que llega a la empresa y le das instrucciones bajo tu responsabilidad. La responsabilidad va a ser humana, porque es el humano quien debe tomar la última decisión. Es cierto que la trazabilidad es relevante cuando tomamos decisiones apoyadas en sistemas de IA. Tenemos que documentar ese proceso, por ejemplo, si hablamos de IA generativa, qué prompts hemos usado para extraer esa información, qué respuesta nos ha dado el sistema, y todo eso debe formar parte de los papeles de trabajo, que es una novedad, porque no solía ser así hace unos años.
 
En el ámbito del forensic digital, ¿qué papel está jugando la IA generativa o el análisis automatizado en la detección de fraudes y comportamientos anómalos?
La IA generativa nos ayuda a no partir de papeles en blanco, a decir ‘oye, necesito hacer X, dame ciertas ideas’. Vamos a hacer un brainstorming con estas herramientas, a conversar con ellas para establecer ciertas ideas, resumir o buscar información de forma mucho más ágil. Nosotros, que hacemos investigaciones de fraude, si tenemos disponibles volúmenes ingentes de información podemos decirle a la herramienta: ‘Estoy analizando un posible caso de fraude en el que se ha cometido un fraude carrusel de IVA. Estas son las personas relevantes. Dime cómo priorizo el análisis y qué documentos son los más relevantes para hacer mi investigación de una forma más eficiente’. Me apoyo en la tecnología para trabajar de forma más eficiente, pero el análisis de investigación lo sigo haciendo yo.
 
“Me apoyo en la tecnología para trabajar de forma más eficiente, pero el análisis de investigación lo sigo haciendo yo”
 
¿Hay opción a no invertir en IA en auditoría, por ejemplo, pensando en los pequeños y medianos despachos?
No sé si esa opción puede durar mucho porque implica menor competitividad, menor eficiencia y estar compitiendo con despachos y firmas que sí están utilizando este tipo de tecnologías. Existen soluciones escalables para ir poco a poco, software as a service, que no son una implantación tuya, sino una suscripción para utilizar directamente este tipo de tecnologías, empezar con un coste reducido e ir haciendo casos de uso, con conciliaciones bancarias o con informes. Cuando ya tienes un análisis más avanzado, siempre lo puedes subcontratar e ir probando. Pero es verdad que no adoptar este tipo de tecnologías a largo plazo o a medio plazo supondrá quedarse fuera del mercado, porque todos los competidores lo están adoptando.
 
 “No adoptar este tipo de tecnologías a largo plazo o medio plazo supondrá quedarse fuera del mercado”  
 
¿No hay futuro sin IA, pero tampoco sin humanos trabajando con IA?
Totalmente de acuerdo. La IA no nos va a quitar el trabajo, nos va a ayudar. Pongo muchas veces este ejemplo: igual que Excel ayuda a hacer un montón de cosas que antiguamente tendríamos que hacer con una calculadora, un papel y un lápiz, a día de hoy ese Excel (muy, muy mejorado) para mí es la IA. Me puedo apoyar en ella para trabajar de una forma más eficiente, pero el criterio humano es y será imprescindible.

Venezuela, 24, entlo. 36203 - Vigo | Teléfono: 986 41 48 79 // 648 86 71 30 | galicia@icjce.es
Copyright © 2014 ICJCE - Instituto de Censores Jurados de Cuentas de España. Todos los derechos reservados
Ayúdanos a mejorar | Política de privacidad | Canal ético | Aviso legal

© Gestor de contenidos
HagaClic
Scroll to top