Cientos de empresas, compañías y organizaciones están evolucionando para afrontar un futuro en el que la inteligencia artificial (IA) jugará un papel predominante. Y es que esta nueva tecnología ofrece un valor significativo al automatizar procesos y tareas, personalizar experiencias, innovar productos y servicios, y transformar los métodos tradicionales de toma de decisiones, entre muchas otras ventajas más.
Sin embargo, aunque la IA posee un gran potencial, la introducción de esta tecnología también presenta importantes desafíos en cuanto al cumplimiento normativo para las empresas. Por eso, los departamentos de compliance ya están trabajando en transformarse y asegurar este cumplimiento normativo en un contexto cada vez más tecnológico y dinámico. De hecho, el 45% de los compliance officers en España afirman que el uso de herramientas basadas en IA ya tiene impacto en su trabajo, según el último estudio realizado por EQS Group, empresa dedicada a las soluciones tecnológicas regulatorias.
La adaptación a estas nuevas tecnologías es esencial para mantener la integridad y la legalidad dentro de las operaciones empresariales. En este entorno en constante cambio, los equipos de compliance deben estar preparados para enfrentar desafíos inéditos y aprovechar las oportunidades que la IA ofrece para mejorar la eficiencia y la precisión en la gestión del cumplimiento normativo, ya que el mundo en el que vivimos se caracteriza por dos rasgos esenciales e indiscutibles: la era de la globalización y la era digital.
IA en el mundo empresarial
El 91% de los encuestados cree que los departamentos de cumplimiento tendrán que ocuparse de establecer orientaciones y políticas en las empresas en relación con el uso de la IA y asegurarse de que se tienen en cuenta los aspectos éticos. Las preocupaciones éticas relacionadas con los deepfakes y el posible mal uso de la tecnología son solo algunos de los desafíos que enfrentan las empresas al integrar la inteligencia artificial en sus operaciones. La protección de datos se rige como uno de los principales retos de la IA en el ámbito del compliance.
Por ejemplo, la normativa de protección de datos de la Unión Europea establece estrictas regulaciones sobre cómo las organizaciones deben procesar y almacenar información personal. Por lo tanto, la inteligencia artificial, al manejar grandes volúmenes de datos, puede infringir estas normativas si no se administra y supervisa adecuadamente.
María José Palazón, abogada penalista y profesora en EALDE Business School, destaca que “las nuevas tecnologías, que hoy se presentan como el paradigma de nuestra era, la solución a muchos de nuestros problemas y una herramienta valiosa para facilitar nuestro rabajo, también contienen elementos de la revolución digital que amenazan la seguridad de nuestras empresas y nuestros datos, especialmente cuando no comprendemos plenamente lo que implican”.
Además, los algoritmos de IA pueden ser perjudiciales sin querer. Si un algoritmo se entrena con datos antiguos que muestran malas prácticas, puede seguir repitiendo estos errores. Esto podría llevar a multas y dañar la reputación de la empresa, sus colaboradores y trayectoria.
Nuevos retos
Uno de los desafíos más urgentes es la gran inversión económica necesaria para implementar tecnologías avanzadas de IA. Mientras las empresas destinan importantes recursos para aprovechar al máximo estas innovaciones, deben encontrar un equilibrio entre la eficiencia económica y la responsabilidad ética. Así, una gran empresa puede incorporar la última tecnología en su departamento de compliance, mientras que las pymes enfrentarán más dificultades para hacerlo.
La falta de transparencia en los procesos de IA es otro tema crucial. A medida que las máquinas toman decisiones importantes, es esencial comprender cómo llegan a esas conclusiones para garantizar la confianza del público y la integridad en las operaciones empresariales.
Por lo tanto, las nuevas herramientas basadas en esta tecnología deben asegurar una anonimización adecuada para que la empresa no tenga conflictos con las regulaciones estatales, los clientes y/o los trabajadores. La confidencialidad y el uso adecuado de los datos son las principales preocupaciones en el sector.
De hecho, la razón principal por la que las empresas aún no utilizan herramientas basadas en IA en un contexto profesional es la duda sobre su protección y privacidad en el tratamiento de datos. Las empresas enfrentan el reto de proteger la privacidad de los datos de clientes y trabajadores mientras aprovechan el poder de la IA para mejorar sus servicios y productos.
Además, la IA no está libre de prejuicios. A pesar de su sofisticación, las máquinas pueden perpetuar sesgos presentes en los datos con los que se entrenan. Esto plantea preguntas importantes sobre la equidad y la justicia en las decisiones automatizadas.
Medidas a tomar en cuenta
La responsabilidad y rendición de cuentas de las empresas se vuelven aún más complejas con la IA. Cuando las decisiones son tomadas por algoritmos, surge la cuestión de quién es responsable en caso de errores o decisiones controvertidas: ¿la empresa que desarrolla el software o la que ofrece el servicio?
En primer lugar, es crucial definir claramente quién será el responsable de la implementación y supervisión de la IA dentro del sistema. Esto implica designar a una persona o equipo con la capacidad y el conocimiento necesarios para asegurar que la IA se utilice de manera ética, responsable y conforme a las leyes y regulaciones aplicables. Este responsable debe garantizar que los algoritmos y modelos de aprendizaje utilizados sean transparentes, imparciales y libres de sesgos o discriminaciones indebidas.
Un uso inadecuado de la IA en los sistemas de gestión de compliance puede tener graves consecuencias legales y reputacionales para el responsable, y más importante aún, para la organización, sociedad o empresa que la utilice. Si se descubre que se han utilizado mecanismos basados en IA de manera inapropiada, o que han llevado a decisiones incorrectas o injustas, el responsable podría enfrentar acciones legales y sanciones, como multas o incluso responsabilidad penal, por incumplir leyes y regulaciones específicas. Sin embargo, eso no significa que no haya ejemplos exitosos del uso de la IA en el ámbito del compliance.
Por ejemplo, las instituciones financieras utilizan algoritmos de machine learning para analizar grandes volúmenes de datos financieros y detectar transacciones sospechosas.
Otro claro ejemplo es el uso de la IA para detectar fraude y corrupción en contrataciones públicas. Además, la IA puede analizar y clasificar documentos y registros electrónicos en busca de posibles infracciones. En este último caso, una empresa puede utilizar la IA para identificar rápidamente documentos que contienen información confidencial y que están sujetos a regulaciones específicas.
En general, la aplicación de la IA en el compliance ha demostrado mejorar la eficiencia y efectividad en la detección y prevención de riesgos e infracciones. Pero, como se mencionó anteriormente, también existen limitaciones y desafíos que deben ser abordados para garantizar un uso ético y responsable de esta tecnología.
Consejos a seguir
La inteligencia artificial, el blockchain y el internet de las cosas (IoT), entre otras tecnologías, nos presentan desafíos que debemos superar de la mejor manera posible, especialmente para proteger los derechos de los ciudadanos. En este contexto, Rosa Borjas, profesora del área de Gestión de Riesgos en EALDE Business School, señala que “la protección de datos debe complementarse con la protección basada en registros de bloques de datos (tecnología blockchain), especialmente cuando estos registros ya están vulnerables debido al uso de algoritmos inteligentes.
Por lo tanto, es necesario armonizar estas tecnologías para mejorar la calidad y seguridad de los registros de datos personales”. Si nos preguntamos cómo pueden adaptarse las empresas a este nuevo entorno que combina ambas disciplinas, la respuesta debe comenzar con la observación y comprensión de la realidad actual. Rosa Borjas sostiene que “se deberá integrar el uso del big data (disponibilidad de gran cantidad de registros), el aprendizaje y modelado de estos registros mediante machine learning, complementado con la toma de decisiones asistida por algoritmos inteligentes”.
Las empresas deben actualizar y revisar sus políticas de cumplimiento normativo para enfrentar estos desafíos y mitigar riesgos, al mismo tiempo que se adaptan a nuevos usos que son indispensables. Es crucial realizar auditorías regulares de los algoritmos de IA para identificar y corregir cualquier sesgo. Además, la transparencia en los procesos de inteligencia artificial es fundamental; las empresas deben poder explicar cómo operan sus algoritmos y cómo se toman las decisiones basadas en IA.
Por otra parte, la formación continua en inteligencia artificial y ética de datos para los empleados responsables de gestionar estas tecnologías es esencial para cualquier organización. Esta capacitación garantiza que todos los niveles de la empresa comprendan plenamente las implicaciones legales y éticas de las herramientas que utilizan. En este contexto, las empresas deben ser diligentes para asegurar que operan dentro de los marcos legales y éticos establecidos. Esto no solo evitará sanciones o percepciones negativas que afecten su reputación, sino que también fortalecerá la confianza de sus clientes y partes interesadas en un mercado cada vez más competitivo.