Seguinos en

Revista Alumni

Conferencia Anual de Compliance 2023: Ética e inteligencia artificial

Pese a que los algoritmos permitieron la automatización de procesos, la privacidad y la moral están en juego. Especialistas en derecho e informática debatieron al respecto en la Conferencia Anual de Compliance.
Publicado martes 12 de septiembre de 2023

La segunda jornada de la Conferencia Anual de Compliance empezó con una introducción a cargo de Raúl Saccani, director del Centro de Gobernabilidad y Transparencia de la IAE Business School, que hizo un repaso por los puntos más importantes del día anterior y destacó el rol de la IA en la toma de decisiones en una empresa y la evaluación de los riesgos que se debe poner en práctica a la hora de enfrentarse a determinados dilemas corporativos.

El primer panel de esta jornada se denominó “Algoritmos y responsabilidad” y Filippo De Sio, profesor asociado de Ética y Filosofía de Tecnología de la Delft University Technology de Países Bajos se hizo cargo de esta disertación. “¿Por qué un filósofo de Tecnología?”, se preguntó sobre el rol de la IA y los algoritmos en la comunidad empresarial. “No se trata de una cuestión solamente técnica, sino que también requiere de reflexión para pensar en cómo debe cambiar y qué rol le queremos dar a la tecnología en nuestra vida”, explicó.

“Lo importante es darse cuenta que no sólo tenemos que ser críticos sobre la forma en la que estamos vinculados con la tecnología, sino también su diseño. Parece que primero se crea y luego intentamos entenderla. Pasó con ChatGPT, es necesario un punto de vista crítico”, sintetizó.

En el panel de “Machine Learning y Algoritmos como aliados para prevenir fraudes y corrupción”, Andrés Sarcuno, socio de Deloitte S-Latam a cargo de la práctica forense del Cono Sur, compartió una serie de pasos para resolver la gestión de datos:

  • Clasificar: qué transacción es sospechosa. Alguien tiene que clarar si es o no sospechosa. Sin un humano, no habría datos para enseñarle al algoritmo de Matchine Learning. Con los datos aclarados por un humano, la IA puede detectar transacciones excepcionales o muy distintas al resto.
  • Agrupar: por características o denominadores en común.
  • Procesar (no interpretar, porque el humano interpreta).

Andrea Castaldo, profesor de derecho penal en Universidad de Salerno, protagonizó el panel sobre “Derecho penal corporativo, Compliance y nuevas tecnologías”.

En su exposición, Castaldo dijo que la IA “no es una amenaza ni un peligro”. Por lo contrario, expresó: “Es una gran oportunidad que tenemos que descifrar. No tenemos que tener miedo. Tiene que vivir en nuestro ámbito cotidiano. Siempre que hay algo nuevo surge el miedo o la desconfianza”.

El docente de derecho penal también puso el foco en los límites de la IA. “Si le preguntás a ChatGPT si es un peligro para los seres humanos, responde ‘sí, puede ser’. Pero su homólogo chino no contesta. Porque tiene límites generados al momento de su creación. Esto es la responsabilidad. Creo que hay un filtro ético, porque ChatGPT y otras herramientas han sido educadas para responder en determinadas direcciones”.

El siguiente panel fue encabezado por la abogada jefa de la Unidad Especializada en Ciberdelitos de CABA, Daniela Dupuy. Con el foco en “El crimen corporativo y las nuevas tecnologías”, la profesora de derecho de Universidad Austral explicó: “Antes se veía cada tanto un fraude informático y, en ciudades como Buenos Aires, hoy nos encontramos frente a organizaciones trasnacionales y es uno de los desafíos más importantes que tenemos”.

“Cuando empezamos a investigar, detectamos que el autor de determinado delito está en Italia o España. Puede haber muchos autores, diseminados en distintos países. Y víctimas que se encuentran ubicados en diferentes ciudades”, advirtió.

Dupuy explicó la necesidad de que el sector público y privado se mantengan en constante contacto. “La información de bancos, TikTok u otras plataformas se encuentran en otra jurisdicción como Estados Unidos y por eso tenemos que tener una relación directa con el sector privado”, concluyó.

Cerca del final, el docente de la IESE Business School y Especialista en Ética de Negocios, Antonio Vaccaro, se explayó sobre el vínculo entre inteligencia artificial y compliance, en el panel que se tituló “Toma de decisiones e inteligencia artificial”.

Las nuevas tendencias aumentan la centralidad del compliance. La implicación ética en la IA es tanta, que no vamos a olvidarlo”, dijo y expuso una serie de preguntas:

  1. Hasta qué punto una máquina puede funcionar sin la intervención de una persona. Hay algunas que los hacen, cada vez que hemos instrumentado esta área, descubrimos problemas inesperados. Cómo vamos a identificar el área que identifica a una máquina de IA y con qué criterios. Cuáles son los coeficientes de seguridad en un área donde las máquinas tomas decisiones solas.
  2. Hasta qué punto los factores de ineficiencia influyen en los errores y riesgos. Muchas veces la IA es estúpida. Muchas veces te permite hacer un análisis microscópico de un problema, pero tal vez no me permite ver el problema en su totalidad.
  3. ¿De quién es la responsabilidad del sistema de IA, de la empresa? ¿Del creador de la IA? ¿O del consumidor?
  4. ¿Podemos esperar que el consumidor tenga el conocimiento suficiente para utilizar el producto? ¿Tiene la conciencia de que, si sube una imagen, puede ser utilizada (para geolocalización, por ejemplo)?

El último panel contó con la presencia de Claudia Maskin, directora de Compliance de BioMerieux para Latinoamérica; Federico Maeso, director de Compliance para Latinoamérica en Jansen Farmaceutical Companies de Johnson and Johnson; y Mariano Gojman Stamon, Líder Oficial de Compliance de Sudamérica en Siemens.

En esta exposición, llamada “Sumergiéndonos en la cultura de la ética y el Compliance en América Latina”, Maskin aseguró que la posición del Compliance Officer “es una posición transversal en las organizaciones”.

“Interactuamos con todos los sectores. No somos estructuras muy grandes, pero sí tenemos acceso al top management. Tenemos que ser personas que influencien y pedagógicos para ir adoptando y promoviendo los valores necesarios para la negociación”, consideró.

Maeso coincidió, y agregó: “Como Compliance Officer hay que aplicar estilos de liderazgo para audiencias o empresas diferentes, pero el mensaje debe ser el mismo. Me gustan las organizaciones avanzadas en compliance, que no tienen un área tercerizada, sino que está en todos lados. Quiero que el líder se interese por el compliance y el resto vea que se involucra”.

Gojman Stamon advirtió que “más que Compliance Officer, hay que ser abogado, contador y psicólogo”. Al respecto, profundizó: “Somos un área que debe generar confianza y eso se hace estando cerca de la gente, escuchándola, viendo qué es lo que le pasa y qué necesita”.