Revista Alumni

Javier Zamora: «La IA va a ser como la nueva electricidad»

Publicado viernes 23 de agosto de 2019

El profesor titular de Sistemas de Información de IESE Business School, dio una charla iluminadora para Alumni Senior sobre inteligencia artificial: sus orígenes, desafíos éticos y aplicación a los negocios.

HAL es la supercomputadora que se rebela contra los astronautas en la película Odisea del espacio, y representa todo lo que la inteligencia artificial (IA) no es. “Hollywood le hizo mucho daño a la IA”, afirmó Javier Zamora, profesor titular del departamento de Sistemas de Información de IESE Business School.

Estuvo de visita en el IAE y brindó una charla para Alumni Senior sobre una tecnología desconocida para muchos y que no podemos seguir ignorando. “Debemos entenderla porque va a ser parte del rediseño de los negocios”, enfatizó el profesor.

Lejos de transmitir conceptos técnicos, el experto español ayudó a comprender el impacto de la IA en el mundo, que podría asemejarse al que tuvo la electricidad. “Es una tecnología de propósito general, es decir, tiene la capacidad de cambiar radicalmente la industria. Permite hacer cosas que antes no eran posibles”, resaltó.

¿Y qué es IA, si no es lo que vemos en las películas?

Zamora ofreció una definición general: “el arte o la ingeniería de hacer máquinas inteligentes”, capaces de “crear productos y resolver problemas”. Describió sus orígenes y la importante Conferencia de Dartmouth en el verano de 1956, que reunió a todos los que en ese momento trabajaban en IA. En la reunión se acuñó la expresión “inteligencia artificial” y se predijo que en 25 años las computadoras harían todo el trabajo de los seres humanos. Fueron demasiado optimistas, según el profesor. “Es imposible predecir la IA”, afirmó en una entrevista de 2017 el cofundador de Google, Sergey Brin.

Un hito que revolucionó la historia de esta tecnología fue el aprendizaje automático (machine learning): se descubrió que las máquinas podían aprender de las experiencias cosas para las cuales no hubieran sido programadas.

Entre los algoritmos de machine learning más utilizados y populares en este momento se destacan las redes neuronales artificiales. El llamado “deep machine learning” permitió que las computadoras pasaran de solamente hacer dos tareas (clasificar y predecir) a resolver problemas más complejos como el reconocimiento de audio y de imágenes.

“En 2015, por primera vez, los algoritmos lograron tasas de error más bajas que los humanos en clasificación de imágenes”, resaltó Zamora. Mencionó a Amazon Rekognition, una herramienta que analiza en detalle cualquier foto que le cargues.

La IA hoy cuenta con varias ventajas para crecer exponencialmente: el avance tecnológico computacional, el Big Data (generamos datos continuamente que son la materia prima para entrenar a las máquinas), la mejora de los algoritmos y el hecho de que muchas de estas herramientas sean de acceso público, enumeró el profesor.

El debate de la singularidad

Es la pregunta del millón: ¿podrá una máquina alcanzar la “singularidad”, es decir, superar la inteligencia humana? Zamora contó que es motivo de debate. “Hay que ser conscientes de que la inteligencia tiene muchas dimensiones: el aprendizaje, la percepción, el razonamiento y la abstracción. Pero solo puedes entrenar a la máquina en una. Si quieres que haga otra cosa, debes empezar de cero. Hasta no tener equilibradas esas cuatro dimensiones, no alcanzaremos la singularidad. ¿Se alcanzará? No lo sé. Tiene que haber descubrimientos que por ahora no se han dado”, resumió.

Añadió que el principal problema no es la singularidad, sino que las personas están usando algoritmos para tomar decisiones. “El gran riesgo de la inteligencia artificial son las máquinas demasiado estúpidas”, escribió Pedro Domingos, autor del libro El algoritmo maestro.

En esta línea, Zamora enumeró los desafíos a los que se enfrenta la aplicación de la IA:

  • El fairness. “Tenemos que ser conscientes de no introducir sesgos. Jueces de primer circuito asignan mediante inteligencia artificial un grado de peligrosidad de reincidencia de los convictos. ¿Qué sucede si entrenamos ese sistema con un sesgo (varones, mujeres, raza)?”, advirtió.
  • La responsabilidad. El profesor del IESE comentó el caso de Watson, proyecto de IBM que produjo errores al recomendar tratamientos para el cáncer poco seguros e incorrectos.
  • La transparencia. “El sistema no debe ser una caja negra; debe poder explicarse por sí solo. Si toma una decisión incorrecta, no puedes echarle la culpa a la máquina”.
  • La ética. Un ejemplo claro es el de los autos autónomos. ¿Cómo entrenarlos para tomar decisiones humanas, como atropellar o no a una persona, aunque corra riesgo la vida del pasajero? Ante una situación en la que puede atropellar a una persona o a 5, ¿qué debería hacer la máquina? Es el tipo de dilemas que hoy enfrentan los científicos que trabajan en esta tecnología.

¿Cómo aplicar la IA a problemas empresariales?

De acuerdo con Zamora, podríamos recurrir a esta tecnología para develar datos que no tenemos, siempre y cuando contemos con información para alimentar al sistema. “El data es el petróleo de la IA”, indicó.

Contó el caso de una empresa española que tenía un acuerdo con fabricantes de tabletas y smartphones para reparar dispositivos estropeados. Tenían un problema: un porcentaje alto de estos equipos eran irreparables. “Usaban una logística para enviar productos que regresaban en el mismo estado”, explicó Zamora.

Para resolverlo, elaboraron un sistema predictivo. Cargaron más de 1 millón de datos sobre reportes, variables temporales, características técnicas de los equipos y estado de la garantía. Ahora pueden saber desde el origen si el equipo es reparable o no, además de prestar un servicio más rápido y mejor en caso de que sí pueda arreglarse.

Para ponerlo en marcha “en casa”, el profesor recomendó, primero, entender el problema del negocio y si la IA realmente puede aportar una solución. Luego, analizar si tenemos los datos necesarios y si entendemos las limitaciones del modelo de IA. Por último, saber que implementar un sistema de este tipo significará incorporar ciertos perfiles a la compañía: un científico de datos, un business translator, un ingeniero de datos, alguien de compliance que sepa si lo que estamos haciendo es legal, entre otros.

La clave, como en todo en la vida, será “aplicar la sabiduría práctica: el sentido común”, concluyó Zamora.