¿Por qué la IA es tan estúpida? (Why is AI so Dumb)

Hace unas semanas publicaba la revista IEEE Spectrum un reportaje especial con un título muy sugerente: “Why is AI so dumb ?”.  La pregunta no es nueva, en mi carrera he tenido ocasión de recibir preguntas similares por parte de más de un cliente y probablemente no he dado una respuesta tan buena como la del artículo, por eso creo interesante compartir algunos puntos del mismo.

En primer lugar podemos señalar que como en tantos otros sectores, la historia se repite. Desde que John McCarthy acuñara el término Inteligencia Artificial en 1956 se han ido sucediendo primaveras e inviernos en la IA.  Los años 70s y 80s tuvieron sus correspondientes épocas de entusiasmo seguidos por decepciones, ya fuera por que los algoritmos no eran lo suficientemente “inteligentes”, por la dificultad para crear sistemas realmente “expertos” o porque el coste del hardware hiciera inviable los proyectos.

En mi etapa profesional he tenido ocasión de vivir la época de los IVA (Intelligent Video Analytics) que finalmente no resultaron tan inteligentes como su nombre parece indicar. Aquella promoción tecnológica se soportaba en un tipo de hardware particular, los DSP, por ejemplo el Davinci de Texas Instrument. Recuerdo bien las expectativas generadas por grandes marcas internacionales, y el chasco posterior, junto con las consecuencias que tuvo en todo el mercado de procesamiento de video.  En gran parte todo eso ha quedado olvidado, al igual que el estigma que durante décadas arrastraron las siglas IA. Hoy parece que vuelven a brillar y que pueden lucirse sin miedo, al menos de momento.

Para tener una idea mejor sobre lo “inteligente” que son los sistemas de IA actuales, el reportaje comenta 7 fallos reveladores. El primero lo denominan como “brittleness” que se traduce como fragilidad y que puede explicarse con un ejemplo gráfico.  Las mejores redes “Deep Learning” no dudarían en afirmar que en en la primera imagen hay un guepardo y en la segunda un armadillo. Cuando veo presentaciones que afirman que las cámaras “inteligentes” funcionan como el cerebro humano me acuerdo de estas imágenes, igualito.

\"\"

El segundo elemento que señalan los investigadores es el sesgo integrado en los sistemas de IA. En este caso comentan los descubrimientos acerca de sesgos raciales en determinados algoritmos del sistema de salud americano.

El tercer fallo reportado es el olvido catastrófico, la sorprendente facilidad con la que los sistemas de IA olvidan cosas.  Esto es consecuencia en muchas ocasiones de la capacidad de aprendizaje. Enseñar algo a un sistema es realmente delicado, solo comparable con el denominado auto-aprendizaje, dos armas de destrucción masiva en el sector de seguridad. Un ejemplo que hemos visto en la inmensa cantidad de “productos con Deep Learning” es que simplemente se han vuelto incapaces de detectar un intruso camuflado. Una sábana, caja o paraguas bastan para que los amigos de lo ajeno puedan trabajar tranquilos durante horas mientras los supuestos sistemas “inteligentes” consideran que no pasa nada.  Los sistemas de hace 20 años eran considerablemente más seguros que la mayor parte de cámaras “inteligentes” del mercado actual.

El cuarto fallo es de explicabilidad. De nuevo este tema nos impacta de lleno. Si con la generación de tecnología anterior a veces teníamos problemas para explicar “por qué” un sistema había detectado o no, con la nueva generación, a veces, es totalmente imposible.  Si utilizamos las imágenes anteriores del guepardo y el armadillo, ¿Quién podría decir qué han visto las redes neuronales en esas imágenes para determinar con enorme fiabilidad la presencia de estos animales?  Desde un punto de vista aplicado al sector de seguridad, ¿Qué recomendaciones podemos dar a los instaladores para que un sistema de Deep Learning funcione mejor? Como regla general, cuanto mayor sea la resolución de trabajo más información tendrá la red neuronal para poder trabajar, y por tanto podemos esperar mejores resultados. Pero claro, más datos implica más cómputo y normalmente hardware más costoso (este es un aspecto que hace única nuestra solución DeepWall, la capacidad de analizar en HD sobre hardware de coste ajustado).

El quinto fallo que indican los investigadores es “cuantificar la incertidumbre”.  Los sistemas de IA pueden mostrar una certeza absoluta sobre ciertas aserciones, incluso cuando se equivocan. De nuevo usando el ejemplo del guepardo, la certeza sobre la presencia del animal es en muchos casos superior al 99%.  El problema radica en que la certeza de un sistema de IA en muchas ocasiones no puede tenerse en cuenta como elemento fiable de precisión. Este tipo de fallo ha tenido consecuencias trágicas en sistemas de conducción autónoma, por ejemplo cuando un Tesla colisionó con un camión.

El sexto fallo señalado es la falta de sentido común.  La aplicación de sistemas de IA para la prevención de discursos de odio ha tenido como consecuencia la censura de artículos o blogs de precisamente los segmentos de población que se supone intenta proteger.  ¿No es normal que en un chat de gente negra o gay se usen esas palabras con alta frecuencia, sin que ello implique odio alguno?

Finalmente nos indican la sorprendente debilidad de los sistemas de IA para resolver problemas de matemáticas supuestamente sencillos. Un experimento sobre 12.500 problemas de matemáticas de instituto demostró que los sistemas de IA apenas podían resolver correctamente el 5%.

Uno de los mayores expertos en IA del mundo, el profesor Yoshua Bengio afirmó que incluso con todas las mejoras de las últimas dos décadas, no estamos ni siquiera cerca de la inteligencia de un niño de dos años. Probablemente tenga razón, pero esto no tiene porqué ser motivo de desánimo. Si consideramos que la industria necesita herramientas capaces de automatizar procesos, la oportunidad es enorme. Competir en inteligencia con los seres humanos no es un requisito para poder automatizar decenas de tareas. Lo que hasta ahora hemos entendido como progreso, el incremento de productividad derivado de la automatización, tiene sin duda un enorme aliado en las herramientas que nos ha tocado llamar “Inteligentes”.  La historia nos indica que la adopción de estas innovaciones es un factor crítico en el futuro de empresas, y en algún caso de naciones.

Dr. Eduardo Cermeño

Deja un comentario

Tu dirección de correo electrónico no será publicada.