09 Abr ¿Un nuevo “winter is coming” para el aprendizaje profundo?
Deep learning. Aprendizaje profundo en español. Es probable que en los últimos años hayas oído hablar o leído sobre este concepto en algún texto académico o en los medios de comunicación. Si no es así, te resumo en qué consiste. Se trata de una forma de inteligencia artificial que intenta dar forma o representar un conjunto de datos a través de la imitación del funcionamiento del sistema nervioso.
Al contrario que el machine learning, que es un método de aprendizaje automático que entrena algoritmos para que aprendan, el deep learning no es un proceso dirigido, sino que mejora sus resultados a través del propio aprendizaje, es decir crea su propio modelo de representación mediante sus patrones y anomalías. Esto se consigue mediante redes neuronales multicapa cuyos perceptrones o neuronas artificiales tienen una función específica, al igual que las neuronas de verdad, y no se comportan todas de la misma forma como es en el caso del aprendizaje automático.
El deep learning, por tanto, es un paso más en ese intento de lograr máquinas inteligentes, siendo conscientes del controvertido significado del concepto de inteligencia y sobre el que tanto investigó y meditó Alan Turing y que tanto ha dado que hablar en las últimas décadas, como se puede comprobar en esta entrevista al pionero de la inteligencia artificial, Jerome Wiesner, en los años 60.
Es posible que no se pueda hablar de inteligencia artificial hasta que se concrete qué es exactamente la inteligencia y, precisamente, los avances en el deep learning, que han sido espectaculares en los últimos años, pueden quedar ensombrecidos por esa antigua discusión.
Principales limitaciones
De hecho, diversos científicos y expertos en el campo han destacado en diversos artículos e investigaciones las limitaciones que tiene esta modalidad de inteligencia artificial.
Uno de ellos, Gary Marcus, en su investigación Deep Learning: una evaluación crítica (2018), destaca diez desafíos a los que enfrentan los sistemas de aprendizaje profundo. Entre ellos, está el hecho de poder aprender conceptos abstractos y no solo ingentes cantidades de datos o, por ejemplo, diferenciar la jerarquía en una frase subordinada, una carencia que se nota en plataformas de traducción automática entre idiomas.
Además, el deep learning, según Marcus, se desarrolla bien cuando existen unas reglas claras y estables, pero no tanto en entornos poco predecibles como, por ejemplo, los mercados financieros. Es por esta razón que entidades como el Banco Central Europeo no permite a la banca realizar sus evaluaciones de riesgos basadas exclusivamente en redes neuronales.
Marcus apunta también a la imposibilidad de esta tecnología de diferenciar entre causalidad y correlación. Aunque el deep learning relaciona inputs (entradas) y outputs (salidas), en realidad no entiende cuál es la relación entre ambos.
Ausencia de sentido común
En este análisis también coincide el ingeniero Roberto Iriondo, que reconoce que el aprendizaje profundo es muy bueno a la hora de percibir patrones, pero que, sin embargo, no puede comprender lo que significan y, mucho menos, razonar sobre ellos. Desde su perspectiva, entre las limitaciones “la más importante es la ausencia de sentido común”.
Aunque pueda parecer anecdótico, lo que apunta Iriondo tiene una gran importancia. Según el consultor en inteligencia artificial, Keith Darlington, el sentido común es crucial para el éxito de los sistema de inteligencia artificial, pero que no es fácil de asimilar por las máquinas debido a que es “conocimiento sobreentendido” y, la mayoría de las veces, “imperceptible” para las personas. En la misma línea va Rodney Brooks, que en este artículo muestra ejemplos de cómo el deep learning falla a la hora de interpretar datos con el sentido común que caracteriza a los humanos.
De esto también se dio cuenta en su día uno de los padres fundadores de la inteligencia artificial, John McCarthy, pues, en 1959, publicó el primer documento en proponer un programa hipotético (Advice Taker) para implementar el razonamiento fundamentado en el sentido común. En la actualidad, numerosos científicos e incluso militares están desarrollando múltiples proyectos para incorporar el sentido común a la inteligencia artificial y superar, de esta forma, el aprendizaje profundo, evitando así una nueva edad oscura o estancamiento en su progreso.
Falta de adaptabilidad
Otro de los obstáculos del deep learning es su falta de adaptabilidad. A pesar de su capacidad para detectar patrones, los sistemas de deep learning tienen bastantes dificultades para adaptarse ante pequeñas modificaciones. Un ejemplo constituye Deep Mind de Google, un sistema de aprendizaje profundo que fue el primero en ganar a un humano en el juego de origen chino Go, más complicado que el ajedrez. La prensa lo celebró como un hito de la inteligencia artificial sobre la humana, pero hay que tener en cuenta que el tablero sobre el que se jugó era de 19×19 casillas. En el caso de que se hubiera variado su tamaño el sistema tendría que haber aprendido de nuevo y su victoria podría no haber sido tal.
Alan L. Yuille y Chenxi Liu también se unen al grupo de expertos que ven ciertas limitaciones que eclipsan el avance del deep learning, entre las que se encuentra el sesgo provocado por pequeños cambios, que puede suponer un error considerable y, por tanto, poco fiel y riguroso.
Por otro lado, el deep learning se enfrenta a un problema añadido. Como destaca esta investigación firmada por varios científicos, aprovecha las ventajas de los grandes conjuntos de datos y algoritmos de entrenamiento que son más eficientes para superar otros enfoques en varias tareas de aprendizaje. Sin embargo, se pueden producir imperfecciones en la fase de entrenamiento de las redes neuronales, que las hace vulnerables a muestras adversas: los inputs introducidos por adversarios con el objetivo de causar una clasificación errónea por parte de las redes neuronales.
Sin capacidad interpretativa
El deep learning actual carece de capacidad interpretativa, es decir, no puede justificar por qué asocia una o varias salidas a una entrada determinada de la red neuronal, algo que sí sucede en el caso de las neuronas humanas. Es posible que el sentido común u otros métodos puedan ser un desafío real para este sistema de aprendizaje artificial. En este sentido, Roberto Iriondo señala que, para que los modelos de aprendizaje profundo puedan razonar, “tenemos que cambiar su estructura para que no creen un único resultado (es decir, la interpretación de una imagen, la traducción de un párrafo, etc.), sino que ofrezcan toda una serie de resultados alternativos (es decir, diferentes formas de traducir una frase)”.
Lo que sí parece todavía lejos no es ya que las máquinas puedan pensar, sino que sean capaces de simular de forma aún más perfecta el funcionamiento de nuestro sistema nervioso. Parece que esta meta poco ha cambiado, en esencia, desde los tiempos de Wiesner. Igual es mejor mantener una inteligencia artificial a rajatabla, como defendía Stephen Hawking. Que mejoren nuestro proceso de toma de decisiones, pero sin entender cómo o por qué lo hacen. Una cosa se da por segura: de los próximos avances en el campo del deep learning sabremos si se produce un punto de inflexión o este campo se adentra, una vez más, en una nueva oscura o, como expresarían los fans de Juego de Tronos, un nuevo “winter is coming”.
Escríbeme
¿Y tú qué opinas? Me gustaría conocer tu perspectiva para intercambiar opiniones y conocimientos. Puedes escribirme a:
hola@sergiobarbeira.com
No Comments