Su nombre deriva de la utilización de redes neuronales artificiales con muchas capas de neuronas en tareas de aprendizaje de máquinas. Si la red neuronal posee muchas capas se dice que es profunda (deep), en contraposición a tener un número reducido de capas y ser poco profunda (shallow). Una red con muchas capas, posee muchas neuronas y muchas conexiones entre éstas y, por lo mismo, una gran capacidad de aprendizaje.
La capacidad de aprendizaje es fundamental para construir sistemas de reconocimiento de alto rendimiento, pues el paradigma actual de construcción de estos sistemas es que se aprendan a reconocer los objetos de interés utilizando ejemplos. Los ejemplos consisten en imágenes, miles o millones, en las cuales se encuentran los objetos a ser reconocidos y por cada imagen existe un indicador del tipo de objeto presente; por ejemplo, una imagen de un auto en una carretera y el indicador “auto”. Para resolver una cierta tarea de reconocimiento, la red deep debe ser entrenada mediante estos ejemplos y aprender que dada una imagen de entrada debe generar a su salida el indicador correcto. Todo lo que la red va aprendiendo se guarda en las conexiones entre neuronas (sinapsis). De allí la importancia de contar con muchas neuronas, muy conectadas y por ende con gran capacidad de aprendizaje.
El aprendizaje profundo es una técnica de uso reciente, a pesar de que se investiga en el uso de redes neuronales desde mediados del siglo pasado. El boom a partir del año 2012 tiene que ver con aspectos técnicos del aprendizaje de máquinas: primero, la introducción de nuevas redes neuronales con estructuras específicas (redes convolucionales) que requieren que menos parámetros internos sean aprendidos; y el uso de técnicas de aprendizaje de mayor sofisticación, las cuales permiten entrenar redes con muchas capas de manera rápida y robusta.
Pero también influye la existencia de computadores con mayor capacidad de procesamiento, con memorias más grandes y con unidades de cómputo especializadas (GPU – Graphics Processing Unit). Este factor es fundamental, pues entrenar una red profunda de muchas capas, con miles de neuronas, utilizando millones de imágenes, requiere gran cantidad de memoria y gran capacidad de procesamiento. El cuarto factor, frecuentemente ignorado, es la tendencia a desarrollar redes profundas bajo el paradigma de código abierto, lo que significa que en la actualidad miles de investigadores y desarrolladores se encuentren resolviendo aplicaciones de deep learning en forma colaborativa, usando frameworks de trabajo estándares, como por ejemplo TensorFlow, Caffe o PyTorch, los cuales facilitan el compartir las redes diseñadas y entrenadas.
En Lee Hecht Harrison ARGENTINA asesoramos a los individuos en el desarrollo de su carrera dentro de la organización o en su etapa de transición hacia nuevas oportunidades de empleo. Haga click aquí para más información.