Los investigadores del Instituto de Sistemas Cibernéticos Inteligentes de la Universidad Nacional de Investigaciones Nucleares de Rusia (MEPhI) presentaron un nuevo método de enseñanza para la máquina de Boltzmann -un tipo de red neuronal- que permite optimizar los procesos de codificación semántica, visualización y reconocimiento de datos.

científicos rusos,redes neuronales
© CC0 / PIXABAY

Los resultados del estudio están publicados en la revista Optical Memoryand Neural Networks.

Cada vez es más popular el estudio de las redes neuronales profundas de diferente arquitectura: ultraprecisas, recurrentes, auto-codificadores. Varias empresas de alta tecnología, entre ellas Microsoft y Google, usan las redes neuronales profundas para proyectar diferentes sistemas inteligentes. Junto con las redes neuronales profundas se extendió el concepto de aprendizaje 'profundo'.

En los sistemas de aprendizaje profundo se automatiza el propio proceso de selección y ajuste de las características. Es decir, la red sola determina y emplea los algoritmos más eficaces para la extracción jerárquica de las características. El aprendizaje profundo se caracteriza por utilizar muestreos amplios con ayuda de un único algoritmo optimizador. Los algoritmos típicos de optimización ajustan los parámetros de todas las operaciones, de forma simultánea, y evalúan eficazmente la influencia de cada uno de los parámetros de la red neuronal con la ayuda del método llamado de propagación inversa.
"La capacidad de las redes neuronales artificiales de aprender es su propiedad más intrigante", explica el catedrático del Instituto de Sistemas Cibernéticos de la MEPhI, Vladímir Golovkó. "Como los sistemas biológicos, las redes neuronales se modelan a sí mismas intentando alcanzar un mejor modelo de conducta".
La revolución en el aprendizaje de las redes neuronales tuvo lugar en 2006, tras la publicación de Geoffrey Hinton que describía la técnica del entrenamiento previo de la red neuronal. El artículo afirmaba que era posible entrenar la red neuronal multicapa si cada una de las capas se entrenaba con la ayuda de la máquina de Boltzmann y luego se ponía a punto con el método de propagación inversa del error. Estas redes recibieron el nombre de redes neuronales de profunda confianza (Deep Belief Networks, DBN, en inglés).

Golovkó analizó la problemática y los principales paradigmas del aprendizaje profundo de máquinas y propuso un nuevo método de enseñanza para la máquina de Boltzmann.

El científico demostró que la regla clásica de enseñanza de esta red neuronal es un caso particular del método propuesto por él.

"Los científicos estadounidenses Minsky y Papert demostraron en su momento que el perceptrón de una capa con la función de activación con valor de umbral crea la superficie lineal divisoria desde el punto de vista de clasificación de imágenes y por eso no puede solucionar el problema de disyunción exclusiva. Esto infundía pesimismo con respecto al desarrollo de las redes neuronales. Pero esta última afirmación es válida solo para el perceptrón de una capa con la función de activación con valor de umbral o monótona continua, por ejemplo, sigmoidal. Al usar la función de activación de señales, el perceptrón de una capa sí es capaz de solucionar el problema de disyunción exclusiva ya que separa el espacio entrante de imágenes en clases con la ayuda de dos líneas rectas", detalla el catedrático.

El trabajo analiza, además, las perspectivas de aplicar las redes neuronales profundas para comprimir, visualizar y reconocer los datos. Golovkó planteó la posibilidad de realizar la codificación semántica con la ayuda de las redes neuronales profundas autoasociativas.

Este método de aprendizaje profundo podrá ser muy útil en los buscadores de las redes neuronales que, según el autor, demostrarán una alta velocidad de búsqueda de imágenes relevantes.

Estos estudios científicos se están aplicando con éxito en los ámbitos como visión por ordenador, reconocimiento del habla y bioinformática.