Para entender qué es una red neuronal, por qué cada neurona es como es, y cómo se llega a la conclusión del procedimiento de entrenamiento de la red, se debe pensar como aquellos que buscaron modelar el comportamiento humano.
El cerebro humano posee más de 10 billones de neuronas, las cuales poseen poseen intrincadas conexiones y constituyen un red en gran escala. Por lo tanto descubrir los mecanismos neuronales de alto nivel no es fácil. En la aproximación neuropsicológica, por ejemplo, un microelectrodo se usa para registrar la respuesta de estas células (las de funciones de alto nivel). Sin embargo el registro puede ser hecho a lo sumo de unas pocas células simultaneamente. A pesar de que se puede obtener información fragmentada de esta manera, aun así entender el mecanismo de la red como un todo es difícil.
La aproximación por modelado, la cual es una manera sintética de aproximación utilizando modelos de redes neurales, continúa en nuestros días ganando importancia. En la aproximación por modelado, se estudia cómo interconectar neuronas para sintetizar un modelo del cerebro, el cual constituye una red neuronal con las mismas funciones y habilidades que el cerebro.
Cuando se sintetiza un modelo, se trata de seguir lo mejor posible a la evidencia psicológica. Para partes aún no muy claras, se proponen hipótesis y se sintetiza un modelo que implemente la hipótesis. Luego se analiza o simula el comportamiento del modelo y se lo compara con aquel correspondiente del cerebro. Si existen discrepancias entre el comportamiento del modelo y el del cerebro, se cambia la hipótesis inicial, se modela nuevamente y se realizan las pruebas comparándolo con el comportamiento del cerebro. Y así sucesivamente hasta que ambos comportamientos se parezcan. A pesar de que después debería validarse el modelo mediante experimentos psicológicos, es probable que el cerebro utilice mecanismos similares al del modelo porque ambos responden de la misma manera. Así, el modelado de redes neuronales promete ayudarnos a develar los mecanismos del cerebro.
Utilizando lo que se conoce acerca de las células neuronales, es que han sido planteados algunos de los modelos de neuronas más conocidos.
Una estructura de red neuronal es una colección procesadores paralelos conectados juntos en la forma de grafo, organizados tal que la estructura de la red se adecúe al problema que se aborde. Normalmente se modela la red mediante capas de procesadores con funcionalidades semejantes.
El comportamiento que se implementa para cada tipo de procesador (en cada capa) responderá a la hipótesis de comportamiento psicológico que esté siendo considerado. Hay que tener en cuenta que no siempre una neurona artificial posee una relación uno-a-uno con neuronas biológicas reales. Siempre es mejor imaginar una neurona artificial representando la actividad colectiva de un grupo de neuronas reales; modelamos la conducta de una estructura biológica.
El poder de una red neuronal no radica en la elegancia de una solución particular, sino más bien en la generalidad de la red para hallar su propia solución a problemas particulares, dándole solo ejemplos del comportamiento deseado. Para ello, las redes neuronales poseen dos estados de operación: entrenamiento y producción. La diferencia de modos de operación es otra característica distintiva; si se simula una red, la fase de entrenamiento no requiere reprogramación del simulador, sino tan solo corre el algoritmo de ajuste corrigiendo los pesos de las conexiones entre neuronas.
Considerando el esquema de la figura 1 como un diagráma típico de una red neuronal, podemos representar esquemáticamente cada elemento procesador ( o unidad) en la red como un nodo, con conexiones entre las unidades indicadas con arcos. La dirección del flujo de información en la red se indica con las puntas de flecha de cada conexión.
Figura 1: esquema de una red neuronal típica. Esta red es un ejemplo de una red para el reconocimiento de caracteres. La aplicación de un patrón en la entrada puede provocar que varias unidades en la capa oculta se activen. Tal actividad en esta capa oculta debería hacer que solo una de las unidades de la capa de salida se active – aquella asociada con el patrón que está siendo identificado. Otro aspecto para destacar es la gran cantidad de conexiones a pesar del tamaño relativamente pequeño de la red.
Modelos de Redes Neuronales
En las tablas siguientes se detallan clasificaciones posibles según los tipos de arquitectura de las redes según los tipos de algoritmos de aprendizaje.
CLASIFICACION SEGÚN LA ARQUITECTURA DE LAS REDES NEURONALES | ||||
Nro. DE CAPAS | TIPOS DE CONEXION | MODELO DE RED | ||
1 | laterales explícitas | Autorrecurrentes | Brain state in a box | |
Additive grossberg | ||||
Shunting Grossberg | ||||
Optimal linear associative memory | ||||
No autorrecurrentes | Hopfield | |||
Boltzman Machine | ||||
Cauchy Machine | ||||
crossbar | Learning Matrix | |||
2 | Conexiones hacia adelante (feed-fordward) | Adaline/Madaline | ||
Perceptron | ||||
Linear association reward penalty | ||||
Linear associative memory (LAM) | ||||
Optimal LAM | ||||
Drive reinforcement | ||||
Conexiones laterales implícitas y autorrecurrentes | Linear vector quantization (LVQ) | |||
TPM | ||||
Conexiones hacia adelante y hacia atrás | Sin laterales | Bidirectional associative memory (BAM) | ||
Adaptive BAM | ||||
Temporal associative memory | ||||
Fuzzy associative memory | ||||
Con laterales y autorrecurrentes | Competitive adaptive BAM | |||
Adaptive resonance theory (ART) | ||||
3 | Conexiones hacia adelante | Sin laterales | Adaptive heuristic critic | |
Boltzman / Cauchy machine | ||||
Con laterales | Counterpropagation | |||
Boltzman / Cauchy machine | ||||
Conexiones hacia atrás y adelante | Boltzman / Cauchy machine | |||
>3 | Conexiones hacia adelante | Backpropagation | ||
Conexiones hacia atrás y adelante | Cognitron / Neocognitron | |||
CLASIFICACIÓN DE LAS REDES NEURONALES SEGÚN SU ALGORITMOS DE APRENDIZAJE | ||||
PARADIGMA | REGLA DE APRENDIZAJE | ARQUITECTURA | ALGORITMO DE APRENDIZAJE | TAREA QUE DESEMPEÑA LA RED |
Supervisado | Corrección del error | Perceptron de capa simple o multicapa | Algoritmo de aprendizaje del perceptron | · Clasificación de patrones · Aproximación de funciones · Predicción · Control |
Back-propagation | ||||
Adaline y Madaline | ||||
Boltzmann (aprendizaje estocástico) | Recurrente | Algoritmo de aprendizaje de Boltzmann | Clasificación de patrones | |
Hebbiana | Multicapa con conexiones hacia adelante (feed-forward) | Análisis discriminante lineal | · Análisis de datos · Clasificación de patrones | |
Competitiva | Competitiva | Learning vector quantization (LVQ) | · Categorización en clases · Compresión de datos | |
ART network | ARTmap | · Clasificación de patrones · Categorización en clases | ||
No supervisado | Corrección del error | Multicapa con conexiones hacia adelante (feed-forward) | Proyección de Sammon | Análisis de datos |
Hebbiana | Conexiones hacia delante (feed-forward) o competitiva | Análisis de la componente principal | · Análisis de datos · Compresión de datos | |
Red de Hopfield | Associative memory learning | Memoria asociativa | ||
Competitiva | Competitiva | Cuantización vectorial | · Categorización · Compresión de datos | |
Self Organizing Maps | Kohonen’s SOM | · Categorización · Compresión de datos | ||
ART networks | ART1, ART2 | Categorización | ||
Híbrido | Corrección del error y competitiva | Radial Basis Function | RBF learning algorithm | · Clasificación de patrones · Aproximación de funciones · Predicción · Control |

No hay comentarios:
Publicar un comentario