Red Hopfield

contenido

Red Hopfield

En una red de Hopfield, durante el proceso de formación, uno puede pensar que los pesos en la red minimizan una función de energía y se deslizan sobre una superficie de energía. En una red entrenada, cada modelo presentado a la red proporciona un atractor, donde se avanza hacia el punto de atracción mediante la propagación de información por la red.

El objetivo del procesamiento de información del sistema es asociar los componentes de un modelo de entrada con una representación holística del modelo llamado Memoria Direccionable de Contenido (CAM). Esto significa que una vez entrenado, el sistema recordará patrones completos o una versión ruidosa del patrón de entrada.

Le réseau de Hopfield comprend une structure de données en grafico avec des arêtes pondérés et des procédures distinctes pour la formation et l’application de la structure. La structure du réseau est entièrement connectée (un nœud se connecte à tous les autres nœuds sauf lui-même) et les arêtes (poids) entre les nœuds sont bidirectionnels.

Los pesos de la red se pueden aprender a través de un método de una sola vez (una iteración en todos los modelos) si se conocen todos los modelos que la red va a memorizar. Alternativamente, los pesos se pueden actualizar de forma incremental usando la regla de Hebb donde los pesos se aumentan o disminuyen según la diferencia entre la salida real y la salida esperada. El cálculo único de los pesos de la red para un solo nodo ocurre de la siguiente manera:

Red Hopfield

donde w_i, j es el peso entre la neurona i y j, N es el número de modelos de entrada, v es el modelo de entrada y v_ik es el atributo i-ésimo en el modelo de entrada k-ésimo.

La propagación de información a través de la red puede ser asincrónica donde se selecciona un nodo aleatorio en cada iteración, o de forma síncrona, donde la salida se calcula para cada nodo antes de aplicarse a toda la red. La propagación de información continúa hasta que no se realizan más cambios o hasta que se completa un número máximo de iteraciones, después de lo cual se puede leer la plantilla de salida de la red. La activación para un solo nodo se calcula de la siguiente manera:

Red Hopfield

donde n_i es la activación de la i-ésima neurona, w_i, j con el peso entre los nodos i y j, y n_j es la salida de la j-ésima neurona. La activación se transfiere a una salida mediante una función de transferencia, normalmente una función escalonada de la siguiente manera:

Red Hopfield

donde el umbral θ generalmente se establece en 0.

La rejilla de Hopfield se puede utilizar para resolver el problema de recordar coincidencias de claves para un patrón de entrada a un patrón asociado previamente aprendido.

La función de transferencia para transformar la activación de una neurona de salida es típicamente una función de paso f (a) en {-1, 1} (preferido), o más tradicionalmente f (a) en {0, 1}. Los vectores de entrada normalmente se normalizan a valores booleanos x en [-1; 1].

La red se puede propagar de forma asíncrona (donde se selecciona un nodo aleatorio y se genera como salida) o de forma síncrona (donde la salida de todos los nodos se calcula antes de aplicarse).

Les pondérations peuvent être apprises selon une méthode ponctuelle ou incrémentielle en fonction de la quantité d’informations connues sur les modèles à apprendre. Tous les neuronas du réseau sont généralement à la fois des neurones d’entrée et de sortie, bien que d’autres topologies de réseau aient été étudiées (comme la désignation des neurones d’entrée et de sortie). Un réseau de Hopfield a des limites sur les modèles qu’il peut stocker et récupérer avec précision à partir de la mémoire, décrite par N<0,15*n où N est le nombre de modèles qui peuvent être stockés et récupérés et n est le nombre de nœuds dans le réseau.

Compartir, repartir
es_ESES
A los bloggers de %d les gusta esto: