PyBrain - Travailler avec des réseaux récurrents
Les réseaux récurrents sont identiques au réseau à réaction avec la seule différence que vous devez vous souvenir des données à chaque étape. L'historique de chaque étape doit être sauvegardé.
Nous apprendrons à -
- Créer un réseau récurrent
- Ajout de modules et connexion
Créer un réseau récurrent
Pour créer un réseau récurrent, nous utiliserons la classe RecurrentNetwork comme indiqué ci-dessous -
rn.py
from pybrain.structure import RecurrentNetwork
recurrentn = RecurrentNetwork()
print(recurrentn)
python rn.py
C:\pybrain\pybrain\src>python rn.py
RecurrentNetwork-0
Modules:
[]
Connections:
[]
Recurrent Connections:
[]
Nous pouvons voir une nouvelle connexion appelée Connexions récurrentes pour le réseau récurrent. À l'heure actuelle, aucune donnée n'est disponible.
Créons maintenant les couches et ajoutons aux modules et créons des connexions.
Ajout de modules et connexion
Nous allons créer des couches, c'est-à-dire des entrées, des masques et des sorties. Les couches seront ajoutées au module d'entrée et de sortie. Ensuite, nous allons créer la connexion pour l'entrée à caché, caché à la sortie et une connexion récurrente entre caché à caché.
Voici le code du réseau récurrent avec modules et connexions.
rn.py
from pybrain.structure import RecurrentNetwork
from pybrain.structure import LinearLayer, SigmoidLayer
from pybrain.structure import FullConnection
recurrentn = RecurrentNetwork()
#creating layer for input => 2 , hidden=> 3 and output=>1
inputLayer = LinearLayer(2, 'rn_in')
hiddenLayer = SigmoidLayer(3, 'rn_hidden')
outputLayer = LinearLayer(1, 'rn_output')
#adding the layer to feedforward network
recurrentn.addInputModule(inputLayer)
recurrentn.addModule(hiddenLayer)
recurrentn.addOutputModule(outputLayer)
#Create connection between input ,hidden and output
input_to_hidden = FullConnection(inputLayer, hiddenLayer)
hidden_to_output = FullConnection(hiddenLayer, outputLayer)
hidden_to_hidden = FullConnection(hiddenLayer, hiddenLayer)
#add connection to the network
recurrentn.addConnection(input_to_hidden)
recurrentn.addConnection(hidden_to_output)
recurrentn.addRecurrentConnection(hidden_to_hidden)
recurrentn.sortModules()
print(recurrentn)
python rn.py
C:\pybrain\pybrain\src>python rn.py
RecurrentNetwork-6
Modules:
[<LinearLayer 'rn_in'>, <SigmoidLayer 'rn_hidden'>,
<LinearLayer 'rn_output'>]
Connections:
[<FullConnection 'FullConnection-4': 'rn_hidden' -> 'rn_output'>,
<FullConnection 'FullConnection-5': 'rn_in' -> 'rn_hidden'>]
Recurrent Connections:
[<FullConnection 'FullConnection-3': 'rn_hidden' -> 'rn_hidden'>]
Dans la sortie ci-dessus, nous pouvons voir les modules, les connexions et les connexions récurrentes.
Activons maintenant le réseau en utilisant la méthode d'activation comme indiqué ci-dessous -
rn.py
Ajoutez ci-dessous le code à celui créé précédemment -
#activate network using activate() method
act1 = recurrentn.activate((2, 2))
print(act1)
act2 = recurrentn.activate((2, 2))
print(act2)
python rn.py
C:\pybrain\pybrain\src>python rn.py
[-1.24317586]
[-0.54117783]