Le cours Linear regression from scratch (chapitre 2) présente un exemple de régression linéaire très simple. Le jeu de données répond à la fonction  2 * X[:, 0] 3.4 * X[:, 1] + 4.2 auquel on ajoute du bruit.

Un réseau de neurones, à 2 entrées, une sortie, un biais, est constitué. La fonction de perte est le carré des distances. L’optimizer est un SGD.

Ce qui est plus intéressant, c’et le cours suivant : Linear regression with Gluon car c’est celui qui permet de comprendre l’intérêt de Gluon (à supposer qu’il y en ait un)

Comme on peut le voir, la création d’un réseau de neurones, avec Gluon est relativement simple.

[code] net = gluon.nn.Dense(1)
net.collect_params().initialize(mx.init.Normal(sigma=1.), ctx=model_ctx)
[/code]

La définition de la fonction de perte utilise des méthodes prédéfinies,

[code] square_loss = gluon.loss.L2Loss()
[/code]

idem pour le gradient :

[code] trainer = gluon.Trainer(net.collect_params(), ‘sgd’, {‘learning_rate’: 0.0001})
[/code]

Pour autant, il n’y a là rien de magique. C’est aussi simple (voire plus) avec Keras.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *