Perceptron

De testwiki
Aller à la navigation Aller à la recherche

Modèle:Infobox Méthode scientifique Le perceptron est un algorithme d'apprentissage supervisé de classifieurs binaires (c'est-à-dire séparant deux classes). Il a été inventé en 1957 par Frank Rosenblatt[1] au laboratoire d'aéronautique de l'université Cornell. Il s'agit d'un neurone formel muni d'une règle d'apprentissage qui permet de déterminer automatiquement les poids synaptiques de manière à séparer un problème d'apprentissage supervisé. Si le problème est linéairement séparable, un théorème assure que la règle du perceptron permet de trouver une séparation entre les deux classes.

Définition

Schéma d'un perceptron à n entrées.
Les entrées i1 à in sont multipliées avec les poids W1 à Wn, puis sommées, avant qu'une fonction d'activation soit appliquée.

Le perceptron peut être vu comme le type de réseau de neurones le plus simple. C'est un classifieur linéaire. Ce type de réseau neuronal ne contient aucun cycle (il s'agit d'un réseau de neurones à propagation avant). Dans sa version simplifiée, le perceptron est mono-couche et n'a qu'une seule sortie (booléenne) à laquelle toutes les entrées (booléennes) sont connectées. Plus généralement, les entrées peuvent être des nombres réels.

Un perceptron à n entrées x=(x1,,xn) et à une seule sortie o est défini par la donnée de n poids (aussi appelés coefficients synaptiquesModèle:Référence nécessaire) (w1,,wn) et un biais (ou seuil) θ par[2]:

o={1sii=1nwixiθ0sinon

La sortie o résulte alors de l'application de la fonction de Heaviside au potentiel post-synaptique z=i=1nwixiθ, où la fonction de Heaviside est :

z, H(z)={0siz<01siz0.

On a alors o=H(i=1nwixiθ). La fonction H est non linéaire et appelée fonction d'activation. Une alternative couramment employée est f=tanh, la tangente hyperbolique.

Exemple

Un perceptron qui calcule le OU logique.

La figure de droite montre un perceptron avec 2 entrées

x

et

y

. Les poids sont marqués sur les arcs : 1 et 1. Le biais est de 1. Ce perceptron calcule le OU logique de

x

et

y

, comme le montre la table suivante :

x y x+y x+y 1 ? valeur de la sortie
0 0 0 non 0
1 0 1 oui 1
0 1 1 oui 1
1 1 2 oui 1

Algorithme d'apprentissage

Notations

Dans la suite de cet article, on considère un échantillon fini de données labélisées 𝒮={(X1,y1),,(Xn,yn)}, avec pour tout k[[1,n]], Xk=(x1(k),,xd(k),xd+1(k))d+1, où xd+1(k)=1[alpha 1], et yk{1,1}. On dit alors que les vecteurs Xk sont les « exemples » et que les points yk sont leurs « classes ». Puisque le perceptron ne traite que les problèmes de classification binaire, les yk ne peuvent prendre que deux valeurs, par convention 1 et 1.

Enfin, on pose R=maxk[[1,n]]Xk, et γ=maxWd+1min{yW,XW|(X,y)𝒮}.

On suppose également que 𝒮 est linéairement séparable, donc γ est (strictement) positif. Le fait que γ soit non-nul découle du lemme suivant :

Modèle:Théorème Modèle:Démonstration

Énoncé

Il existe plusieurs algorithmes d'apprentissage pour un perceptron. L'un des premiers est l'algorithme du perceptron de Rosenblatt, inventé en 1957, qui a pour but de trouver les paramètres d'un hyperplan séparant correctement les deux classes de données[3]Modèle:,[4] :

Entrées : un échantillon 𝒮={(X1,y1),,(Xn,yn)}de données labélisées
Sortie : la matrice W de poids telle que (Xk,yk)S,yk(W,Xk+b)>0
1 Initialiser W=0d+1
2 Répéter
3    Pour i=1 à n
4        Si yiW,Xi0 alors
5            WW+yiXi
6    Fin pour
7 jusqu'à ce qu'il n'y ait plus d'erreurs
8 Retourner W

L'algorithme du perceptron de Rosenblatt est un cas particulier de l'algorithme du gradient stochastique utilisant comme fonction objectif C(W)=iyiW,Xi, où est l'ensemble des exemples mal classés ; et un taux d'apprentissage de 1[5].

Convergence

La convergence de l'algorithme est démontrée en 1962 par Novikoff.Modèle:ThéorèmeModèle:DémonstrationLorsque les données entrées ne sont pas linéairement séparables, l'algorithme ne converge pas, et la suite (Wk) est périodique. Le cycle peut cependant être long et difficile à détecter.

Règle de Hebb

Modèle:Article détaillé

La règle de Hebb, établie par Donald Hebb[6], est une règle d'apprentissage des réseaux de neurones artificiels dans le contexte de l'étude d'assemblées de neurones.

Cette règle suggère que lorsque deux neurones sont excités conjointement, ils créent ou renforcent un lien les unissant.

Dans le cas d'un neurone artificiel seul utilisant la fonction signe comme fonction d'activation cela signifie que :

W'i=Wi+α(Y.Xi)

W'i représente le poids i corrigé et α représente le pas d'apprentissage.

Cette règle n'est malheureusement pas applicable dans certains cas bien que la solution existe.

Règle d'apprentissage du perceptron (loi de Widrow-Hoff)

Le perceptron de Frank Rosenblatt est très proche de la règle de Hebb, la grande différence étant qu'il tient compte de l'erreur observée en sortie.

Cette fonction est recommandée lorsque la tangente hyperbolique (tanh) est utilisée comme fonction d'activation.

W'i=Wi+α(YtY)Xi

avec :

  • W'i = le poids i corrigé ;
  • Yt = sortie attendue ;
  • Y = sortie observée ;
  • α = le taux d'apprentissage ;
  • Xi = l'entrée du poids i pour la sortie attendue Yt ;
  • Wi = le poids i actuel.

Notes et références

Notes

Modèle:Références

Références

Modèle:Références

Voir aussi

Bibliographie

  • F. Rosenblatt (1958), The perceptron: a probabilistic model for information storage and organization in the brain,
- repris dans J.A. Anderson & E. Rosenfeld (1988), Neurocomputing. Foundations of Research, MIT Press


Modèle:Palette Modèle:Portail

  1. Modèle:Lien web
  2. Le Perceptron, dans Marc Tommasi , Apprentissage automatique : les réseaux de neurones, cours à l'université de Lille 3.
  3. Modèle:Article.
  4. Modèle:Lien web.
  5. Hastie, The Elements of Statistical Learning, Modèle:P..
  6. Donald Olding HEBB, The Organization of Behavior, New York, Wiley & Sons, 1949.


Erreur de référence : Des balises <ref> existent pour un groupe nommé « alpha », mais aucune balise <references group="alpha"/> correspondante n’a été trouvée