Home > Doc > Reti Neurali su .... >Classificatori Supervisionati

Reti neurali su Personal Computer e Fuzzy Logic: Reti Neurali Autoorganizzanti

Classificatori Supervisionati

Da questo modello autoorganizzante sono stati derivati classificatori supervisionati sicuramente più adatti ad un lavoro di riconoscimento/classificazione su problemi che consentono di avere una casistica di associazioni input/classe. Per addestrare un modello supervisionato occorre fornire alla rete, non la semplice sequenza degli input pattern ma la sequenza delle associazioni input/classe_desiderata.

In problemi "giocattolo" una classe può essere rappresentata anche da un solo neurodo dello strato di output ma in problemi reali ogni classe sarà rappresentata da un numero piuttosto elevato di neurodi sulla griglia(anche diverse centinaia). Il numero di neurodi necessari a rappresentare una classe è proporzionale alla estensione della classe stessa nello spazio delle forme degli input pattern.

Nello scegliere i neurodi di uscita atti alla rappresentazione di una classe si deve tenere conto della estensione di essa, fornendo più neurodi alle classi più ampie. La formula di apprendimento della rete nella versione supervisionata si sdoppia, ottenendo effetti opposti a seconda che il neurodo risultato vincente appartenga alla classe desiderata o meno. In pratica il vettore dei pesi del neurodo vincente viene avvicinato al vettore input se rappresenta la classe corretta, altrimenti viene allontanato:

1) W(k,j)new=W(k,j)old+ e*(X(k)-W(k,j)old) se neurodo vincente appartiene alla classe corretta

2) W(k,j)new=W(k,j)old- e*(X(k)-W(k,j)old) se neurodo vincente non appartiene alla classe corretta

Questo modello di rete viene denominato LVQ che sta per Learning Vector Quantization e il procedimento di aggiornamento dei pesi nel neurodo vincente viene schematizzato in fig.7.

All’idea di allontanare il vettore dei pesi del neurodo scorretto dal vettore input si è aggiunta anche quella di avvicinare il vettore dei pesi del neurodo desiderato come vincente.In questo modo la seconda formula (quella di allontanamento) vista prima deve andare in coppia con la seguente:

W(k,j)new=W(k,j)old+e*(X(k)-W(k,j)old)

con neurodo(j)=neurodo vincente desiderato

In fig.8 viene rappresentato lo schema del modello sopra descritto e comunemente chiamato LVQ2.

Luca Marchese

Successivo: Normalizzazione dell' Input

Sommario: Indice