Esistono numerosi tipi di reti neurali artificiali (RNA).

Le reti neurali artificiali sono modelli computazionali animati da disposizioni neurali naturali e sono utilizzati per irruvidire opere oscure. In particolare, sono spinti dalla condotta dei neuroni e dal segno elettrico che trasmettono tra un ingresso e l’altro (per esempio, dagli occhi o dalle terminazioni nervose della mano), dalla manipolazione e dalla resa del cervelletto (per esempio, rispondendo alla luce, al contatto o al calore). Il modo in cui i neuroni trasmettono semanticamente è una regione di ricerca in progresso. La maggior parte dei falsi sistemi neurali assomigliano in qualche modo ai loro partner naturali progressivamente intricate, tuttavia, sono estremamente convincenti per i loro compiti previsti (per esempio il raggruppamento o la divisione).
Alcuni sistemi neurali contraffatti sono strutture versatili e vengono utilizzati, ad esempio, per dimostrare la popolarità e le condizioni che cambiano continuamente.
I sistemi neurali possono essere apparecchiature (i neuroni sono parlati da segmenti fisici) o basati sulla programmazione (modelli informatici) e possono utilizzare un assortimento di topologie e calcoli di apprendimento.


Funzione di base radiale

Le funzioni di base radiale sono funzioni che hanno un fondamento di separazione rispetto ad un mezzo. Le funzioni di base radiale sono state applicate in sostituzione dello strato sigmoidale nascosto per spostare il marchio di fabbrica nei percotroni multistrato. I sistemi RBF hanno due strati: Nel principale, l’input è mappato su ogni RBF nello strato “coperto”. L’RBF scelto è tipicamente un gaussiano. Nei problemi di ricaduta, lo strato di rendimento è una miscela diretta di stime di strato avvolto che parla di rendimento previsto. La traduzione del valore di questo strato di rendimento è equivalente a un modello di ricaduta in intuizioni. Nei problemi di caratterizzazione, lo strato di rendimento è regolarmente una capacità sigmoida di una miscela diretta di stime di strato nascosto, che parla di una probabilità di ritorno. L’esecuzione nei due casi è spesso migliorata da procedure di restringimento, note come ricaduta dei bordi nelle intuizioni di vecchio stile. Ciò si paragona ad una precedente fiducia in una scarsa stima dei parametri (e di conseguenza in una capacità di resa regolare) in un sistema bayesiano.

I sistemi RBF hanno il vantaggio di stare lontani dai minimi vicini in modo simile ai sistemi di percezione multistrato. Ciò è dovuto al fatto che i parametri principali che sono bilanciati nella procedura di apprendimento sono la mappatura rettilinea dallo strato avvolto allo strato di rendimento. La linearità garantisce che la superficie dell’errore sia quadratica e che abbia una superficie solitaria effettivamente scoperta come minimo. Nei problemi di ricaduta, questo può essere trovato in un’attività di griglia. Nei problemi di disposizione, la non linearità fissa presentata dalla capacità di rendimento del sigmoide è gestita nel modo più efficace per utilizzare i quadrati minimi ponderati iterativamente.

I sistemi RBF hanno l’inconveniente di richiedere una grande inclusione dello spazio informativo da parte delle capacità di premessa diffuse. I focus RBF sono risolti con riferimento alla dispersione delle informazioni, senza però fare riferimento all’assegnazione delle previsioni. In tal modo, i beni autentici potrebbero essere sperperati in regioni dello spazio informativo che non sono essenziali per l’impresa. Una disposizione tipica è quella di mettere in relazione ogni punto di riferimento con il proprio interno, nonostante ciò possa estendere il quadro diretto da affrontare nell’ultimo strato e richieda metodi di restringimento per evitare l’overfitting.

Collegando ogni datum informativo con un RBF, si ricorre normalmente a tecniche di porzionatura, ad esempio, alle macchine vettoriali di rinforzo (SVM) e alle procedure gaussiane (l’RBF è il lavoro del pezzo). Ognuno dei tre approcci utilizza una capacità non diretta del pezzo per estendere le informazioni nello spazio dove il problema di apprendimento può essere risolto utilizzando un modello rettilineo. Come le forme gaussiane, e non come le SVM, i sistemi RBF sono regolarmente preparati nella struttura di maggiore probabilità aumentando la probabilità (limitando l’errore). Le SVM si astengono dall’esagerare aumentando piuttosto un margine. Le SVM battono gli accordi RBF nella maggior parte delle applicazioni di caratterizzazione. Nelle applicazioni a ricaduta, possono essere focalizzate quando la dimensionalità dello spazio informativo è generalmente piccola.

Come funzionano i sistemi RBF

I sistemi neurali RBF sono in perfetta sintonia con i modelli K-Closest Neighbor (k-NN). Il pensiero fondamentale è che fonti di informazione comparabili producono rendimenti comparabili.

Per la situazione in preparazione, l’insieme ha due fattori indicatori, x e y, e la variabile obiettivo ha due classi, positiva e negativa. Dato un altro caso con le stime degli indicatori x=6, y=5.1, come viene elaborata la variabile oggettiva?

L’ordine più vicino eseguito per questo modello si basa su ciò che viene considerato un certo numero di focus vicini. Nel caso in cui venga utilizzato 1-NN e il punto più vicino sia negativo, a quel punto il nuovo punto dovrebbe essere classificato come negativo. D’altra parte, se si utilizza l’ordine 9-NNN e si considera il punto più vicino 9, in quel punto l’impatto dei focus positivi che comprendono 8 focus positivi può superare il punto più vicino 9 (negativo).

Un sistema RBF posiziona i neuroni nello spazio rappresentato dai fattori indicatori (x,y in questo modello). Questo spazio ha lo stesso numero di misurazioni dei fattori indicatori. La separazione euclidea è rappresentata dal nuovo punto al punto focale di ogni neurone, e un lavoro di premessa diffusa (RBF) (chiamato anche lavoro di porzione) è applicato alla separazione per elaborare il peso (impatto) per ogni neurone. La capacità della premessa fuoriuscita è così chiamata per il fatto che la separazione della campata è la contesa alla capacità.

Peso = RBF (distanza)
Capacità delle funzioni di base radiale
L’incentivo per il nuovo punto si trova aggiungendo le stime di rendimento delle capacità RBF duplicate dai carichi registrati per ogni neurone.
Il lavoro di premessa per un neurone ha un interno e uno sweep (chiamato anche spread). Lo sweep potrebbe essere distintivo per ogni neurone, e, nei sistemi RBF creati da DTREG, la gamma potrebbe essere diversa in ogni misura.
Con la maggiore diffusione, i neuroni che si allontanano da un punto hanno un impatto più prominente.