Es gibt zahlreiche Arten von künstliche neuronale netze (ANN).

Künstliche neuronale Netze sind Rechenmodelle, die durch natürliche neuronale Anordnungen belebt werden und dazu dienen, undurchsichtige Werke aufzurauen. Insbesondere werden sie durch das Verhalten von Neuronen und die elektrischen Zeichen angetrieben, die sie zwischen Eingabe (z.B. von den Augen oder Nervenenden in der Hand), Handhabung und Ertrag aus dem Großhirn (z.B. Reaktion auf Licht, Kontakt oder Wärme) weitergeben. Die Art und Weise, in der Neuronen semantisch vermitteln, ist ein Gebiet der fortschreitenden Forschung. Die meisten gefälschten neuronalen Systeme sehen ihren progressiv komplizierten natürlichen Partnern ähnlich, sind jedoch bei ihren erwarteten Aufgaben (z.B. Gruppierung oder Teilung) äußerst überzeugend.
Einige gefälschte neuronale Systeme sind vielseitige Gerüste und werden z.B. dazu verwendet, Populenz und Bedingungen aufzuzeigen, die sich ständig ändern.
Neuronale Systeme können geräte- (Neuronen werden von physischen Segmenten angesprochen) oder programmierungsbasiert (Computermodelle) sein und können eine Reihe von Topologien und Lernberechnungen verwenden.


Radiale Basisfunktion

Radiale Basisfunktionen sind Funktionen, die eine Trennungsgrundlage bezüglich einer Mitte haben. Radiale Basisfunktionen wurden als Ersatz für die sigmoidale verdeckte Schicht angewandt, um die Marke in mehrschichtigen Wahrnehmungen zu bewegen. RBF-Systeme haben zwei Schichten: Im Prinzip wird die Eingabe auf jede RBF in der “verdeckten” Schicht abgebildet. Die ausgewählte RBF ist typischerweise eine Gaußsche Schicht. Bei Rückfallproblemen ist die Ertragsschicht eine direkte Mischung aus verdeckten Schichtschätzungen, die sich auf den mittleren erwarteten Ertrag beziehen. Die Übersetzung dieses Ertragsschichtwertes entspricht in der Einsicht einem Rückfallmodell. In Charakterisierungsfragen ist die Fließschicht regelmäßig eine sigmoide Kapazität einer geraden Mischung von verdeckten Schichtwerten, die mit einer Rückwahrscheinlichkeit sprechen. Die Ausführung in den beiden Fällen wird häufig durch Schrumpfungsverfahren verbessert, die in den Erkenntnissen alten Stils als Kantenrezidiv bezeichnet werden. Dies steht im Vergleich zu einem früheren Glauben an geringe Parameterschätzungen (und folglich glatte Ertragskapazitäten) in einem Bayes’schen System.

RBF-Systeme haben den Vorteil, dass sie sich ähnlich wie mehrschichtige Perceptrons von nahen Minima fernhalten. Dies wird damit begründet, dass die wichtigsten Parameter, die im Lernverfahren ausgewogen sind, die direkte Abbildung von der Ummantelungsschicht auf die Ertragsschicht sind. Die Linearität garantiert, dass die Stolperfläche quadratisch ist und eine Solitärfläche hat, die effektiv am wenigsten entdeckt wird. Bei Rückfallproblemen kann dies in einer Gitteraktivität gefunden werden. Bei Anordnungsproblemen wird die feste Nichtlinearität, die durch die sigmoide Fließfähigkeit dargestellt wird, am effektivsten durch iterativ nachgewichtete kleinste Quadrate ausgenutzt.

RBF-Systeme haben den Nachteil, dass sie eine große Einbeziehung des Informationsraumes durch ausgelagerte Raumkapazitäten erfordern. RBF-Schwerpunkte werden in Bezug auf die Streuung der Information aufgelöst, jedoch ohne Bezug auf die prognostische Zuordnung. Auf diese Weise könnten authentische Vermögenswerte in Regionen des Informationsraums verschwendet werden, die für das Unternehmen nicht wesentlich sind. Eine typische Anordnung besteht darin, jeden Datenpunkt mit seinem ganz eigenen Inneren in Beziehung zu setzen, obwohl dies den direkten Rahmen, der in der letzten Schicht angegangen werden soll, erweitern kann und Schrumpfungsmethoden erfordert, um eine Überanpassung zu vermeiden.

Die Verbindung jedes Infodatums mit einer RBF führt normalerweise zu Portionstechniken, z.B. Polster-Vektor-Maschinen (SVM) und Gaußschen Verfahren (die RBF ist die Teilarbeit). Jeder der drei Ansätze verwendet eine nicht-direkte Teilarbeit, um die Informationen in den Raum zu erweitern, wo das Lernproblem mit Hilfe eines geraden Modells gelöst werden kann. Wie Gauß’sche Formen, und überhaupt nicht wie SVMs, werden RBF-Systeme regelmäßig in der Struktur der größten Wahrscheinlichkeit vorbereitet, indem die Wahrscheinlichkeit erhöht wird (Begrenzung des Fehlers). SVMs verzichten auf eine Überanpassung, indem sie eher einen Rand vergrößern. SVMs schlagen RBF-Anordnungen in den meisten Charakterisierungsanwendungen. Bei Rückfallanwendungen können sie dann eingesetzt werden, wenn die Dimensionalität des Informationsraums im Allgemeinen klein ist.

Wie RBF-Systeme funktionieren

Neuronale Systeme der RBF sind gewandt wie K-Closest Neighbor (k-NNN)-Modelle. Der Grundgedanke ist, dass vergleichbare Informationsquellen vergleichbare Erträge produzieren.

Für die in Vorbereitung befindliche Situation hat der Satz zwei Indikatorfaktoren, x und y, und die Zielvariable hat zwei Klassen, positive und negative. In einem anderen Fall mit den Indikatorwerten x=6, y=5,1, wie wird die objektive Variable verarbeitet?

Die für dieses Modell durchgeführte Reihenfolge der engsten Nachbarn hängt davon ab, was eine Reihe von benachbarten Schwerpunkten berücksichtigt wird. Für den Fall, dass 1-NN verwendet wird und der nächstgelegene Punkt negativ ist, sollte der neue Punkt an diesem Punkt als negativ klassifiziert werden. Wenn andererseits die Ordnung 9-NN verwendet wird und die nächstgelegenen 9 in Betracht gezogen werden, kann an diesem Punkt die Auswirkung der 8 positiven Fokusse den nächstgelegenen 9 (negativen) Punkt übersteigen.

Ein RBF-System positioniert Neuronen in dem durch die Indikatorfaktoren (x,y in diesem Modell) dargestellten Raum. Dieser Raum hat die gleiche Anzahl von Messungen wie die Indikatorfaktoren. Die euklidische Separation wird vom neuen Punkt bis zum Brennpunkt jedes Neurons abgebildet, und auf die Separation wird eine “outspread premise work” (RBF) (zusätzlich als Portionsarbeit bezeichnet) angewendet, um das Gewicht (Impact) für jedes Neuron zu verarbeiten. Die Kapazität der Outspread Premise wird deshalb so genannt, weil die Spannweitenseparation der Streit um die Kapazität ist.

Gewicht = RBF(Abstand)
Kapazität der radialen Basisfunktionen
Der Anreiz für den neuen Punkt ergibt sich aus der Addition der Ertragsschätzungen der RBF-Kapazitäten, die durch die für jedes Neuron registrierten Belastungen verdoppelt werden.
Die ausgeweitete Prämissenarbeit für ein Neuron hat eine Innenseite und einen Sweep (ebenfalls als Spread bezeichnet). Der Sweep kann für jedes Neuron charakteristisch sein, und bei RBF-Systemen, die von DTREG erstellt werden, kann der Bereich bei jeder Messung unterschiedlich sein.
Mit der größeren Streuung haben Neuronen, die weit von einem Punkt entfernt sind, einen stärkeren Einfluss.