Hay numerosos tipos de las redes neuronales artificiales (RNA).

Las redes neuronales artificiales son modelos computacionales animados por arreglos neuronales naturales y se utilizan para dar aspereza a trabajos que son oscuros. En especial, son impulsados por la conducta de las neuronas y la señal eléctrica que transmiten entre la entrada (por ejemplo, de los ojos o las terminaciones nerviosas de la mano), la manipulación y el rendimiento del cerebro (por ejemplo, la respuesta a la luz, el contacto o el calor). La forma en que las neuronas se transmiten semánticamente es una región de investigación en progreso. La mayoría de los sistemas neuronales falsos se parecen en cierta medida a sus socios naturales progresivamente intrincados, sin embargo, son extremadamente convincentes en sus asignaciones esperadas (por ejemplo, agrupación o división).
Algunos sistemas neuronales falsos son marcos versátiles y se utilizan, por ejemplo, para demostrar poblaciones y condiciones que cambian continuamente.
Los sistemas neuronales pueden ser de equipo (a las neuronas se les habla por segmentos físicos) o basados en la programación (modelos informáticos) y pueden utilizar una variedad de topologías y cálculos de aprendizaje.


Función de base radial


Las funciones de base radial son funciones que tienen una base de separación respecto a un medio. Las funciones de base radial se han aplicado como una sustitución de la capa oculta sigmoidal para mover la marca en los perceptrones de varias capas. Los sistemas de base radial tienen dos capas: En la principal, la entrada se mapea en cada RBF en la capa “oculta”. El RBF elegido es típicamente un Gaussiano. En los problemas de recaída, la capa de rendimiento es una mezcla directa de las estimaciones de la capa tapada hablando de rendimiento anticipado. La traducción del valor de esta capa de rendimiento es equivalente a un modelo de recaída en las percepciones. En cuestiones de caracterización, la capa de rendimiento es regularmente una capacidad sigmoide de una mezcla directa de estima de capas ocultas, que habla de una probabilidad de retroceso. La ejecución en los dos casos se mejora frecuentemente mediante procedimientos de reducción, conocidos como recaída de borde en las percepciones de estilo antiguo. Esto se compara con una fe anterior en pequeñas estimaciones de parámetros (y por consiguiente en capacidades de rendimiento suaves) en un sistema bayesiano.

Los sistemas de RBF tienen la ventaja de mantenerse alejados de los mínimos cercanos de forma similar a los perceptrones multicapa. Esto se debe a que los principales parámetros que se equilibran en el procedimiento de aprendizaje son la cartografía recta de la capa cubierta a la capa de rendimiento. La linealidad garantiza que la superficie del error es cuadrática y tiene un solitario efectivamente descubierto menos. En los problemas de recaída, esto se puede encontrar en una actividad de cuadrícula. En cuestiones de ordenación, la no linealidad fija que presenta la capacidad de rendimiento del sigmoide se gestiona de manera más eficaz para utilizar los mínimos cuadrados iterativamente reponderados.

Los sistemas de RBF tienen el detrimento de requerir una gran inclusión del espacio de información al extender las capacidades de las premisas. Los focos de FEB se resuelven con referencia a la dispersión de la información, pero sin referencia a la asignación de previsiones. Así pues, los bienes auténticos podrían despilfarrarse en regiones del espacio de información que no son esenciales para la empresa. Un arreglo típico es relacionar cada punto de datos con su propio interior, a pesar de que esto puede ampliar el marco directo que debe abordarse en la última capa y requiere métodos de encogimiento para abstenerse de un sobreajuste.

La conexión de cada punto de referencia con un RBF conduce normalmente a técnicas de porciones, por ejemplo, máquinas de vector de refuerzo (SVM) y procedimientos gausianos (el RBF es el trabajo de la pieza). Cada uno de los tres enfoques utiliza una capacidad de pieza no directa para extender la información al espacio donde se puede resolver el problema de aprendizaje utilizando un modelo directo. Al igual que las formas gaussianas, y en absoluto como las SVM, los sistemas de FBR se preparan regularmente en la estructura de mayor probabilidad aumentando la probabilidad (limitando el error garrafal). Los SVM se abstienen de sobreajustarse aumentando más bien un borde. Las SVM superan a los sistemas FBR en la mayoría de las aplicaciones de caracterización. En las aplicaciones de recaída, pueden centrarse en cuando la dimensionalidad del espacio de información es generalmente pequeña.

Cómo funcionan los sistemas de RBF

Los sistemas neurales RBF son hábilmente como los modelos K-Closest Neighbor (k-NN). El pensamiento fundamental es que las fuentes de información comparables producen rendimientos comparables.

Para la situación en preparación, el conjunto tiene dos factores indicadores, x e y, y la variable objetivo tiene dos clases, positiva y negativa. Dado otro caso con estimaciones de indicadores x=6, y=5,1, ¿cómo se procesa la variable objetivo?

El orden de vecindad más cercano realizado para este modelo depende de lo que se considera un número de focos vecinos. En el caso de que se utilice 1-NN y el punto más cercano sea negativo, en ese punto el nuevo punto debe clasificarse como negativo. Por otra parte, si se utiliza el orden 9-NN y se consideran los 9 más cercanos, en ese punto el impacto de los 8 focos positivos que lo rodean puede exceder el punto 9 (negativo) más cercano.

Un sistema de RBF posiciona las neuronas en el espacio representado por los factores indicadores (x,y en este modelo). Este espacio tiene el mismo número de medidas que los factores indicadores. La separación euclidiana se calcula desde el nuevo punto hasta el punto focal de cada neurona, y se aplica un trabajo de premisa extendida (RBF) (adicionalmente llamado trabajo de porción) a la separación para procesar el peso (impacto) de cada neurona. La capacidad de premisa extendida se denomina así por el hecho de que la separación de tramo es la contención de la capacidad.

Peso = RBF(distancia)
Capacidad de funciones de la base radial
El incentivo para el nuevo punto se encuentra al añadir las estimaciones de rendimiento de las capacidades de RBF duplicadas por las cargas registradas para cada neurona.
El trabajo de la premisa de propagación para una neurona tiene un interior y un barrido (también llamado propagación). El barrido puede ser distintivo para cada neurona y, en los sistemas de RBF creados por DTREG, el rango puede ser diverso en cada medición.
Con la mayor dispersión, las neuronas que se alejan de un punto tienen un impacto más prominente.