Il existe de nombreux types de réseaux de neurones artificiels (ANN).

Réseaux de neurones artificiels sont des modèles de calcul animés par des arrangements neuronaux naturels et sont utilisés pour rendre rugueux des travaux obscurs. Ils sont notamment propulsés par la conduite des neurones et le signe électrique qu’ils transmettent entre l’entrée (par exemple, à partir des yeux ou des terminaisons nerveuses de la main), la manipulation et la sortie du cerveau (par exemple, en réagissant à la lumière, au contact ou à la chaleur). La manière dont les neurones transmettent sémantiquement est un domaine où la recherche progresse. La plupart des faux systèmes neuronaux ressemblent quelque peu à leurs partenaires naturels de plus en plus complexes, mais ils sont extrêmement convaincants dans les missions qu’on leur confie (par exemple, le regroupement ou la division).
Certains systèmes neuronaux contrefaits sont des cadres polyvalents et sont utilisés par exemple pour démontrer des populations et des conditions qui changent continuellement.
Les systèmes neuronaux peuvent être des équipements (les neurones sont parlés par des segments physiques) ou basés sur la programmation (modèles informatiques) et peuvent utiliser un assortiment de topologies et de calculs d’apprentissage.


Fonction de base radiale


Les fonctions de base radiale sont des fonctions qui ont un fondement de séparation par rapport à un milieu. Les fonctions de base radiales ont été appliquées en remplacement de la couche cachée sigmoïdale pour déplacer la marque dans les perceptrons multicouches. Les systèmes RBF ont deux couches : Dans le principal, l’entrée est cartographiée sur chaque RBF dans la couche “cachée”. Le RBF choisi est généralement un Gaussien. Dans les cas de rechute, la couche de rendement est un mélange direct d’estime de la couche cachée parlant de rendement moyen anticipé. La traduction de cette valeur de la couche de rendement est équivalente à un modèle de rechute en termes de connaissances. Dans les questions de caractérisation, la couche de rendement est régulièrement une capacité sigmoïde d’un mélange direct d’estimations de la couche cachée, parlant d’une probabilité de retour. Dans les deux cas, l’exécution est fréquemment améliorée par des procédures de rétrécissement, connues sous le nom de “edge relapse” (rechute des bords) dans les aperçus à l’ancienne. Cela se compare à une foi antérieure dans les petites estimations de paramètres (et par conséquent dans les capacités de rendement lisse) dans un système bayésien.

Les systèmes RBF ont l’avantage de ne pas s’approcher des minima proches, comme les perceptrons multicouches. Cela s’explique par le fait que les principaux paramètres qui sont équilibrés dans la procédure d’apprentissage sont la cartographie directe de la couche enveloppée à la couche de rendement. La linéarité garantit que la surface de la bévue est quadratique et qu’elle a un solitaire effectivement le moins découvert. Dans les cas de rechute, cela peut être trouvé dans une activité de la grille. Dans les problèmes d’arrangement, la non-linéarité fixe présentée par la capacité de rendement sigmoïde est gérée le plus efficacement en utilisant les moindres carrés itérativement re-pondérés.

Les systèmes RBF ont le désavantage d’exiger une grande inclusion de l’espace d’information par des capacités de prémisse étendues. Les priorités de la RBF sont résolues en référence à la dispersion de l’information, mais sans référence à l’affectation des prévisions. Ainsi, des actifs authentiques pourraient être dilapidés sur des régions de l’espace d’information qui ne sont pas essentielles à l’entreprise. Un arrangement typique consiste à relier chaque point de référence avec son propre intérieur, malgré le fait que cela peut étendre le cadre direct à aborder dans la dernière couche et nécessite des méthodes de rétrécissement pour éviter le suréquipement.

La connexion de chaque point de référence avec un RBF conduit normalement à des techniques de portionnement, par exemple, des machines à vecteur de soutien (SVM) et des procédures gaussiennes (le RBF est le travail partiel). Chacune des trois approches utilise une capacité de pièce non directe pour étendre l’information dans l’espace où la question de l’apprentissage peut être réglée en utilisant un modèle droit. Comme les formes gaussiennes, et pas du tout comme les MVS, les systèmes RBF sont régulièrement préparés dans la structure de probabilité la plus élevée en augmentant la probabilité (en limitant la bévue). Les MVS s’abstiennent de surajuster en augmentant plutôt un bord. Les MVS surpassent les systèmes RBF dans la plupart des applications de caractérisation. Dans les applications de rechute, ils peuvent se concentrer sur les cas où la dimensionnalité de l’espace d’information est généralement faible.

Comment fonctionnent les systèmes RBF

Les systèmes neuronaux RBF sont adroitement comme les modèles K-Closest Neighbor (k-NN). L’idée fondamentale est que des sources d’information comparables produisent des rendements comparables.

Pour la situation en préparation, l’ensemble a deux facteurs indicateurs, x et y, et la variable objective a deux classes, positive et négative. Dans un autre cas, où les estimations des indicateurs sont x=6, y=5,1, comment la variable objective est-elle traitée ?

L’ordre du plus proche voisin effectué pour ce modèle dépend de ce qu’un certain nombre de foyers voisins sont pris en compte. Dans le cas où 1-NN est utilisé et que le point le plus proche est négatif, le nouveau point doit alors être classé comme négatif. D’autre part, si l’ordre 9-NN est utilisé et que les 9 points les plus proches sont pris en compte, à ce stade, l’impact des 8 points positifs englobants peut dépasser le point 9 (négatif) le plus proche.

Un système RBF positionne les neurones dans l’espace représenté par les facteurs indicateurs (x,y dans ce modèle). Cet espace a le même nombre de mesures que les facteurs indicateurs. La séparation euclidienne est représentée du nouveau point au point focal de chaque neurone, et un travail de prémisse généralisée (RBF) (appelé également travail de portion) est appliqué à la séparation pour traiter le poids (impact) de chaque neurone. La capacité de la prémisse de dispersion est ainsi nommée parce que la séparation de la portée est la contestation de la capacité.

Poids = RBF(distance)
Capacité des fonctions de base radiales
L’intérêt de ce nouveau point réside dans l’addition des estimations de rendement des capacités RBF dupliquées par les charges enregistrées pour chaque neurone.
Le travail de base d’un neurone a un intérieur et un balayage (également appelé spread). Le balayage peut être distinct pour chaque neurone et, dans les systèmes de RBF créés par le DTREG, l’étendue peut être différente pour chaque mesure.
Plus l’écart est grand, plus les neurones situés à bonne distance d’un point ont un impact important.