Istnieje wiele rodzajów sztuczne sieci neuronowe (ANN).

Sztuczne sieci neuronowe są modelami obliczeniowymi ożywianymi przez naturalne układy neuronowe i wykorzystywanymi do szorstkości prac, które są niejasne. W szczególności, są one napędzane przez przewodnictwo neuronów i znak elektryczny, który przekazują między wejściem (na przykład z oczu lub końcówek nerwów w dłoni), obsługi i wydajności z mózgu, (na przykład, reagując na światło, kontakt, lub ciepło). Sposób, w jaki neurony przekazują semantycznie, jest regionem postępujących badań. Większość fałszywych systemów neuronowych wygląda trochę jak ich progresywnie zawiłe naturalne partnerki, jednak są one niezwykle przekonujące do swoich oczekiwanych zadań (np. grupowanie lub podział).
Niektóre podrabiane systemy neuronowe są uniwersalnymi ramami i są wykorzystywane na przykład do demonstrowania populacji i warunków, które nieustannie się zmieniają.
Systemy neuronowe mogą być sprzętem (z neuronami rozmawiają segmenty fizyczne) lub oparte na oprogramowaniu (modele komputerowe) i mogą wykorzystywać asortyment topologii i obliczeń edukacyjnych.


Funkcja podstawy radialnej

Radialne funkcje bazowe są funkcjami, które mają podłoże separacyjne względem środka. Radialne funkcje bazowe zostały zastosowane jako substytut sigmoidalnej warstwy ukrytej w celu przeniesienia znaku towarowego w perceptronach wielowarstwowych. Systemy RBF mają dwie warstwy: Zasadniczo, dane wejściowe są mapowane na każdym RBF w warstwie “ukrytej”. Wybrany RBF jest zazwyczaj geosjańskim. W kwestiach związanych z nawrotami choroby warstwa uzysku jest bezpośrednim połączeniem szacunku dla warstwy zakrytej, co oznacza oczekiwaną wydajność. Tłumaczenie tej warty warstwy uzysku jest równoznaczne z modelem powrotu do normy. W kwestiach charakteryzacji, warstwa uzysku jest regularnie esicą prostej mieszanki ukrytych szacunków warstw, mówiących o prawdopodobieństwie powrotu. Wykonanie w tych dwóch przypadkach jest często usprawniane przez procedury skurczowe, znane jako nawrót krawędzi w starym stylu. Porównuje się to z wcześniejszą wiarą w niskie wartości parametrów (a w konsekwencji gładką wydajność) w systemie bayesowskim.

Zaletą systemów RBF jest trzymanie się z dala od pobliskich minimów, podobnie jak w przypadku perceptronów wielowarstwowych. Wynika to z faktu, że główne parametry, które są zrównoważone w procedurze uczenia się, to proste mapowanie od warstwy osłoniętej do warstwy plonu. Liniowość gwarantuje, że nieregularna powierzchnia jest kwadratowa i ma najmniej odkryty samotnik. W przypadku problemów z nawrotami, można to znaleźć w jednej czynności siatki. W kwestiach aranżacyjnych, stała nieliniowość prezentowana przez wydajność sygmoidy jest najskuteczniej zarządzana w celu wykorzystania iteracyjnie ważonych najmniejszych kwadratów.

Systemy RBF mają wadę polegającą na tym, że wymagają dużego uwzględnienia przestrzeni informacyjnej przez pojemność przesłanek rozproszonych. Zagadnienia RBF są rozwiązywane w odniesieniu do rozproszenia informacji, jednak bez odniesienia do przypisania prognozowanego. W ten sposób autentyczne aktywa mogą zostać zmarnowane w tych regionach przestrzeni informacyjnej, które nie są istotne dla przedsiębiorstwa. Typowy układ polega na powiązaniu każdego punktu odniesienia z jego własnym wnętrzem, mimo że może to rozszerzyć bezpośrednie ramy, którymi należy zająć się w ostatniej warstwie, i wymaga zastosowania metod kurczenia się, aby powstrzymać się od nadmiernego wyposażenia.

Łączenie każdego punktu odniesienia z napędami RBF zazwyczaj z technikami porcjowania, na przykład maszynami wektorowymi typu bolster (SVM) i procedurami Gaussian (RBF jest pracą częściową). Każde z tych trzech podejść wykorzystuje nie bezpośrednią pojemność części, aby rozszerzyć informacje w przestrzeń, gdzie problem uczenia się może być rozwiązany przy użyciu modelu prostego. Podobnie jak formy gaussowskie, a nie jak SVM, systemy RPC są regularnie przygotowywane w strukturze największego prawdopodobieństwa poprzez zwiększenie prawdopodobieństwa (ograniczenie błędu). SVM powstrzymują się od nadmiaru, powiększając raczej krawędź. SVM-y pokonują układy RBF w większości aplikacji charakteryzujących. W aplikacjach typu repse, mogą być one skoncentrowane, gdy wymiarowość przestrzeni informacyjnej jest na ogół niewielka.

Jak działają systemy RBF

Systemy nerwowe RBF są zręcznie podobne do modeli K-Closest Neighbor (k-NN). Podstawową myślą jest to, że porównywalne źródła informacji dają porównywalne plony.

Dla przygotowywanej sytuacji zestaw ma dwa czynniki wskaźnikowe, x i y, a zmienna obiektywna ma dwie klasy, dodatnią i ujemną. Biorąc pod uwagę inny przypadek z ocenami wskaźników x=6, y=5,1, jak jest przetwarzana zmienna obiektywna?

Kolejność najbliższych sąsiadów wykonywana dla tego modelu zależy od tego, jaka liczba sąsiednich skupisk jest brana pod uwagę. W przypadku, gdy 1-NN jest wykorzystany, a najbliższy punkt jest ujemny, w tym momencie nowy punkt powinien być sklasyfikowany jako ujemny. Z drugiej strony, jeśli wykorzystamy kolejność 9-NN i uwzględnimy najbliższe 9, to w tym momencie wpływ objęcia 8 pozytywnych ognisk może przekroczyć najbliższy 9 (negatywny) punkt.

System RBF pozycjonuje neurony w przestrzeni przedstawionej przez czynniki wskaźnikowe (x,y w tym modelu). Przestrzeń ta ma taką samą liczbę pomiarów jak czynniki wskaźnikowe. Separacja euklidesowa jest obliczana od nowego punktu do punktu ogniskowego każdego neuronu, a do separacji stosuje się rozproszoną pracę przesłanek (RBF) (dodatkowo nazywaną pracą porcyjną) w celu przetworzenia masy (oddziaływania) dla każdego neuronu. Pojemność przesłanki rozpiętości jest tak nazwana na tej podstawie, że separacja rozpiętości jest kontrargumentem do pojemności.

Waga = RBF(odległość)
Pojemność funkcji podstawy radialnej
Bodźcem dla nowego punktu jest dodanie szacunków wydajności KDM zdublowanych przez ładunki zarejestrowane dla każdego neuronu.
Założenia dotyczące rozpiętości neuronów mają swoje wnętrze i zasięg (zwane również rozpiętością). Przesuw ten może być charakterystyczny dla każdego neuronu, a w systemach RBF stworzonych przez DTREG zakres może być różny w każdym pomiarze.
Przy większym rozstawie neuronów, dobre odejście od punktu ma większy wpływ.