Существует множество видов Искусственные нейронные сети(ANN).
Искусственные нейронные сети представляют собой вычислительные модели, оживленные естественными нейронными расстановками, и используются для подтасовки непонятных работ. В частности, они приводятся в движение поведением нейронов и электрическим знаком, который они передают между входами (например, из глаз или нервных окончаний в руке), обработкой и выходом из головного мозга (например, реагируя на свет, контакт или тепло). Способ, которым нейроны семантически передают, является областью прогрессирующих исследований. Большинство поддельных нейронных систем выглядят в некоторой степени как их постепенно усложняющиеся естественные партнёры, однако, чрезвычайно убедительны в своих ожидаемых задачах (например, группировка или деление).
Некоторые поддельные нейронные системы являются универсальными каркасами и используются, например, для демонстрации популяции и условий, которые постоянно меняются.
Нейронные системы могут быть оборудованными (с нейронами разговаривают физические сегменты) или основанными на программировании (компьютерные модели) и могут использовать различные топологии и вычисления для обучения.
Функция радиальной основы
Функции радиальной основы – это функции, которые имеют разделительный фундамент относительно середины. Функции радиальной основы были применены в качестве замены сигмовидного скрытого слоя для перемещения товарного знака в многослойных перцептронах. Системы RBF имеют два слоя: В принципе, входной сигнал наносится на каждый RBF в “скрытом” слое. Выбранный RBF, как правило, гауссовский. В вопросах рецидива, слой выхода представляет собой прямую смесь из замаскированного слоя, говорящую о среднем ожидаемом выходе. Трансляция этого слоя урожайности эквивалентна модели рецидива в понимании. В вопросах характеристики слой урожайности регулярно представляет собой сигмовидную способность прямой смеси скрытых слоев, говорящей о вероятности обратного хода. Выполнение в этих двух случаях часто улучшается с помощью процедур усадки, известных как краевой рецидив в понимании старого стиля. Это сравнимо с более ранней верой в малое уважение к параметрам (и, следовательно, способность к плавному выходу) в байесовской системе.
У систем Байесовской фильтрации есть положительная сторона, заключающаяся в том, что они держатся подальше от близлежащих минимумов, так же как и многослойные перцептроны. Это основано на том, что основными параметрами, которые сбалансированы в процессе обучения, являются прямое отображение от зачехленного слоя до слоя урожайности. Линейность гарантирует, что протухшая поверхность является квадратичной и имеет в наименьшей степени уединенную, эффективно обнаруженную. В вопросах рецидива это можно найти в одной активности решетки. В вопросах расположения, фиксированная нелинейность, представленная сигмовидной производительностью, наиболее эффективно управляется для использования итеративно перетянутых наименьших квадратов.
Системы БОР наносят ущерб требованию о большом включении в информационное пространство широких возможностей помещения. Фокусы РФП разрешаются со ссылкой на дисперсию информации, но без привязки к заданию прогноза. Таким образом, аутентичные активы могут быть растрачены на несущественные для предприятия регионы информационного пространства. Типичная схема заключается в том, чтобы связать каждую точку отсчета с ее собственным внутренним пространством, несмотря на то, что это может продлить прямой каркас, который должен быть обработан в последнем слое, и требует методов усадки, чтобы воздержаться от переосмысления.
Соединение каждой информационной точки с дисками RBF, как правило, с методами порционирования, например, с помощью векторных машин (SVM) и процедур Гаусса (RBF – это часть работы). Каждый из этих трех подходов использует не прямую порцию для распространения информации в пространстве, где проблема обучения может быть решена с помощью прямой модели. Как и гауссовские формы, и совсем не так, как SVM, системы БОР регулярно подготавливаются в структуре наибольшей вероятности путем повышения вероятности (ограничения промаха). СВМ воздерживаются от переподготовки за счет увеличения вероятности (ограничения промаха). БОР в большинстве приложений для характеризации. В рецидивирующих приложениях они могут быть ориентированы, когда размерность информационного пространства, как правило, мала.
Как работают системы RBF
Нейронные системы RBF ловко похожи на модели K-Closeest Neighbor (k-NN). Фундаментальная мысль заключается в том, что сопоставимые источники информации дают сопоставимые урожаи.
Для ситуации в подготовке набор имеет два индикаторных фактора, х и у, а объективная переменная имеет два класса, положительный и отрицательный. Учитывая еще один случай с оценкой индикатора x=6, y=5.1, как обрабатывается объективная переменная?
Порядок ближайших соседей, выполняемый для данной модели, зависит от того, какое количество соседних фокусов учитывается. В случае, если используется 1-NN, а ближайшая точка является отрицательной, то новую точку следует классифицировать как отрицательную. С другой стороны, если используется порядок 9-NN и учитывается ближайшая 9, то в этот момент влияние охватывающих 8 положительных фокусов может превысить ближайшую 9 (отрицательную) точку.
Система БОР позиционирует нейроны в пространстве, представленном индикаторными факторами (x,y в данной модели). Это пространство имеет такое же количество измерений, что и индикаторные факторы. Разделение евклидов показано от новой точки к фокусу каждого нейрона, а для обработки веса (воздействия) для каждого нейрона при разделении используется широко распространенная посылочная работа (БОР) (дополнительно называемая порционной работой). Распространенная работоспособность помещения называется так на основании того, что разделение пролета является борьбой с работоспособностью.
Вес = RBF (расстояние)
Мощность функций радиальной основы
Стимулом для новой точки является добавление оценок урожайности мощностей РБМ, дублированных нагрузками, регистрируемыми для каждого нейрона.
Широко распространенная предпосылка работы нейрона имеет внутреннюю и развертку (так называемый спрэд). Свип может быть характерен для каждого нейрона, и в системах БОР, созданных с помощью DTREG, диапазон может быть различным для каждого измерения.
При большем разбросе, нейроны с хорошим удалением от точки оказывают более заметное влияние.