https://miro.medium.com/max/560/1*G8IuVJHcNoanmQvQIGcwsQ.png
Добро пожаловать на второй жертвоприносящий камень Обучения Поднадзорных Машин. Еще раз, эта секция разделена на две секции. Раздел 1 (этот) рассматривает гипотезу, параметры работы и настройки. Раздел 2 (здесь) мы берем на себя небольшие проблемы, связанные с кодированием.

В случае, если вы не читали Naive Bayes, я бы предложил вам внимательно ознакомиться с ним здесь.

0. Введение

A Support Vector Machine (SVM) – дискриминирующий классификатор, официально характеризующийся изолирующей гиперплоскостью. В конце концов, учитывая названную подготовительную информацию (администрируемое обучение), вычисление дает идеальную гиперплоскость, которая организует новые модели. В двухмерном пространстве эта гиперплоскость представляет собой линию, изолирующую плоскость на две секции, где в каждом классе лежат по обе стороны.

https://miro.medium.com/max/600/1*BpeH5_M58kJ5xXfwzxI8yA.png

Возможно, вы подумали о чем-то вроде “после” (фото Б). Это прилично изолирует два класса. Любая точка слева от линии попадает в класс темного круга, а справа – в класс синего квадрата. Отделение классов. Это то, что делает SVM. Она обнаруживает линию/гиперплоскость (в многомерном пространстве, которое превосходит классы). Без лишних слов мы поговорим о том, почему я сочинил многомерное пространство.

1. Сделав его Битовым комплексом…

До сих пор никаких проблем. Сейчас подумайте о том, чтобы представить себе сценарий, в котором у нас была информация, как на картинке внизу. Неоспоримо, что в этой плоскости x-y нет линии, которая могла бы изолировать два класса. Так что же нам делать? Мы применим изменение и включим еще одно измерение, как мы его называем z-hub. Примем оценку фокуса на z плоскости, w = x² + y². Для этой ситуации мы можем управлять ею как отделением точки от z-инцепции. В настоящее время в случае, если мы рисуем в z-поверхности, то разделение безошибочно и можно нарисовать линию.

https://miro.medium.com/max/600/1*C3j5m3E3KviEApHKleILZQ.png

https://miro.medium.com/max/600/1*FLolUnVUjqV0EGm3CYBPLw.png

Когда мы преобразовываем эту линию обратно в исходную плоскость, она переходит в круговую границу, как показано на рисунке E. Эти преобразования называются ядрами.

2. Делая это немного сложнее…

Что делать, если график данных перекрывается? Или, что если некоторые черные точки находятся внутри синих? Какую линию среди 1 или 2?

Как вы думаете, какую? Все продумано, оба варианта ответа верны. Первая выдерживает некоторые фокусы исключения. Последующий пытается достичь 0 устойчивости с безупречным сегментом.

В любом случае, происходит обмен. В засвидетельствованном применении, открытие идеального класса для многих готовящих информационный индекс занимает часть времени. Как вы найдете в кодировании. Это называется параметром регуляризации. В следующем сегменте мы характеризуем два термина параметр регуляризации и гамма. Это параметры регуляризации в классификаторе SVM. Сдвигая их, мы можем получить обширную прямую линию порядка с большей точностью за разумный промежуток времени. В упражнении по кодированию (раздел 2 этой части) мы рассмотрим, как мы можем построить точность SVM, настроив эти параметры.

Еще один параметр – это часть. Он характеризует, нужна ли нам прямая прямого деления. Об этом же говорится и в следующей части.

Настройка параметров: Часть, Регулировка, Гамма и Край.

Пьеса

Изучение гиперплоскости в прямом SVM заканчивается изменением проблемы с помощью некоторых математических расчетов на основе прямых переменных. Это то место, где часть берет на себя задание.

Для прямой части условие ожидания другой информации, использующей элемент dab между информацией (x) и каждым вектором помощи (xi), определяется как задание:

Параметры настройки: Часть, Регуляризация, Гамма и Край.

Часть

Изучение гиперплоскости в прямом SVM заканчивается изменением проблемы с помощью некоторых математических расчетов на основе прямых переменных. Это то место, где задание берется на себя.

Для прямого бита условие для ожидания другой информации, использующей пятно между информацией (x) и каждым вектором помощи (xi), определяется как преследование:

f(x) = B(0) + сумма (ai * (x,xi))

Это условие включает в себя определение внутренних результатов другого информационного вектора (x) со всеми вспомогательными векторами при подготовке информации. Коэффициенты B0 и ai (для каждой информации) должны быть оценены из подготовительной информации путем расчета обучения.

Многочленная часть может быть составлена как K(x,xi) = 1 + сумма(x * xi)^d и экспоненциальная как K(x,xi) = exp(- гамма * сумма((x – xi²)). [Источник для этой части : http://machinelearningmastery.com/].

Полиномиальная и экспоненциальная части определяют линию раздела при более высоком измерении. Это называется поштучным трюком

Регуляризация

Параметр регуляризации (часто называемый параметром С в библиотеке питона sklearn) говорит SVM об оптимизации суммы, которую необходимо воздержаться от неправильной классификации каждой модели подготовки.

https://miro.medium.com/max/600/1*1dwut8cWQ-39POHV48tv4w.png

https://miro.medium.com/max/600/1*gt_dkcA5p0ZTHjIpq1qnLQ.png

Для огромных оценок C, оптимизация будет выбирать малый края гипер-плоскости, если эта гипер-плоскость делает превосходную демонстрацию получения всех фокусов подготовки расположен точно. С другой стороны, исключительно низкая оценка C приведет к тому, что анализатор будет искать изолирующую гиперплоскость с большим краем, независимо от того, будет ли эта гиперплоскость неправильно классифицировать большее количество фокусов.

Картинки внизу (как на картинке 1 и картинке 2 в области 2) являются случаем двух различных параметров регуляризации. Левый параметр имеет некоторую неправильную классификацию из-за более низкой оценки регуляризации. Более высокое значение дает такие же результаты, как и правое.

Гамма

Гамма-параметр характеризует, насколько далеко зайдет влияние модели одиночной подготовки, при этом низкие качества означают “далеко”, а высокие – “близко”. Таким образом, при низкой гамме, фокусировка далеко от мыслимой линии разделения учитывается при расчете для линии разделения. В тех случаях, когда высокая гамма подразумевает, что фокус, близкий к мыслимой линии, учитывается в оценке.

Маржа

И, наконец, последняя, но очень важная черта классификатора SVM. SVM к центру пытается достичь приличного преимущества.

Край – это разделение линии на ближайший фокус класса.

Приличная граница – это граница, где этот раздел больше для обоих классов. Рисунки под ними дают визуальные примеры хорошей и ужасной грани. Приличная граница позволяет фокусам находиться в своих классах без пересечений с другим классом.