Aus diesem Modell lässt sich tendenziell ableiten, dass ein direkter Rückfall für Ordnungsfragen nicht geeignet ist. Der direkte Rückfall ist grenzenlos, und dies bringt einen berechneten Rückfall ins Bild. Ihr Wert geht vorsichtig von 0 bis 1.

Grundlegender strategischer Rückfall

(Vollständiger Quellcode: https://github.com/SSaishruthi/LogisticRegression_Vectorized_Implementation/mass/ace/Logistic_Regression.ipynb)

Modell

Ertrag = 0 oder 1

Theorie => Z = WX + B

hθ(x) = sigmoid (Z)

Für den unwahrscheinlichen Fall, dass ‘Z’ in die Grenzenlosigkeit geht, erhält Y(vorhergesagt) 1, und wenn ‘Z’ in die negative Grenzenlosigkeit geht, erhält Y(vorhergesagt) 0.

Prüfung der Theorie

Der Ertrag aus der Spekulation ist die geschätzte Wahrscheinlichkeit. Diese wird verwendet, um zu ermitteln, wie sicher der zu erwartende Wert ein realer Wert ist, wenn man eine Information X gibt. Betrachten Sie das untenstehende Modell,

X = [x0 x1] = [1 IP-Adresse]

In Anbetracht der x1 Wertschätzung nehmen wir an, dass die Wahrscheinlichkeit auf 0,8 geschätzt wird. Daraus ergibt sich eine Wahrscheinlichkeit von 80%, dass es sich bei einer E-Mail um Spam handelt.

Wissenschaftlich kann dies komponiert werden als,

Abbildung 3: Wissenschaftliche Darstellung

Dies legitimiert die Bezeichnung “strategischer Rückfall”. Die Informationen werden in ein direktes Rückfallmodell eingepasst, dem zu diesem Zeitpunkt eine berechnete Kapazität folgt, die die objektive Kahlschlag-Stationsvariable vorwegnimmt.

Arten des strategischen Rückfalls

1. Zweifacher strategischer Rückfall

Die regelrechte Reaktion hat nur zwei 2 mögliche Ergebnisse. Modell: Spam oder nicht

2. Multinomialer strategischer Rückfall

Mindestens drei Klassen ohne Antrag. Modell: Antizipieren, welche Ernährung mehr bevorzugt wird (Veg, Non-Veg, Vegetarier)

3. Ordinaler strategischer Rückfall

Mindestens drei Klassen mit Antragstellung. Modell: Filmbewertung von 1 bis 5

Auswahlbegrenzung

Um vorauszusehen, welche Klasseninformationen einen Platz haben, kann eine Grenze gesetzt werden. Anhand dieser Grenze wird die erworbene bewertete Wahrscheinlichkeit in Klassen charakterisiert.

Geben Sie für den unwahrscheinlichen Fall, dass predicted_value ≥ 0,5 ist, an diesem Punkt an, dass E-Mails als Spam oder nicht als Spam eingestuft werden.

Die Auswahlgrenze kann direkt oder nicht direkt sein. Polynomische Anfragen können erweitert werden, um eine verblüffende Auswahlmöglichkeit zu erhalten.

Kosten-Funktion

Warum kann Kostenarbeit, die für direkte Arbeit verwendet wurde, nicht für strategische Arbeit verwendet werden?

Ein gerader Rückfall nutzt den mittleren quadratischen Fehler als Kostenkapazität. Falls dies für einen strategischen Rückfall genutzt wird, handelt es sich zu diesem Zeitpunkt um eine nicht erhöhte Kapazität von Parametern (Theta). Neigungsabstürze werden sich weltweit am wenigsten vereinigen, wenn die Kapazität gewölbt ist.

Erklärung der Kostenfunktion

Vereinfachte Kostenfunktion

Warum diese Kostenfunktion?

ttps://miro.medium.com/max/1516/1*heGae4aZ-dN-rLsfx2-P9g.jpeg
ttps://miro.medium.com/max/2304/1*JIpaau-jFfvX2yR9L1YZ6A.jpeg
ttps://miro.medium.com/max/736/1*ueEwU1dE0Yu-KpMJanf9AQ.png

Seine negative Fähigkeit beruht darauf, dass wir, wenn wir trainieren, die Wahrscheinlichkeit erhöhen müssen, indem wir die Unglücksarbeit begrenzen. Die Verringerung der Kosten wird die extremste Wahrscheinlichkeit verbessern, wenn man erwartet, dass die Beispiele aus einer ununterscheidbar freien Streuung gezogen werden.

Ableitung der Formel für den Gradienten-Abstiegs-Algorithmus

Python-Implementierung

def weightInitialisierung(n_Merkmale):

    w = np.Nullen((1,n_Merkmale))

    b = 0

    Rückgabe w,b

def sigmoid_activation(Ergebnis):

    endgültiges_Ergebnis = 1/(1+np.exp(-ergebnis))

    Endergebnis_zurückgeben

def model_optimize(w, b, X, Y):

    m = X.Form[0]

    #Vorhersage

    endgültiges_Ergebnis = Sigmoid-Aktivierung(np.dot(w,X.T)+b)

    Y_T = Y.T

    Kosten = (-1/m)*(np.sum((Y_T*np.log(endgültiges_Ergebnis)) + ((1-Y_T)*(np.log(1-endgültiges_Ergebnis)))))

    #

    #Berechnung des Gradienten

    dw = (1/m)*(np.dot(X.T, (endgültiges_Ergebnis-Y.T).T))

    db = (1/m)*(np.sum(endgültiges_Ergebnis-Y.T))

    grads = {“dw”: dw, “db”: db}

    Rückgabegrade, Kosten

def model_predict(w, b, X, Y, Lernrate, keine_Iterationen):

    Kosten = []

    für i im Bereich(no_iterations):

        #

        grads, Kosten = modell_optimize(w,b,X,Y)

        #

        dw = grad[“dw”]

        db = grad[“db”]

        #Gewicht-Update

        w = w – (Lern_rate * (dw.T))

        b = b – (Lernrate * db)

        #

        wenn (i % 100 == 0):

            costs.append(kosten)

            #print(“Kosten nach %i Iteration ist %f” %(i, Kosten))

    #endgültige Parameter

    Koeffizient = {“w”: w, “b”: b}

    Gradient = {“dw”: dw, “db”: db}

    Ertragskoeffizient, Steigung, Kosten

def vorhersagen(final_pred, m):

    y_pred = np.Nullen((1,m))

    für i im Bereich(final_pred.shape[1]):

        wenn final_pred[0][i] > 0,5:

            y_pred[0][i] = 1

    Rückgabe y_pred

Kosten vs Anzahl_der_Iterationen

Vorbereiten und Testen der Präzision des Rahmens ist 100 %.

Diese Verwendung gilt für zweifach berechnete Rückfälle. Für Informationen mit mehreren Klassen muss der Softmax-Rückfall verwendet werden.