De este modelo, se tiende a derivar que la recaída directa no es apropiada para los problemas de orden. La recaída directa no tiene límites, y esto trae la recaída calculada al cuadro. Su valor va cuidadosamente de 0 a 1.

Recaída estratégica básica

(Código fuente completo: https://github.com/SSaishruthi/LogisticRegression_Vectorized_Implementation/mass/ace/Logistic_Regression.ipynb)

Modelo

Rendimiento = 0 o 1

Teoría => Z = WX + B

hθ(x) = sigmoide (Z)

En la remota posibilidad de que ‘Z’ vaya a la ilimitación, Y(predicho) obtendrá 1 y si ‘Z’ va a la ilimitación negativa, Y(predicho) obtendrá 0.

Examen de la teoría

El rendimiento de la especulación es la probabilidad evaluada. Esto se utiliza para determinar cuán seguro puede ser el valor real cuando se le da una información X. Considere el modelo de abajo,

X = [x0 x1] = [1 dirección IP]

A la luz de la estimación x1, supongamos que tenemos la probabilidad evaluada de ser 0,8. Esto dice que hay un 80% de posibilidad de que un correo electrónico sea spam.

Científicamente esto puede ser compuesto como,

Figura 3: Retrato científico

Esto legitima el nombre de “recaída estratégica”. La información se encaja en el modelo de recaída directa, que en ese momento será seguido por una capacidad calculada anticipando la variable de corte claro objetivo.

Tipos de recaída estratégica

1. Doble recaída estratégica

La reacción total tiene sólo dos resultados potenciales. Modelo: Spam o no

2. Recaída estratégica multinacional

Por lo menos tres clases sin solicitarlo. Modelo: Anticipar qué alimento es el más favorecido (Vegetal, No Vegetal, Vegetariano)

3. Recaída estratégica ordinaria

Por lo menos tres clases con la solicitud. Modelo: Clasificación de la película de 1 a 5

Límite de elección

Para prever qué clase de información tiene un lugar, se puede establecer un límite. A la luz de este límite, la probabilidad evaluada adquirida se caracteriza en clases.

Estado, en la remota posibilidad de que el valor_predijo ≥ 0.5, en ese momento caracterizar el correo electrónico como spam o no spam.

El límite de elección puede ser directo o no directo. Las solicitudes de polinomios pueden ser ampliadas para obtener un límite de elección alucinante.

Función de costo

¿Por qué el trabajo de costo que ha sido utilizado para el directo no puede ser utilizado para el estratégico?

La recaída recta utiliza el error medio cuadrado como su capacidad de coste. En caso de que se utilice para la recaída estratégica, en ese momento será una capacidad no elevada de parámetros (theta). Las caídas de inclinación se unirán en todo el mundo menos si la capacidad es arqueada.

Explicación de la función de costo

Función de costo simplificada

¿Por qué esta función de costo?

ttps://miro.medium.com/max/1516/1*heGae4aZ-dN-rLsfx2-P9g.jpeg
ttps://miro.medium.com/max/2304/1*JIpaau-jFfvX2yR9L1YZ6A.jpeg
ttps://miro.medium.com/max/736/1*ueEwU1dE0Yu-KpMJanf9AQ.png

su capacidad negativa se debe a que cuando entrenamos, tenemos que aumentar la probabilidad limitando el trabajo de la desgracia. Disminuir el coste mejorará la probabilidad más extrema esperando que los ejemplos se extraigan de una dispersión indistintamente libre.

Derivando la fórmula del Algoritmo de Descenso Gradiente

Implementación de Python

def weightInicialización(n_características):

    w = np.ceros((1,n_características))

    b = 0

    volver w, b

def sigmoid_activation(result):

    final_resultado = 1/(1+np.exp(-resultado))

    return final_resultado

def model_optimize(w, b, X, Y):

    m = X.shape[0]

    #Predicción

    final_resultado = activación_sigmoide(np.dot(w,X.T)+b)

    Y_T = Y.T

    costo = (-1/m)*(np.sum((Y_T*np.log(final_resultado)) + ((1-Y_T)*(np.log(1-final_resultado))))

    #

    #Cálculo del gradiente

    dw = (1/m)*(np.dot(X.T, (final_result-Y.T).T))

    db = (1/m)*(np.sum(final_result-Y.T))

    grads = {“dw”: dw, “db”: db}

    retorno de los graduados, costo

def model_predict(w, b, X, Y, learning_rate, no_iterations):

    costos = []

    para i en rango(no_iteraciones):

        #

        grads, cost = model_optimize(w,b,X,Y)

        #

        dw = grads[“dw”]

        db = grads[“db”]

        #actualización de peso

        w = w – (tasa_de_aprendizaje * (dw.T))

        b = b – (tasa_de_aprendizaje * db)

        #

        si (i % 100 == 0):

            costs.append(cost)

            #print(“Cost after %i iteration is %f” %(i, cost))

    #parámetros finales

    coeff = {“w”: w, “b”: b}

    gradiente = {“dw”: dw, “db”: db}

    coeficiente de retorno, gradiente, costes

def predict(final_pred, m):

    y_pred = np.ceros((1,m))

    para i en el rango(final_pred.shape[1]):

        si final_pred[0][i] > 0.5:

            y_pred[0][i] = 1

    return y_pred

Costo vs. Número de operaciones

La precisión de la preparación y el ensayo del marco es del 100 %.

Este uso es para una doble recaída calculada. Para información con clases múltiples, se debe utilizar la recaída softmax.