A partir deste modelo, tende-se a derivar que a recidiva reta não é apropriada para questões de ordem. A recidiva direta é ilimitada, o que traz uma recidiva calculada para o quadro. O seu valor corre cuidadosamente de 0 a 1.

Relapso Estratégico Básico

(Código fonte completo: https://github.com/SSaishruthi/LogisticRegression_Vectorized_Implementation/mass/ace/Logistic_Regression.ipynb)

Modelo

Rendimento = 0 ou 1

Teoria => Z = WX + B

hθ(x) = sigmoid (Z)

Na hipótese de ‘Z’ ir para a ausência de limites, Y(previsto) receberá 1 e se ‘Z’ for para a ausência de limites negativos, Y(previsto) receberá 0.

Exame da teoria

O rendimento da especulação é a probabilidade avaliada. Isto é utilizado para se ter certeza do valor real esperado quando se dá uma informação X. Considere o modelo abaixo,

X = [x0 x1] = [1 Endereço IP]

À luz da estima x1, suponha-se que tenhamos a probabilidade avaliada de ser 0,8. Isto indica que há 80% de possibilidade de que um e-mail seja spam.

Cientificamente isto pode ser composto como,

Figura 3: Retrato Científico

Isso legitima o nome ‘recaída estratégica’. A informação se encaixa no modelo de recidiva direta, que nesse momento é seguida por uma capacidade calculada antecipando a variável objetiva de ala de corte claro.

Tipos de Recaída Estratégica

1. Dobradireza Estratégica de Recaída

A reação negativa tem apenas dois resultados potenciais. O modelo: Spam ou não

2. Relapso Estratégico Multinomial

Pelo menos três aulas sem solicitar. Modelo: Antecipando qual alimentação é mais favorecida (Veg, Não-Veg, Vegetariana)

3. Relapso Estratégico Ordinal

Pelo menos três aulas com pedido. Modelo: Classificação do filme de 1 a 5

Limite de escolha

Para prever qual informação de classe tem um lugar, um limite pode ser definido. Em função desse limite, a probabilidade avaliada adquirida é caracterizada em classes.

Estado, na hipótese remota que previa o valor ≥ 0.5, nesse momento caracteriza o e-mail como spam, mas não como spam.

O limite de escolha pode ser direto ou não. As solicitações polinomiais podem ser expandidas para obter um limite de escolha surpreendente.

Função Custo

Por que o trabalho de custo que tem sido utilizado para direto não pode ser utilizado para estratégico?

A recidiva reta utiliza o erro do quadrado médio como sua capacidade de custo. Caso esta seja utilizada para recidiva estratégica, nesse ponto será uma capacidade de parâmetros (theta) não-realizada. A inclinação despencará para o mundo inteiro, pelo menos se a capacidade for arqueada.

Explicação da função de custo

Função custo simplificado

Por que esta função de custo?

ttps://miro.medium.com/max/1516/1*heGae4aZ-dN-rLsfx2-P9g.jpeg
ttps://miro.medium.com/max/2304/1*JIpaau-jFfvX2yR9L1YZ6A.jpeg
ttps://miro.medium.com/max/736/1*ueEwU1dE0Yu-KpMJanf9AQ.png

sua capacidade negativa se baseia no fato de que, quando treinamos, temos que aumentar a probabilidade, limitando o trabalho infeliz. Diminuir o custo vai melhorar a probabilidade mais extrema, esperando que os exemplos sejam retirados de uma dispersão indistintamente livre.

Derivando a fórmula do Algoritmo de Descida Gradiente

Implementação do Python

def weightInitialization(n_features):

    w = np.zeros((1,n_features))

    b = 0

    retornar w,b

def sigmoid_activation(result):

    final_resultado = 1/(1+np.exp(-resultado))

    retorno final_resultado

def model_optimize(w, b, X, Y):

    m = X.shape[0]

    #Previsão

    final_result = sigmoid_activation(np.dot(w,X.T)+b)

    Y_T = Y.T

    custo = (-1/m)*(np.sum((Y_T*np.log(final_resultado))) + ((1-Y_T)*(np.log(1-final_resultado))))))

    #

    #Cálculo do Grau de Grau

    dw = (1/m)*(np.dot(X.T, (final_result-Y.T).T))

    db = (1/m)*(np.sum(final_result-Y.T))

    grads = {“dw”: dw, “db”: db}

    grads de retorno, custo

def model_predict(w, b, X, Y, learning_rate, no_iterations):

    custos = []

    para i no range(no_iterations):

        #

        grads, cost = model_optimize(w,b,X,Y)

        #

        dw = grads[“dw”]

        db = grads[“db”]

        #Atualização de peso

        w = w – (taxa_de_aprendizagem * (dw.T))

        b = b – (taxa de aprendizagem * db)

        #

        se (i % 100 == 0):

            cost.append(custo)

            #print(“Custo após %i iteração é %f” %(i, custo))

    #parâmetros finais

    coeff = {“w”: w, “b”: b}

    gradiente = {“dw”: dw, “db”: db}

    coeff de retorno, gradiente, custos

def predict(final_pred, m):

    y_pred = np.zeros((1,m)))

    para i no range(final_pred.shape[1]):

        se final_pred[0][i] > 0.5:

            y_pred[0][i] = 1

    retornar y_pred

Custo vs Número_de_Iterações

Preparar e testar a precisão da estrutura é 100%.

Este uso é para recidivas calculadas duas vezes. Para informações com múltiplas classes, deve-se utilizar softmax recapse.