
A partir deste modelo, tende-se a derivar que a recidiva reta não é apropriada para questões de ordem. A recidiva direta é ilimitada, o que traz uma recidiva calculada para o quadro. O seu valor corre cuidadosamente de 0 a 1.
Relapso Estratégico Básico
(Código fonte completo: https://github.com/SSaishruthi/LogisticRegression_Vectorized_Implementation/mass/ace/Logistic_Regression.ipynb)
Modelo
Rendimento = 0 ou 1
Teoria => Z = WX + B
hθ(x) = sigmoid (Z)

Na hipótese de ‘Z’ ir para a ausência de limites, Y(previsto) receberá 1 e se ‘Z’ for para a ausência de limites negativos, Y(previsto) receberá 0.
Exame da teoria
O rendimento da especulação é a probabilidade avaliada. Isto é utilizado para se ter certeza do valor real esperado quando se dá uma informação X. Considere o modelo abaixo,
X = [x0 x1] = [1 Endereço IP]
À luz da estima x1, suponha-se que tenhamos a probabilidade avaliada de ser 0,8. Isto indica que há 80% de possibilidade de que um e-mail seja spam.
Cientificamente isto pode ser composto como,
Figura 3: Retrato Científico
Isso legitima o nome ‘recaída estratégica’. A informação se encaixa no modelo de recidiva direta, que nesse momento é seguida por uma capacidade calculada antecipando a variável objetiva de ala de corte claro.
Tipos de Recaída Estratégica
1. Dobradireza Estratégica de Recaída
A reação negativa tem apenas dois resultados potenciais. O modelo: Spam ou não
2. Relapso Estratégico Multinomial
Pelo menos três aulas sem solicitar. Modelo: Antecipando qual alimentação é mais favorecida (Veg, Não-Veg, Vegetariana)
3. Relapso Estratégico Ordinal
Pelo menos três aulas com pedido. Modelo: Classificação do filme de 1 a 5
Limite de escolha
Para prever qual informação de classe tem um lugar, um limite pode ser definido. Em função desse limite, a probabilidade avaliada adquirida é caracterizada em classes.
Estado, na hipótese remota que previa o valor ≥ 0.5, nesse momento caracteriza o e-mail como spam, mas não como spam.
O limite de escolha pode ser direto ou não. As solicitações polinomiais podem ser expandidas para obter um limite de escolha surpreendente.
Função Custo

Por que o trabalho de custo que tem sido utilizado para direto não pode ser utilizado para estratégico?
A recidiva reta utiliza o erro do quadrado médio como sua capacidade de custo. Caso esta seja utilizada para recidiva estratégica, nesse ponto será uma capacidade de parâmetros (theta) não-realizada. A inclinação despencará para o mundo inteiro, pelo menos se a capacidade for arqueada.

Explicação da função de custo


Função custo simplificado
Por que esta função de custo?
sua capacidade negativa se baseia no fato de que, quando treinamos, temos que aumentar a probabilidade, limitando o trabalho infeliz. Diminuir o custo vai melhorar a probabilidade mais extrema, esperando que os exemplos sejam retirados de uma dispersão indistintamente livre.
Derivando a fórmula do Algoritmo de Descida Gradiente


Implementação do Python
def weightInitialization(n_features):
w = np.zeros((1,n_features))
b = 0
retornar w,b
def sigmoid_activation(result):
final_resultado = 1/(1+np.exp(-resultado))
retorno final_resultado
def model_optimize(w, b, X, Y):
m = X.shape[0]
#Previsão
final_result = sigmoid_activation(np.dot(w,X.T)+b)
Y_T = Y.T
custo = (-1/m)*(np.sum((Y_T*np.log(final_resultado))) + ((1-Y_T)*(np.log(1-final_resultado))))))
#
#Cálculo do Grau de Grau
dw = (1/m)*(np.dot(X.T, (final_result-Y.T).T))
db = (1/m)*(np.sum(final_result-Y.T))
grads = {“dw”: dw, “db”: db}
grads de retorno, custo
def model_predict(w, b, X, Y, learning_rate, no_iterations):
custos = []
para i no range(no_iterations):
#
grads, cost = model_optimize(w,b,X,Y)
#
dw = grads[“dw”]
db = grads[“db”]
#Atualização de peso
w = w – (taxa_de_aprendizagem * (dw.T))
b = b – (taxa de aprendizagem * db)
#
se (i % 100 == 0):
cost.append(custo)
#print(“Custo após %i iteração é %f” %(i, custo))
#parâmetros finais
coeff = {“w”: w, “b”: b}
gradiente = {“dw”: dw, “db”: db}
coeff de retorno, gradiente, custos
def predict(final_pred, m):
y_pred = np.zeros((1,m)))
para i no range(final_pred.shape[1]):
se final_pred[0][i] > 0.5:
y_pred[0][i] = 1
retornar y_pred
Custo vs Número_de_Iterações
Preparar e testar a precisão da estrutura é 100%.
Este uso é para recidivas calculadas duas vezes. Para informações com múltiplas classes, deve-se utilizar softmax recapse.
