O que é regressão linear regularizada?
O que é regressão linear regularizada?

Vídeo: O que é regressão linear regularizada?

Vídeo: O que é regressão linear regularizada?
Vídeo: COMO ESCOLHER o MELHOR Modelo de Regressão Linear? 2024, Novembro
Anonim

Regularização . Esta é uma forma de regressão , que restringe / regulariza ou reduz as estimativas de coeficiente para zero. Em outras palavras, esta técnica desestimula o aprendizado de uma forma mais complexa ou flexível modelo , de modo a evitar o risco de sobreajuste. Uma relação simples para regressão linear se parece com isso.

Correspondentemente, o que é lambda na regressão linear?

Quando temos um alto grau linear polinômio que é usado para ajustar um conjunto de pontos em um regressão linear configuração, para evitar overfitting, usamos regularização e incluímos um lambda parâmetro na função de custo. Esse lambda é então usado para atualizar os parâmetros theta no algoritmo de descida do gradiente.

Em segundo lugar, qual é o objetivo da regularização? Regularização é uma técnica usada para ajustar o função adicionando um termo de penalidade adicional no erro função . O termo adicional controla o excesso de flutuação função de forma que os coeficientes não assumam valores extremos.

Desta forma, por que precisamos regularizar na regressão?

O objetivo de regularização é evitar overfitting, em outras palavras nós estão tentando evitar modelos que se ajustam extremamente bem aos dados de treinamento (dados usados para construir o modelo), mas se ajustam mal aos dados de teste (dados usados para testar a qualidade do modelo). Isso é conhecido como overfitting.

O que significa regularização?

Em matemática, estatística e ciência da computação, especialmente em aprendizado de máquina e problemas inversos, regularização é o processo de adicionar informações para resolver um problema mal colocado ou para evitar sobreajuste. Regularização aplica-se a funções objetivo em problemas de otimização mal colocados.

Recomendado: