Hva er Ridge Regression?
For å øke prediksjonens nøyaktighet, reduserer den statistiske teknikken kjent som Ridge Regression størrelsen på parameterestimater. Det fungerer spesielt bra hvis datasettet ditt inneholder korrelerte kolonner som du prøver å bruke som innganger (uavhengige variabler) i regresjonsmodeller, men ingen av modellene dine ga veldig nøyaktige resultater. Med andre ord, Ridge Regression er en modellinnstillingsteknikk som brukes til enhver multikollineær dataanalyse. Dataene blir utsatt for L2 -regularisering ved bruk av denne metoden.
Kostnadsfunksjonen for Ridge Regression er:
Min (|| y - x (theta) ||^2 + λ || theta ||^2)Hva er multikollinearitet?
Begrepet multikollinearitet er basert på statistisk forskning. Akkurat når dine uavhengige variabler har en betydelig grad av korrelasjon. Kollinearitet påvirker ikke direkte svarvariabelen; Snarere angår det interaksjonene mellom prediktorvariablene eller egenskapene. Anslagene av regresjonskoeffisientene kan være unøyaktige som et resultat av multikollinearitet. Det kan potensielt øke regresjonskoeffisientstandardfeilene og redusere effektiviteten til alle t-tester. Multikollinearitet kan gi misvisende resultater og p-verdier, øke modellens redundans og senke forutsigbarhetenes effektivitet og pålitelighet.
Fordeler med ås regresjon
Implementering av Ridge Regression in Sklearn
Import krever følgende biblioteker:
Fra Sklearn.Linear_model Import RidgeOpprett datasettet ved å bruke følgende kommando:
n_samples, n_features = 20, 4Produksjon:
Funksjonene er [[-2.55298982 0.6536186 0.8644362 -0.74216502]Opprette og montere modellen:
modell = ås (alfa = 1.0)Konklusjon
Vi diskuterte Ridge Regression -modellen innen maskinlæring som brukes til å utføre L2 -regulariseringen på dataene for å forhindre overmasse. Det er en avansert versjon av en enkel lineær regresjon. Vi diskuterte også implementeringen ved hjelp av Sklearn.