”Vi lever i en tid der vi er omgitt av datavitenskap, større datasett, høye beregningsmessige kraftdatamaskiner og kunstig intelligens. Datavitenskap og kunstig intelligens har kommet seg til autonom kjøretøynavigasjon; Bilder blir gjenkjent av dem, med å avgjøre energi og økonomiske sektorer, aksjemarkedssektorer og våre sosiale kretser har også blitt revolusjonert av maskinlæring og deretter avansementet i biomedisinske vitenskaper. Lineær regresjon er en av de viktigste maskinlæringsteknikkene som lar oss utføre statistisk dataanalyse eller vitenskapelige beregninger, og hvilket felt vi velger hvor vi ønsker å gå kunstig intelligent, vil vi møte lineær regresjon.
Lineær regresjon er en metode i maskinlæring som brukes til å lære forholdet mellom en avhengig variabel, la oss si “y”, og de forskjellige uavhengige variablene “x”. Basert på dette forholdet mellom variablene, spår lineær regresjon de fremtidige hendelsene for "y". Variablene i lineær regresjon er funksjonene som representerer attributtene til observasjon, og observasjon er det ene datapunktet i datasettet. Den forutsagte utgangen avhenger av disse observasjonene og funksjonene. Bruksområder for lineær regresjon inkluderer prediksjon av boligpriser avhengig av funksjonene (for eksempel området for huset, soverommene det har, husets indre), værmelding, aksjemarkedets prediksjon, etc.”
Fremgangsmåte
Artikkelen vil vise implementeringsmetoden for de lineære regresjonsmodellene. Vi vil bruke denne modellen på et datasett, og for å implementere denne modellen, vil vi følge noen trinn for å først trene modellen for å lære å forutsi, og så vil vi teste modellen for å sjekke hvor nær prediksjonen til modellen er for å selve utgangen.
Syntaks
Syntaks for regresjonsmodellen er som følger:
$ modell = lineær regresjon ()
Vi vil bruke den ovennevnte funksjonen for å implementere regresjonsmodellen ved å montere datasettet til denne modellen. Vi vil trene dataene på den lineære regresjonsmodellen for å estimere verdien for utgangen ved å bruke hypotesen og tapsfunksjonen som:
Y_Predicted (H (x) = B0 + B1*x), som er den forutsagte verdien for utgangsresponsen “y” fra modellen.
tapsfunksjon = faktisk_y - y_forsøket
Returverdi
Returverdien for regresjonsmodellen er kontinuerlig ettersom regresjonen har en kontinuerlig avhengig variabel som utgang, "y" og flere variabler, "x", som kan være diskret eller kontinuerlig.
Eksempel nr. 01
La oss begynne å implementere den lineære regresjonsmodellen. For implementering av denne funksjonen vil vi bruke "Spyder" -tolken fra Python. For å begynne å implementere modellen, må vi bruke visse funksjoner og klasser fra de forskjellige bibliotekpakkene. Det første og fremste biblioteket for denne implementeringen ville være "numpy". Vi er alle kjent med dette numpy biblioteket, da dette tillater operasjonene og implementeringen av multimensjonale matriser og matriser, og det er en åpen kildekodepakke. Dette vil bli brukt i programmet for å implementere matrisen med forskjellige dimensjoner.
En annen viktig pakke er "Scikit-Learn" denne pakken er bygget på Numpy, og den tillater dataforbehandling og dimensjonalitetsreduksjon og implementerer regresjonsmodeller, klassifiseringer og klynging. Vi bruker denne pakken for implementering av den lineære regresjonsmodellen i Python. For å importere denne pakken, vil vi bruke kommandoen “Import” Numpy med prefikset som heter “NP”, og deretter fra pakken til Scikit Learn, vil vi importere den lineære regresjonsmodellen som “fra Sklearn.linear_model import linearregression ”.
Etter å ha importert disse pakkene, er det nå på tide å lage dataene vi ønsker å jobbe med og gjøre det, vil vi definere den avhengige variabelen (utgang) som "y" og den uavhengige variabelen (regressor) som "x". For dette eksemplet vil vi holde disse variablene enkle som et 1-D array-objekt, og dette markerer de enkleste dataene for regresjonen. Vi vil erklære “X” som “NP”. Array ([2, 12, 22, 32, 42, 52]). omforme (-1, 1) ”og“ y ”som“ NP. Array ([2, 10, 14, 20, 32, 36]) ”. Y er endimensjonal, og vi har omformet X for å være (-1, 1) siden vi vil at X bare skal ha en kolonne og flere rader, så den har to dimensjoner som formen på X er (6, 1).
Nå vil vi passe til disse variablene til den lineære regresjonsmodellen, og for å gjøre det, vil vi kalle metoden “lineær regresjon (). Fit (x, y) ”og tilordne den til variabelen“ Model ”. Når vi har montert modellen nå, la oss sjekke om modellen fungerer eller ikke ved å ringe og bruke ".score ”på modellen som“ modell. Poengsum (x, y) ”. De .Poengsum tar også prediktoren som "x" og responsen som "y", og den gir R^2, som er den besluttsomhetskoeffisienten, noe som betyr at den forteller hvor godt modellen kan gjøre spådommer.
Nå for å sjekke verdiene for attributtene til "hypotesen = b0 +b1*x", vil vi bruke "modellen. avskjæring ”, som vil gi“ B0 ”og“ Model. Coef_ ”som vil returnere verdien for“ B1 ”som er de estimerte verdiene fra modellen for“ y ”. Nå, etter å ha fått disse verdiene, vil vi forutsi bruk av modellen som ringer “modellen. forutsi (x) ”og lagre den i y_forsøket. Responsen vil bli spådd av modellen, og derfor har vi trent modellen vår; For å teste hvordan modellen fungerer på testdatasettet, vil vi gi de nye verdiene til X til parametrene til “Model. forutsi (x_new) ”. Modellen vil gi de forutsagte verdiene som et svar på utgangen for den nydefinerte “x”. Koden for trening og deretter testing av den lineære regresjonsmodellen er gitt nedenfor på figuren.
Konklusjon
Vi har trent en modell, som er "lineær regresjon", fra Numpy og Scikit Lær på et datasett for å forutsi responsen for datasettet, og deretter testet vi denne modellen for å forutsi responsen for det nye datasettet.