Strojno učenje je veja umetne inteligence, ki se osredotoča na razvoj algoritmov in statističnih modelov, ki se lahko učijo iz podatkov in jih napovedujejo. Linearna regresija je tudi vrsta algoritma strojnega učenja, natančneje a nadzorovan algoritem strojnega učenja ki se uči iz označenih nizov podatkov in preslika podatkovne točke v najbolj optimizirane linearne funkcije. ki se lahko uporabijo za napovedovanje novih naborov podatkov.
Najprej bi morali vedeti, kaj so nadzorovani algoritmi strojnega učenja. Je vrsta strojnega učenja, kjer se algoritem uči iz označenih podatkov. Označeni podatki pomenijo nabor podatkov, katerega ciljna vrednost je že znana. Nadzorovano učenje ima dve vrsti:
funkcija python chr
- Razvrstitev : Predvidi razred nabora podatkov na podlagi neodvisne vhodne spremenljivke. Razred so kategorične ali diskretne vrednosti. kot je podoba živali mačka ali pes?
- Regresija : Napoveduje zvezne izhodne spremenljivke na podlagi neodvisne vhodne spremenljivke. kot je napovedovanje cen hiš na podlagi različnih parametrov, kot so starost hiše, oddaljenost od glavne ceste, lokacija, površina itd.
Tukaj bomo obravnavali eno najpreprostejših vrst regresije, tj. Linearna regresija.
Kazalo
- Kaj je linearna regresija?
- Vrste linearne regresije
- Katera je najboljša linija Fit?
- Stroškovna funkcija za linearno regresijo
- Predpostavke preproste linearne regresije
- Predpostavke večkratne linearne regresije
- Meritve vrednotenja za linearno regresijo
- Izvedba linearne regresije v Pythonu
- Tehnike regulacije za linearne modele
- Uporaba linearne regresije
- Prednosti in slabosti linearne regresije
- Linearna regresija – pogosta vprašanja (FAQ)
Kaj je linearna regresija?
Linearna regresija je vrsta nadzorovano strojno učenje algoritem, ki izračuna linearno razmerje med odvisno spremenljivko in eno ali več neodvisnimi značilnostmi s prilagajanjem linearne enačbe opazovanim podatkom.
Ko je samo ena neodvisna značilnost, je znana kot Preprosta linearna regresija , in ko je več kot ena funkcija, je znana kot Večkratna linearna regresija .
Podobno se upošteva le ena odvisna spremenljivka Univariatna linearna regresija , ko pa obstaja več kot ena odvisna spremenljivka, je to znano kot Multivariatna regresija .
Zakaj je linearna regresija pomembna?
Interpretabilnost linearne regresije je pomembna prednost. Enačba modela zagotavlja jasne koeficiente, ki pojasnjujejo vpliv vsake neodvisne spremenljivke na odvisno spremenljivko, kar omogoča globlje razumevanje osnovne dinamike. Njena preprostost je vrlina, saj je linearna regresija pregledna, enostavna za implementacijo in služi kot temeljni koncept za kompleksnejše algoritme.
Linearna regresija ni le orodje za napovedovanje; predstavlja osnovo za različne napredne modele. Tehnike, kot so regularizacija in podporni vektorski stroji, črpajo navdih iz linearne regresije, kar povečuje njeno uporabnost. Poleg tega je linearna regresija temeljni kamen pri testiranju predpostavk, ki raziskovalcem omogoča potrditev ključnih predpostavk o podatkih.
Vrste linearne regresije
Obstajata dve glavni vrsti linearne regresije:
Preprosta linearna regresija
To je najpreprostejša oblika linearne regresije in vključuje samo eno neodvisno spremenljivko in eno odvisno spremenljivko. Enačba za preprosto linearno regresijo je:
kje:
- Y je odvisna spremenljivka
- X je neodvisna spremenljivka
- β0 je presek
- β1 je naklon
Večkratna linearna regresija
To vključuje več kot eno neodvisno spremenljivko in eno odvisno spremenljivko. Enačba za večkratno linearno regresijo je:
kje:
- Y je odvisna spremenljivka
- X1, X2, …, Xp so neodvisne spremenljivke
- β0 je presek
- β1, β2, …, βn so nakloni
Cilj algoritma je najti najboljša Fit linija enačba, ki lahko napove vrednosti na podlagi neodvisnih spremenljivk.
V regresiji je nabor zapisov prisoten z vrednostmi X in Y in te vrednosti se uporabljajo za učenje funkcije, tako da, če želite predvideti Y iz neznanega X, lahko uporabite to naučeno funkcijo. Pri regresiji moramo poiskati vrednost Y. Torej je potrebna funkcija, ki napoveduje zvezni Y v primeru regresije, podane kot X kot neodvisne značilnosti.
Katera je najboljša linija Fit?
Naš glavni cilj pri uporabi linearne regresije je poiskati črto, ki se najbolje prilega, kar pomeni, da mora biti napaka med predvidenimi in dejanskimi vrednostmi čim manjša. Najmanjša napaka bo v najprimernejši liniji.
Najboljša enačba Fit Line zagotavlja ravno črto, ki predstavlja razmerje med odvisnimi in neodvisnimi spremenljivkami. Naklon črte kaže, koliko se odvisna spremenljivka spremeni za spremembo enote v neodvisni spremenljivki.

Linearna regresija
Tu se Y imenuje odvisna ali ciljna spremenljivka, X pa neodvisna spremenljivka, znana tudi kot napovedovalec Y. Obstaja veliko vrst funkcij ali modulov, ki jih je mogoče uporabiti za regresijo. Linearna funkcija je najpreprostejša vrsta funkcije. Tu je lahko X ena ali več funkcij, ki predstavljajo težavo.
Linearna regresija opravi nalogo napovedi vrednosti odvisne spremenljivke (y) na podlagi dane neodvisne spremenljivke (x)). Zato je ime linearna regresija. Na zgornji sliki je X (input) delovne izkušnje, Y (output) pa plača osebe. Regresijska premica je najbolj primerna premica za naš model.
Funkcijo stroškov uporabljamo za izračun najboljših vrednosti, da dobimo črto, ki se najbolj prilega, saj različne vrednosti za uteži ali koeficient črt povzročijo različne regresijske črte.
Funkcija hipoteze v linearni regresiji
Kot smo že predpostavili, je naša neodvisna značilnost izkušnje, tj. X in ustrezna plača Y sta odvisna spremenljivka. Predpostavimo, da obstaja linearna povezava med X in Y, potem lahko plačo napovemo z uporabo:
ALI
tukaj,
y_i epsilon Y ;; (i= 1,2, cdots , n) so oznake za podatke (nadzorovano učenje)x_i epsilon X ;; (i= 1,2, cdots , n) so vhodni neodvisni podatki o usposabljanju (enovariantni – ena vhodna spremenljivka (parameter))hat{y_i} epsilon hat{Y} ;; (i= 1,2, cdots , n) so predvidene vrednosti.
Model dobi najboljšo regresijsko linijo z iskanjem najboljšega θ1in θ2vrednote.
pretvoriti niz v celo število
- jaz 1 : prestreči
- jaz 2 : koeficient x
Ko najdemo najboljši θ1in θ2vrednosti, dobimo linijo, ki se najbolj prilega. Torej, ko bomo končno uporabili naš model za napovedovanje, bo ta napovedal vrednost y za vhodno vrednost x.
Kako posodobiti θ 1 in θ 2 vrednosti, da bi dobili najprimernejšo linijo?
Za doseganje regresijske črte, ki se najbolj prilega, želi model napovedati ciljno vrednost
Stroškovna funkcija za linearno regresijo
The stroškovna funkcija ali funkcija izgube ni nič drugega kot napaka ali razlika med predvideno vrednostjo
V linearni regresiji je Povprečna kvadratna napaka (MSE) uporabljena je stroškovna funkcija, ki izračuna povprečje kvadratov napak med predvidenimi vrednostmi
Funkcijo MSE je mogoče izračunati kot:
Z uporabo funkcije MSE se za posodobitev vrednosti uporabi iterativni postopek gradientnega spuščanja
Ta postopek vključuje stalno prilagajanje parametrov ( heta_1) in ( heta_2) na podlagi gradientov, izračunanih iz MSE. Končni rezultat je linearna regresijska premica, ki minimizira skupne kvadratne razlike med predvidenimi in dejanskimi vrednostmi ter zagotavlja optimalno predstavitev osnovnega razmerja v podatkih.
Gradientni spust za linearno regresijo
Model linearne regresije je mogoče učiti z uporabo optimizacijskega algoritma gradientni spust z iterativnim spreminjanjem parametrov modela za zmanjšanje povprečna kvadratna napaka (MSE) modela na naboru podatkov za usposabljanje. Za posodobitev θ1in θ2vrednosti, da bi zmanjšali funkcijo stroškov (minimizirali vrednost RMSE) in dosegli črto, ki se najbolje prilega, model uporablja gradientni spust. Ideja je začeti z naključnim θ1in θ2vrednosti in nato iterativno posodablja vrednosti, tako da doseže minimalne stroške.
Gradient ni nič drugega kot izpeljanka, ki definira učinke na izhode funkcije z malo variacijami v vhodih.
Razlikujmo stroškovno funkcijo (J) glede na
Razlikujmo stroškovno funkcijo (J) glede na
Cilj linearne regresije je iskanje koeficientov linearne enačbe, ki najbolje ustreza podatkom o usposabljanju. S premikanjem v smeri negativnega gradienta srednje kvadratne napake glede na koeficiente lahko koeficiente spremenite. In ustrezen presek in koeficient X bosta if
diana ankudinova
Gradientni spust
Predpostavke preproste linearne regresije
Linearna regresija je močno orodje za razumevanje in napovedovanje obnašanja spremenljivke, vendar mora izpolnjevati nekaj pogojev, da je natančna in zanesljiva rešitev.
- Linearnost : Neodvisna in odvisna spremenljivka sta med seboj linearno povezani. To pomeni, da spremembe v odvisni spremenljivki sledijo spremembam v neodvisni spremenljivki na linearen način. To pomeni, da mora obstajati ravna črta, ki jo je mogoče narisati skozi podatkovne točke. Če razmerje ni linearno, potem linearna regresija ne bo natančen model.

- Neodvisnost : Opazovanja v naboru podatkov so neodvisna druga od druge. To pomeni, da vrednost odvisne spremenljivke za eno opazovanje ni odvisna od vrednosti odvisne spremenljivke za drugo opazovanje. Če opazovanja niso neodvisna, potem linearna regresija ne bo natančen model.
- Homoskedastičnost : Na vseh ravneh neodvisnih spremenljivk je varianca napak konstantna. To pomeni, da količina neodvisnih spremenljivk nima vpliva na varianco napak. Če varianca ostankov ni konstantna, potem linearna regresija ne bo natančen model.

Homoskedastičnost v linearni regresiji
- Normalnost : Ostanki morajo biti normalno porazdeljeni. To pomeni, da morajo ostanki slediti zvonasti krivulji. Če ostanki niso normalno porazdeljeni, linearna regresija ne bo natančen model.
Predpostavke večkratne linearne regresije
Za večkratno linearno regresijo veljajo vse štiri predpostavke iz preproste linearne regresije. Poleg tega je spodaj še nekaj:
- Brez multikolinearnosti : Med neodvisnimi spremenljivkami ni visoke korelacije. To pomeni, da je med neodvisnimi spremenljivkami malo ali nič korelacije. Multikolinearnost se pojavi, ko sta dve ali več neodvisnih spremenljivk močno povezani med seboj, kar lahko oteži določitev posameznega učinka vsake spremenljivke na odvisno spremenljivko. Če obstaja multikolinearnost, večkratna linearna regresija ne bo natančen model.
- Aditivnost: Model predpostavlja, da je učinek sprememb napovedne spremenljivke na spremenljivko odziva dosleden ne glede na vrednosti drugih spremenljivk. Ta predpostavka pomeni, da med spremenljivkami ni interakcije v njihovih učinkih na odvisno spremenljivko.
- Izbira funkcij: Pri multipli linearni regresiji je nujno skrbno izbrati neodvisne spremenljivke, ki bodo vključene v model. Vključitev nepomembnih ali odvečnih spremenljivk lahko privede do prekomernega opremljanja in zaplete razlago modela.
- Prekomerno opremljanje: Prekomerno opremljanje se pojavi, ko se model preveč prilega podatkom o usposabljanju in zajame šum ali naključna nihanja, ki ne predstavljajo pravega osnovnega razmerja med spremenljivkami. To lahko vodi do slabe učinkovitosti posploševanja novih, nevidenih podatkov.
Multikolinearnost
Multikolinearnost je statistični pojav, ki se pojavi, ko sta dve ali več neodvisnih spremenljivk v modelu multiple regresije visoko korelirani, zaradi česar je težko oceniti posamezne učinke vsake spremenljivke na odvisno spremenljivko.
Odkrivanje multikolinearnosti vključuje dve tehniki:
- Korelacijska matrika: Preučevanje korelacijske matrike med neodvisnimi spremenljivkami je običajen način za odkrivanje multikolinearnosti. Visoke korelacije (blizu 1 ali -1) kažejo na potencialno multikolinearnost.
- VIF (faktor inflacije variance): VIF je mera, ki kvantificira, koliko se poveča varianca ocenjenega regresijskega koeficienta, če so vaši napovedniki povezani. Visok VIF (običajno nad 10) kaže na multikolinearnost.
Meritve vrednotenja za linearno regresijo
Raznolikost ocenjevalni ukrepi se lahko uporabi za določitev moči katerega koli modela linearne regresije. Te metrike ocenjevanja pogosto nakazujejo, kako dobro model ustvarja opazovane rezultate.
Najpogostejše meritve so:
Povprečna kvadratna napaka (MSE)
Povprečna kvadratna napaka (MSE) je metrika vrednotenja, ki izračuna povprečje kvadratov razlik med dejanskimi in predvidenimi vrednostmi za vse podatkovne točke. Razlika je na kvadrat, da se zagotovi, da se negativne in pozitivne razlike med seboj ne izničijo.
tukaj,
- n je število podatkovnih točk.
- injazje dejanska ali opažena vrednost za ithpodatkovna točka.
widehat{y_{i}} je predvidena vrednost za ithpodatkovna točka.
MSE je način za količinsko opredelitev natančnosti napovedi modela. MSE je občutljiv na odstopanja, saj velike napake pomembno prispevajo k skupni oceni.
Povprečna absolutna napaka (MAE)
Povprečna absolutna napaka je metrika vrednotenja, ki se uporablja za izračun natančnosti regresijskega modela. MAE meri povprečno absolutno razliko med predvidenimi in dejanskimi vrednostmi.
Matematično je MAE izražen kot:
mysql seznam vseh uporabnikov
tukaj,
- n je število opazovanj
- INjazpredstavlja dejanske vrednosti.
widehat{Y_i} predstavlja predvidene vrednosti
Nižja vrednost MAE kaže boljšo zmogljivost modela. Ni občutljiv na odstopanja, saj upoštevamo absolutne razlike.
Koren srednje kvadratne napake (RMSE)
Kvadratni koren variance ostankov je Koren srednje kvadratne napake . Opisuje, kako dobro se opazovane podatkovne točke ujemajo s pričakovanimi vrednostmi ali absolutno prileganje modela podatkom.
V matematičnem zapisu se lahko izrazi kot:
Namesto da bi celotno število podatkovnih točk v modelu delili s številom prostostnih stopenj, je treba deliti vsoto kvadratov ostankov, da dobimo nepristransko oceno. Potem se ta številka imenuje preostala standardna napaka (RSE).
V matematičnem zapisu se lahko izrazi kot:
RSME ni tako dobra metrika kot R-kvadrat. Korenska povprečna kvadratna napaka lahko niha, ko se enote spremenljivk razlikujejo, saj je njena vrednost odvisna od enot spremenljivk (ni normalizirana mera).
Koeficient determinacije (R-kvadrat)
R-na kvadrat je statistika, ki kaže, koliko variacij lahko razviti model pojasni ali zajame. Vedno je v območju od 0 do 1. Na splošno velja, da čim bolje se model ujema s podatki, tem večje je število R-kvadrat.
V matematičnem zapisu se lahko izrazi kot:
- Preostala vsota kvadratov (RSS): The vsota kvadratov ostanka za vsako podatkovno točko na grafu ali podatku je znana kot vsota kvadratov ostanka ali RSS. Je meritev razlike med izhodom, ki je bil opažen, in tistim, kar je bilo pričakovano.
RSS=sum_{i=2}^{n}(y_{i}-b_{0}-b_{1}x_{i})^{2} - Skupna vsota kvadratov (TSS): Vsota napak podatkovnih točk glede na povprečje spremenljivke odgovora je znana kot skupna vsota kvadratov ali TSS.
TSS= sum_{}^{}(y-overline{y_{i}})^2
R kvadratna metrika je merilo deleža variance v odvisni spremenljivki, ki je razložena z neodvisnimi spremenljivkami v modelu.
Prilagojena napaka R-kvadrat
Prilagojeno R2meri delež variance v odvisni spremenljivki, ki je razložen z neodvisnimi spremenljivkami v regresijskem modelu. Prilagojeni R-kvadrat upošteva število napovedovalcev v modelu in kaznuje model, ker vključuje nepomembne napovedovalce, ki ne prispevajo bistveno k razlagi variance v odvisnih spremenljivkah.
Matematično prilagojeno R2se izraža kot:
tukaj,
- n je število opazovanj
- k je število napovedovalcev v modelu
- R2je koeficient determinacije
Prilagojen R-kvadrat pomaga preprečiti prekomerno opremljanje. Model kaznuje z dodatnimi napovedovalci, ki ne prispevajo bistveno k razlagi variance v odvisni spremenljivki.
Izvedba linearne regresije v Pythonu
Uvozite potrebne knjižnice:
Python3 import pandas as pd import numpy as np import matplotlib.pyplot as plt import matplotlib.axes as ax from matplotlib.animation import FuncAnimation> Naložite nabor podatkov in ločite vhodne in ciljne spremenljivke
Tukaj je povezava za nabor podatkov: Povezava na nabor podatkov
Python3 url = 'https://media.techcodeview.com data = pd.read_csv(url) data # Drop the missing values data = data.dropna() # training dataset and labels train_input = np.array(data.x[0:500]).reshape(500, 1) train_output = np.array(data.y[0:500]).reshape(500, 1) # valid dataset and labels test_input = np.array(data.x[500:700]).reshape(199, 1) test_output = np.array(data.y[500:700]).reshape(199, 1)> Zgradite model linearne regresije in narišite regresijsko črto
Koraki:
- Pri širjenju naprej se linearna regresijska funkcija Y=mx+c uporabi tako, da se na začetku dodeli naključna vrednost parametra (m & c).
- Napisali smo funkcijo za iskanje stroškovne funkcije, tj. povprečja
class LinearRegression: def __init__(self): self.parameters = {} def forward_propagation(self, train_input): m = self.parameters['m'] c = self.parameters['c'] predictions = np.multiply(m, train_input) + c return predictions def cost_function(self, predictions, train_output): cost = np.mean((train_output - predictions) ** 2) return cost def backward_propagation(self, train_input, train_output, predictions): derivatives = {} df = (predictions-train_output) # dm= 2/n * mean of (predictions-actual) * input dm = 2 * np.mean(np.multiply(train_input, df)) # dc = 2/n * mean of (predictions-actual) dc = 2 * np.mean(df) derivatives['dm'] = dm derivatives['dc'] = dc return derivatives def update_parameters(self, derivatives, learning_rate): self.parameters['m'] = self.parameters['m'] - learning_rate * derivatives['dm'] self.parameters['c'] = self.parameters['c'] - learning_rate * derivatives['dc'] def train(self, train_input, train_output, learning_rate, iters): # Initialize random parameters self.parameters['m'] = np.random.uniform(0, 1) * -1 self.parameters['c'] = np.random.uniform(0, 1) * -1 # Initialize loss self.loss = [] # Initialize figure and axis for animation fig, ax = plt.subplots() x_vals = np.linspace(min(train_input), max(train_input), 100) line, = ax.plot(x_vals, self.parameters['m'] * x_vals + self.parameters['c'], color='red', label='Regression Line') ax.scatter(train_input, train_output, marker='o', color='green', label='Training Data') # Set y-axis limits to exclude negative values ax.set_ylim(0, max(train_output) + 1) def update(frame): # Forward propagation predictions = self.forward_propagation(train_input) # Cost function cost = self.cost_function(predictions, train_output) # Back propagation derivatives = self.backward_propagation( train_input, train_output, predictions) # Update parameters self.update_parameters(derivatives, learning_rate) # Update the regression line line.set_ydata(self.parameters['m'] * x_vals + self.parameters['c']) # Append loss and print self.loss.append(cost) print('Iteration = {}, Loss = {}'.format(frame + 1, cost)) return line, # Create animation ani = FuncAnimation(fig, update, frames=iters, interval=200, blit=True) # Save the animation as a video file (e.g., MP4) ani.save('linear_regression_A.webp'false'>Python3 #Primer uporabe parametrov linear_reg = LinearRegression(), izguba = linear_reg.train(train_input, train_output, 0.0001, 20) Izhod: Ponovitev = 1, Izguba = 9130.407560462196 Ponovitev = 1, Izguba = 1107.1996742908998 Iter acija = 1, izguba = 140.31580932842422 Ponovitev = 1, izguba = 23,795780526084116 iteracija = 2, izguba = 9,753848205147605 iteracija = 3, izguba = 8,061641745006835 iteracija = 4, izguba = 7,8577116490914864 iteracija = 5, izguba = 7. 8331350515579015 Ponovitev = 6, Izguba = 7,830172502503967 Ponovitev = 7, Izguba = 7,829814681591015 Ponovitev = 8 , izguba = 7,829770758846183 iteracija = 9, izguba = 7,829764664327399 iteracija = 10, izguba = 7,829763128602258 iteracija = 11, izguba = 7,829762142342088 iteracija = 12, izguba = 7. 829761222379141 Ponovitev = 13, Izguba = 7,829760310486438 Ponovitev = 14, Izguba = 7,829759399646989 Ponovitev = 15, Izguba = 7,829758489015161 Ponovitev = 16, Izguba = 7,829757578489033 Ponovitev = 17, Izguba = 7,829756668056319 Ponovitev = 18, Izguba = 7,829755757715535 Ponovitev = 19, Izguba = 7,8 29754847466484 Ponovitev = 20, izguba = 7,829753937309139 Črta linearne regresijeČrta linearne regresije zagotavlja dragocene vpoglede v razmerje med obema spremenljivkama. Predstavlja najbolj prilegajočo črto, ki zajame splošni trend spreminjanja odvisne spremenljivke (Y) kot odziv na variacije neodvisne spremenljivke (X). Pozitivna linearna regresijska črta : Pozitivna linearna regresijska črta označuje neposredno povezavo med neodvisno spremenljivko (X) in odvisno spremenljivko (Y). To pomeni, da z naraščanjem vrednosti X narašča tudi vrednost Y. Naklon pozitivne linearne regresijske črte je pozitiven, kar pomeni, da je črta nagnjena navzgor od leve proti desni. Negativna linearna regresijska črta : negativna linearna regresijska črta označuje inverzno razmerje med neodvisno spremenljivko (X) in odvisno spremenljivko (Y). To pomeni, da ko vrednost X narašča, se vrednost Y zmanjšuje. Naklon negativne linearne regresijske črte je negativen, kar pomeni, da se črta nagne navzdol od leve proti desni. Tehnike regularizacije za linearne modele Regresija z lasom (regularizacija L1) Regresija z lasom je tehnika, ki se uporablja za reguliranje modela linearne regresije, dodaja kazen izraz k funkciji cilja linearne regresije, da se prepreči prekomerno prilagajanje. Ciljna funkcija po uporabi laso regresije je: prvi člen je izguba po metodi najmanjših kvadratov, ki predstavlja kvadrat razlike med predvidenimi in dejanskimi vrednostmi. drugi člen je regulatorni člen L1, kaznuje vsoto absolutnih vrednosti regresijskega koeficienta θj. Grebenska regresija (regularizacija L2) Grebenska regresija je tehnika linearne regresije, ki standardnemu linearnemu cilju doda regularizacijski izraz. Ponovno je cilj preprečiti prekomerno opremljanje s kaznovanjem velikega koeficienta v enačbi linearne regresije. Uporabno je, če ima nabor podatkov multikolinearnost, kjer so spremenljivke napovedovalca visoko korelirane. Ciljna funkcija po uporabi grebenske regresije je: prvi člen je izguba po metodi najmanjših kvadratov, ki predstavlja kvadrat razlike med predvidenimi in dejanskimi vrednostmi. drugi člen je regulatorni člen L1, kaznuje vsoto kvadratov vrednosti regresijskega koeficienta θj. Elastična neto regresija Elastična neto regresija je tehnika hibridne regulacije, ki združuje moč regulacije L1 in L2 v cilju linearne regresije. prvi člen je izguba najmanjšega kvadrata. drugi izraz je L1 regulacija in tretji je grebenska regresija.???? je splošna moč regulacije. α nadzoruje mešanico med L1 in L2 regulacijo. Uporaba linearne regresije Linearna regresija se uporablja na številnih različnih področjih, vključno s financami, ekonomijo in psihologijo, za razumevanje in napovedovanje obnašanja določene spremenljivke. Na primer, v financah se lahko linearna regresija uporablja za razumevanje razmerja med ceno delnice podjetja in njegovim dobičkom ali za napovedovanje prihodnje vrednosti valute na podlagi njene pretekle uspešnosti. Prednosti in slabosti linearne regresijePrednosti linearne regresijeLinearna regresija je razmeroma preprost algoritem, zato ga je enostavno razumeti in izvajati. Koeficiente modela linearne regresije je mogoče interpretirati kot spremembo odvisne spremenljivke za spremembo ene enote v neodvisni spremenljivki, kar zagotavlja vpogled v razmerja med spremenljivkami. Linearna regresija je računsko učinkovita in lahko učinkovito obravnava velike nabore podatkov. Hitro ga je mogoče usposobiti na velikih naborih podatkov, zaradi česar je primeren za aplikacije v realnem času. Linearna regresija je v primerjavi z drugimi algoritmi strojnega učenja razmeroma robustna do izstopajočih vrednosti. Izstopanja imajo lahko manjši vpliv na celotno zmogljivost modela. Linearna regresija pogosto služi kot dober osnovni model za primerjavo z bolj zapletenimi algoritmi strojnega učenja. Linearna regresija je dobro uveljavljen algoritem z bogato zgodovino in je široko dostopen v različnih strojnih učenjih knjižnice in programski paketi. Slabosti linearne regresijeLinearna regresija predpostavlja linearno razmerje med odvisnimi in neodvisnimi spremenljivkami. Če razmerje ni linearno, model morda ne bo deloval dobro. Linearna regresija je občutljiva na multikolinearnost, ki se pojavi, ko obstaja visoka korelacija med neodvisnimi spremenljivkami. Multikolinearnost lahko poveča varianco koeficientov in povzroči nestabilne napovedi modela. Linearna regresija predpostavlja, da so značilnosti že v primerni obliki za model. Za preoblikovanje funkcij v obliko, ki jo lahko model učinkovito uporablja, bo morda potrebno inženirstvo funkcij. Linearna regresija je dovzetna tako za prekomerno kot premajhno prilagajanje. Prekomerno opremljanje se zgodi, ko se model predobro nauči podatkov o usposabljanju in ga ne posploši na nevidne podatke. Nezadostno prilagajanje se pojavi, ko je model preveč preprost, da bi zajel osnovne odnose v podatkih. Linearna regresija zagotavlja omejeno razlagalno moč za zapletene odnose med spremenljivkami. Za globlje vpoglede bodo morda potrebne naprednejše tehnike strojnega učenja. Zaključek Linearna regresija je temeljni algoritem strojnega učenja, ki se že vrsto let pogosto uporablja zaradi svoje preprostosti, razlage in učinkovitosti. Je dragoceno orodje za razumevanje odnosov med spremenljivkami in napovedovanje v različnih aplikacijah. Vendar se je pomembno zavedati njegovih omejitev, kot sta predpostavka o linearnosti in občutljivost na multikolinearnost. Če te omejitve skrbno upoštevamo, je lahko linearna regresija močno orodje za analizo in napovedovanje podatkov. Linearna regresija – pogosto zastavljena vprašanja (FAQ) Kaj pomeni linearna regresija v preprostem jeziku? Linearna regresija je nadzorovan algoritem strojnega učenja, ki napove neprekinjeno ciljno spremenljivko na podlagi ene ali več neodvisnih spremenljivk. Predpostavlja linearno razmerje med odvisnimi in neodvisnimi spremenljivkami in uporablja linearno enačbo za modeliranje tega razmerja. Zakaj uporabljamo linearno regresijo? Linearna regresija se običajno uporablja za: Napovedovanje numeričnih vrednosti na podlagi vhodnih značilnosti Napovedovanje prihodnjih trendov na podlagi preteklih podatkov Prepoznavanje korelacije med spremenljivkami Razumevanje vpliva različnih dejavnikov na določen izid Kako uporabljati linearno regresijo? Uporabite linearno regresijo tako, da prilagodite črto, da napoveste razmerje med spremenljivkami , razumevanje koeficientov in izdelava napovedi na podlagi vhodnih vrednosti za informirano odločanje. Zakaj se imenuje linearna regresija? Linearna regresija je poimenovana po uporabi linearne enačbe za modeliranje razmerja med spremenljivkami, ki predstavlja prileganje ravne črte podatkovnim točkam. Kaj so primeri linearne regresije? Napovedovanje cen hiš na podlagi kvadratnih posnetkov, ocenjevanje izpitnih rezultatov iz študijskih ur in napovedovanje prodaje z uporabo oglaševalske porabe so primeri aplikacij linearne regresije.>

