Regressionsanalys

Den här artikeln behöver källhänvisningar för att kunna verifieras. (2018-12)
Åtgärda genom att lägga till pålitliga källor (gärna som fotnoter). Uppgifter utan källhänvisning kan ifrågasättas och tas bort utan att det behöver diskuteras på diskussionssidan.
Regressionslinjen i blått är funktionen som bäst approximerar de röda datapunkterna
Linjär regression, beroende av koordinatsystemet. Regressionslinje beräknad som y=f(x) (blå linje) eller x=f(y) (grön linje). Röd linje har minimal summa av vinkelräta avstånd till punkterna. Punktsvärmen vrids kring origo = (mx, my).

Regressionsanalys, regression, är en metod inom statistik där målet är att skapa en funktion som bäst passar observerade data.

Enkel linjär regression

Vid enkel linjär regression utgår man från att en rät linje kan anpassas till data och regressionsekvationen är då

y = a + b x , {\displaystyle y=a+bx,\,}

där y (vertikal) är den beroende (den som påverkas) variabeln och x (horisontell) är den oberoende (den som påverkar). Interceptet med y-axeln a och lutningen b beräknas så att felet jämfört med observerade data blir så litet som möjligt. Felet kan beräknas med exempelvis minstakvadratmetoden eller maximum likelihood.

Linjär regression förutsätter att variablerna är på intervallskalenivå.

Regressionslinjen beror inte enbart på punktsvärmens utseende utan även på dess orientering i koordinatsystemet, vilket visas av vidstående bild. Man får också en annan linje om oberoende/beroende variabel byts.

Andra varianter av regressionsanalys

  • Multipel linjär regression
  • Icke-linjär regression
  • Kvadratisk regression
  • Kubisk regression
  • Kvantilregression (där medianregression är ett specialfall)
  • Enkel logistisk regression
  • Sinusregression

Se även

  • Konfidensintervall
  • Korrelation

Externa länkar

  • http://infovoice.se/fou/bok/statmet/10000053.shtml
v  r
Differentierbar datoranvändning
General
Differentierbar programmering Neural Turing maskin Differentierbar neural dator Automatisk differentiering Neuromorf ingenjörskonst Cable theory Mönsterigenkänning Beräkningslärandeteori Tensorkalkyl
Begrepp
Gradient descent SGD Klusteranalys Regression Overfitting Adversary Attention Faltning Förlustfunktioner Backpropagation Normalization Activation Softmax Sigmoid Rectifier Regularization Datasets Augmentation
Programmeringsspråk
Python Julia
Applikationer
Maskininlärning Artificiellt neuronnät Djupinlärning Numerisk analys Federerad inlärning Artificiell intelligens
Hårdvara
IPU TPU VPU Memristor SpiNNaker
Mjukvarubibliotek
TensorFlow PyTorch Keras Theano
Implementation
Audiovisuellt
Verbal
Word2vec Transformator BERT NMT Project Debater Watson GPT-2 GPT-3
Beslutande
Alphago AlphaZero Q-learning SARSA OpenAI Five Självkörande bil MuZero Action selection Robot control
Personer
Alex Graves Ian Goodfellow Yoshua Bengio Geoffrey Hinton Yann LeCun Andrew Ng Demis Hassabis David Silver Fei-Fei Li
Organisationer
Deepmind Hi! PARIS Openai MIT CSAIL Mila Google Brain