Level 2
Level 1

Deskriptive lineare Regression


35 words 0 ignored

Ready to learn       Ready to review

Ignore words

Check the boxes below to ignore/unignore words, then click save at the bottom. Ignored words will never appear in any learning session.

All None

Ignore?
Regressionsanalyse
modelliert Zusammenhänge
Varianzanalyse
ermittelt Unterschiede
Regression
versucht linearen Zusammenhang zwischen X und Y mathematisch zu erfassen
Voraussetzung für Regression
Merkmal (X) gegeben oder beeinflussbar; Merkmal (Y) als Reaktion auf X
Regressionsgerade
Y= a + bX
Regressand
Merkmal Y
Regressor
Merkmal X
Eigenschaften von Merkmal X
ist gegeben oder beeinflussbar
Eigenschaften Merkmal Y
wird zu X beobachtet; weißt Streuung auf; Werte von Y liegen nicht exakt auf einer Geraden
Einbeziehung von Fehlerglied "e"
Weil Werte von Y nicht exakt auf einer Geraden liegen
Regressionsgerade mit Einbeziehung von "e"
Y= a + bX + e
Was bedeutet "a"
Konstante, die Abschnitt angibt, an dem Gerade die Y-Achse schneidet
Wenn "a" = 0 dann
geht die Gerade durch den Ursprung
Was bedeutet "b"
ist Anstieg der Geraden
Wenn X um eine Einheit ansteigt, dann
verändert sich der Y-Wert um Betrag b
Bei keinem Zusammenhang ergibt sich eine
Punktwolke
KQ-Methode
Methode der Kleinsten-Quadrate
Ausreißer
beeinflussen Lage der Regressionsgeraden; müssen eingeschätzt und ggfs. entfernt werden
Was sind Ausreißer?
von der großen Maße entfernt liegende Punkte
Residuen
sind Abstände die bleiben, wenn beobachtete Punkte der Regressionsgeraden nicht völlig mit angepassten Punkten übereinstimmen
Funktion des Regressionsgeradenmodells
etwas das n-dimensional ist, k-dimensional beschreiben ( n=Zahl der Beobachtungen; k=Zahl der Parameter (a und b) )
Güte der Anpassung
durch Bestimmtheitsmaß R²
Eigenschaften von R²
Im einfachen linearen Regressionsmodell ist R²=r² ( Quadrat des Korrelationskoeffizienten)
R² liegt
immer zwischen 0 und 1
SQ(Total)
ist s²y ( Varianz von y)
SQ(Residual)
misst Abweichung zwischen Originalpunktwolte und der durch Regression angepasste, vorhergesagten Werten; je kleiner ( je näher R² an 1) desto besser ist erzielte Vorhersage der abhängigen Variable
SQ(Regression)
misst den durch Regression erklärten Anteil an der Gesamtvariabilität
Erster möglicher Grenzfall
Falls alle Punkte (xi,yi) auf Regressionsgeraden liegen würden, wäre SQ(Residual)=0, und R²=1
Zweiter möglicher Grenzfall
R²=0 tritt ein, falls SQ(Regression)=0, bzw. SQ(Residual)=SQ(Total) ist
Eigenschaft des zweiten Grenzfalls
Regressionsgerade verläuft parallel zur x-Achse; x hat keinen Einfluss auf y; es gibt keine lineare Beziehung
Je größer R²
desto stärker lineare Beziehung zwischen X und Y
Regressoren mit kategorialem Skalenniveau erfordern eine spezifische Behandlung
z.B. Merkmale wie ledig, verheiratet, geschieden etc. müssen codiert werden ( ledig=1, verheirtat=2 etc.), da sie bei Parameterschätzung nicht wie reelle Zahlen behandelt werden können; geschieht durch Dummy-oder Effektcodierung
Dummycodierung
kategoriales Merkmal X mit k möglichen Merkmalsausprägungen wird durch k-1 Dummys Xi codiert --> xi=1 falls Kategorie i vorliegt; xi=0 bei sonstigen Fällen
Effektcodierung
wie bei Dummycodierung; aber xi=1 falls Kategorie vorliegt, xi=-1 falls Kategorie j vorliegt, xi=0 bei sonstigen Fällen