Funktions-Datasets werden als Ausgabe von Regressionsmodell erstellen erzeugt. Ein Funktions-Dataset enthält die Gleichung und die Statistiken eines Regressionsmodells.
Verwenden eines Funktions-Datasets
Funktions-Datasets werden im Eingabe-Regressionsmodell für Variable vorhersagen verwendet. Sie können "Variable vorhersagen" öffnen, indem Sie ein Funktions-Dataset auf eine Karten-Kachel ziehen.
Ein Punktdiagramm, das die Koeffizienten und Konfidenzintervalle für den Schnittpunkt und jede erklärende Variable enthält, erstellen Sie, indem Sie ein Funktions-Dataset im Datenbereich erweitern und auf Konfidenzintervall anzeigen klicken.
Tipp:
Ziehen Sie ein Funktions-Dataset auf das Punktdiagramm, das aus einem anderen Regressionsmodell erstellt wurde, um die Konfidenzintervalle für die erklärenden Variablen zwischen den Modellen zu vergleichen.
Statistiken
Funktions-Datasets speichern die Gleichung und die Statistiken aus einem Regressionsmodell. Statistiken können angezeigt werden, indem Sie das Funktions-Dataset im Datenbereich erweitern oder die Datentabelle öffnen.
Folgende Statistiken sind im Datenbereich verfügbar:
Statistik | Beschreibung |
---|---|
Regressionsgleichung | Die Regressionsgleichung hat das folgende Format:
y ist die abhängige Variable, bn stellt die berechneten Parameter dar, und xn stellt die erklärenden Variablen dar. |
R2 | Der R2-Wert, auch als Bestimmtheitsmaß bezeichnet, ist eine Zahl zwischen 0 und 1, die angibt, wie gut die Datenpunkte durch die am besten passende Linie modelliert werden. Je näher die Werte bei 1 liegen, desto genauer sind die Modelle. |
Adjusted R2 | Adjusted R2 (adjustiertes Bestimmtheitsmaß) ist ebenfalls ein Wert zwischen 0 und 1. Mit ihm werden jedoch zusätzliche Einflussvariablen berücksichtigt, die bei einem nur auf Zufall basierenden Modell möglicherweise eine bessere Anpassung bewirken. Es empfiehlt sich, den Adjusted R2-Wert zu verwenden, wenn das Modell eine große Anzahl von Einflussvariablen aufweist oder wenn Modelle verglichen werden, die eine unterschiedliche Anzahl von Einflussvariablen enthalten. |
Durbin-Watson | Mit dem Durbin-Watson-Test wird die Autokorrelation von Residuen aus einer Regressionsanalyse auf einer Skala von 0 bis 4 gemessen. Dabei gibt 0 bis 2 eine positive Autokorrelation, 2 keine Autokorrelation und 2 bis 4 eine negative Autokorrelation an. Ein Regressionsmodell sollte möglichst eine geringe Autokorrelation aufweisen, d. h. die Werte des Durbin-Watson-Testes, die am nächsten bei 2 liegen, sind vorteilhafter. Hinweis:Die Berechnung des Durbin-Watson-Testes hängt von der Anordnung der Daten ab. Die Daten müssen sequentiell angeordnet sein, insbesondere wenn es sich um Zeitdaten handelt. Wenn die Daten nicht ordnungsgemäß angeordnet sind, ist der Wert des Durbin-Watson-Testes möglicherweise nicht korrekt. |
Residualstandardfehler | Der Residualstandardfehler misst die Genauigkeit, mit der das Regressionsmodell Werte mit neuen Daten vorhersagen kann. Kleinere Werte weisen auf ein genaueres Modell hin. Mit dem Residualstandardfehler wird auch der Wert der Restfreiheitsgrade angegeben. |
F-Statistik | Mit der F-Statistik wird die Vorhersagefähigkeit des Regressionsmodells bestimmt, indem festgestellt wird, ob die Koeffizienten sich deutlich von 0 unterscheiden. Die F-Statistik ist ein Wert größer oder gleich 0. Sie enthält zwei Werte für Freiheitsgrade: Der erste stellt die Freiheitsgrade für erklärende Variablen dar und der zweite die Freiheitsgrade für die Residuen. |
p-Wert | Der p-Wert für die F-Statistik ist ein Test der globalen Signifikanz eines Regressionsmodells. Ein p-Wert wird als Wert zwischen 0,0 und 1,0 angegeben. Werte zwischen 0 und 0,05 weisen darauf hin, dass das globale Modell statistisch signifikant ist. |
Folgende Statistiken sind in der Datentabelle verfügbar:
Statistik | Beschreibung |
---|---|
Variable | Der Schnittpunkt und die Namen der erklärenden Variablen. |
Koeffizient | Die b-Werte für die Regressionsgleichung, welche dem y-Schnittpunkt und der Neigung für jede erklärende Variable entsprechen. |
Standardfehler | Der Standardfehler misst die Variation in jeder vom Modell verwendeten Einflussvariablen. Kleinere Werte weisen auf genauere Einflussvariablen hin. |
t-Wert | Mit dem t-Wert wird die Vorhersagefähigkeit jedes Regressionskoeffizienten bestimmt, indem festgestellt wird, ob die Koeffizienten sich deutlich von 0 unterscheiden. |
p-Wert | Der p-Wert steht in Beziehung mit dem t-Wert und prüft die lokale Signifikanz für die Koeffizienten im Regressionsmodell. Ein p-Wert ist ein Wert zwischen 0,0 und 1,0. Werte zwischen 0,0 und 0,05 weisen darauf hin, dass der Koeffizient statistisch signifikant ist. |
Konfidenzintervall | Konfidenzintervalle geben die Ober- und Untergrenzen an, innerhalb derer Sie ein gewisses Maß an Sicherheit haben können, dass der Koeffizient in den Bereich fällt. Wenn z. B. das untere Konfidenzintervall von 95 Prozent 10 und das obere Konfidenzintervall von 95 Prozent 15 ist, haben Sie ein Konfidenzniveau von 95 Prozent, dass der wahre Wert des Koeffizienten zwischen 10 und 15 liegt. In der Datentabelle werden die folgenden Konfidenzintervalle angegeben:
|
Standardisierte Koeffizienten | Standardisierte Koeffizienten werden berechnet, indem die Daten so standardisiert werden, dass die Varianz der abhängigen und erklärenden Variablen gleich 1 ist. Standardisierte Koeffizienten sind besonders hilfreich, um Koeffizientenwerte mit verschiedenen Maßeinheiten zu vergleichen. |
Standardisierte Konfidenzintervalle | Standardisierte Konfidenzintervalle geben die Ober- und Untergrenzen an, innerhalb derer Sie ein gewisses Maß an Sicherheit haben können, dass der Koeffizient in den Bereich fällt. In der Datentabelle werden die folgenden standardisierten Konfidenzintervalle angegeben:
|
Weitere Informationen zur Verwendung und Interpretation der statistischen Ausgaben in einem Funktions-Dataset finden Sie unter Regressionsanalyse.