Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

Bei der Zeitreihenanalyse kann es sich um eine statistische Technik handeln, die sich mit statistischen Daten befasst, oder um eine Analyse. Statistische Daten bedeutet, dass die Daten während einer Reihe bestimmter Zeiträume oder Intervalle vorliegen. Die Informationen werden in drei Arten berücksichtigt:

Zeitreihendaten: eine Gruppe von Beobachtungen über die Werte, die eine Variable zu verschiedenen Zeiten einnimmt.

Querschnittdaten: Daten von 1 oder mehreren Variablen, die zu einem äquivalenten Zeitpunkt erhoben werden.

Gepoolte Daten: eine Mischung aus Ihren Zeitreihendaten und Querschnittsdaten.

Begriffe und Konzepte:

Abhängigkeit: Die Abhängigkeit bezieht sich auf die Verbindung zweier Beobachtungen mit einer äquivalenten Variablen zu früheren Zeitpunkten.

Stationarität: Zeigt den Mittelwert der Reihe an, der über einen Zeitraum noch konstant ist; wenn sich vergangene Effekte akkumulieren und daher die Werte gegen Unendlich ansteigen, dann ist die Stationarität nicht erfüllt.

Differenzierung: macht die Serie stationär, senkt den Trend ab und reguliert die Autokorrelationen; eine Zeit lang erfordern Serienanalysen jedoch keine Differenzierung, und überdifferenzierte Serien können zu ungenauen Schätzungen führen.

Spezifikation: Kann die Prüfung der linearen oder nichtlinearen Beziehungen abhängiger Variablen unter Verwendung von Modellen wie ARIMA, ARCH, GARCH, VAR, Kointegration usw. beinhalten.

Exponentielle Glättung in der statistischen Analyse: Diese Methode sagt den einen Wert der nächsten Periode voraus, der den vergangenen und aktuellen Wert unterstützt. Es handelt sich um eine Mittelwertbildung des Wissens, so dass sich die unsystematischen Komponenten jedes einzelnen Falls oder jeder einzelnen Beobachtung gegenseitig auslöschen. Die Methode der exponentiellen Glättung wird zur Vorhersage der kurzfristigen Prädikation verwendet. Alpha, Gamma, Phi und Delta sind die Parameter, die die Wirkung der statistischen Daten abschätzen. Alpha wird verwendet, wenn keine Saisonalität in den Daten vorhanden ist. Gamma wird verwendet, wenn eine Reihe einen Trend in den Daten aufweist. Delta wird verwendet, wenn saisonale Zyklen in den Daten vorhanden sind. Es wird ein Modell angewendet, das mit dem Muster der Informationen konsistent ist. Kurvenanpassung bei statistischer Analyse: Die Kurvenanpassungsregression wird angewendet, wenn sich die Daten in einer nichtlinearen Beziehung befinden. Die nachfolgende Gleichung zeigt das nicht-lineare Verhalten:

Abhängige Variable, wobei Fall die fortlaufende Fallnummer ist.

Die Kurvenanpassung wird oft durch Auswahl von “Regression” aus dem Analyse-Menü und dann durch Auswahl von “Kurvenschätzung” aus der Regressions-Option durchgeführt. Wählen Sie dann “gewünschte Kurve linear”, “Leistung”, “quadratisch”, “kubisch”, “invers”, “logistisch”, “exponentiell” oder “andere”.

ARIMA:

ARIMA steht für autoregressiven integrierten gleitenden Mittelwert. Diese Methode wird zusätzlich als Box-Jenkins-Methode bezeichnet.

Identifizierung der ARIMA-Parameter:

Autoregressive Komponente: AR steht für autoregressiv. Autoregressiver Parameter wird mit p bezeichnet. Wenn p =0 ist, bedeutet dies, dass es keine Autokorrelation innerhalb der Serie gibt. Wenn p=1, bedeutet dies, dass die Serien-Autokorrelation bis zu einer Verzögerung besteht.

Integriert: In der ARIMA-Statistikanalyse wird integriert mit d bezeichnet. Integration ist die Inverse der Differenzierung. Wenn d=0, bedeutet dies, dass die Serie stationär ist und dass wir nicht die Differenz von ihr nehmen müssen. Wenn d=1, bedeutet dies, dass die Reihe nicht stationär ist, und um sie stationär zu bilden, möchten wir die primäre Differenz verlangen. Wenn d=2, bedeutet das, dass die Serie zweimal differenziert wurde. Gewöhnlich ist eine Zeitdifferenz von ganz zwei nicht zuverlässig.

Komponente des gleitenden Durchschnitts: In ARIMA bedeutet gleitender Mittelwert q=1, dass es sich um einen Fehlerterm handelt und dass es eine Autokorrelation mit einer Verzögerung gibt.

Um zu überprüfen, ob die Reihe und ihr Fehlerterm autokorreliert sind oder nicht, verwenden wir normalerweise W-D-Test, ACF und PACF.

Zersetzung: Bezieht sich auf die Trennung einer Statistik in Trend, saisonale Effekte und verbleibende Variabilitätsannahmen:

Stationarität: Die Hauptannahme ist, dass die Reihen stationär sind. Im Wesentlichen deutet dies darauf hin, dass die Reihen normalverteilt sind und daher der Mittelwert und die Varianz über einen längeren Zeitraum konstant sind.

Unkorrelierter Zufallsfehler: Wir nehmen an, dass der Fehlerterm zufällig verteilt ist und daher Mittelwert und Varianz über einen längeren Zeitraum konstant sind. Der Durbin-Watson-Test ist der Standardtest für korrelierte Fehler.

Keine Ausreißer: Wir nehmen an, dass es innerhalb der Reihe keine Ausreißer gibt. Ausreißer können die Schlussfolgerungen stark beeinflussen und können irreführend sein.

Zufällige Schocks (eine zufällige Fehlerkomponente): Wenn Schocks vorhanden sind, wird angenommen, dass sie zufällig mit einem Mittelwert von 0 und einer kontinuierlichen Varianz verteilt sind.

Statistics Solutions kann Sie zusammen mit Ihrer quantitativen chemischen Analyse unterstützen, indem es Ihnen hilft, Ihre Methodik und Ergebniskapitel zu entwickeln. Die Dienstleistungen, die wir anbieten, umfassen:

Datenanalyse-Plan

Bearbeiten Sie Ihre Forschungsfragen und Null-/Alternativhypothesen

Schreiben Sie Ihren Datenanalyseplan; spezifizieren Sie spezifische Statistiken zur Behandlung der Forschungsfragen, die Annahmen der Statistiken und begründen Sie, warum sie die akzeptablen Statistiken sind; geben Sie Referenzen

Begründen Sie Ihre Stichprobengröße/Power-Analyse, geben Sie Referenzen an

Erläutern Sie Ihre Entscheidung zur Datenanalyse, damit Sie sich wohl fühlen und sicher sind

Zwei Stunden zusätzliche Unterstützung zusammen mit Ihrem Statistiker

Abschnitt Quantitative Ergebnisse (Deskriptive Statistik, bivariate und multivariate Analysen, Modellierung von Strukturgleichungen, Pfadanalyse, HLM, Clusteranalyse)