Statistik ist die Ordnung, die das Sammeln, Assoziieren, Zeigen, Prüfen, Übersetzen und Einbringen von Daten beunruhigt. Bei der Anwendung von Messungen auf ein logisches, mechanisches oder soziales Thema ist es in jedem Fall üblich, eine faktische Bevölkerung oder ein messbares Modell zu berücksichtigen. Populationen können verschiedene Zusammenschlüsse von Einzelpersonen oder Gegenständen sein, z.B. “alle Individuen, die in einer Nation leben” oder “jedes Jota, das einen Edelstein bildet”. Insights verwaltet jeden Teil der Informationen, einschließlich der Anordnung der Informationsakkumulation bezüglich des Plans von Studien und Experimenten. Siehe Glossar zu Wahrscheinlichkeit und Messungen.

An dem Punkt, an dem Aufzählungsinformationen nicht gesammelt werden können, sammeln Analysten Informationen, indem sie explizite Untersuchungsstrukturen und Übersichtstests erstellen. Die Agenteninspektion garantiert, dass Induktionen und Enden vom Beispiel bis zur Bevölkerung insgesamt sinnvoll strecken können. Eine Teststudie umfasst die Durchführung von Schätzungen der Rahmen-Untersuchung, die Kontrolle des Rahmens und danach die Durchführung zusätzlicher Schätzungen unter Verwendung einer ähnlichen Technik, um zu entscheiden, ob die Kontrolle die Schätzungen der Schätzungen verändert hat. Umgekehrt beinhaltet eine Beobachtungsuntersuchung keine explorative Kontrolle.

Zwei primäre faktische Strategien werden bei der Untersuchung von Informationen verwendet: unverwechselbare Messungen, die Informationen aus einem Beispiel anhand von Aufzeichnungen umreißen, z.B. den Mittelwert oder die Standardabweichung, und inferentielle Erkenntnisse, die Rückschlüsse aus Informationen ziehen, die von einer unregelmäßigen Sorte abhängig sind (z.B. Beobachtungsfehler, Untersuchung der Variation). Unterschiedliche Messungen machen sich regelmäßig Gedanken über zwei Anordnungen von Eigenschaften einer Aneignung (Test oder Population): Die fokale Neigung (oder Fläche) versucht, den Brennpunkt oder den Verlauf der Wertschätzung der Förderung zu beschreiben, während die Streuung (oder Fluktuation) den Grad darstellt, in dem die Individuen aus der Streuung aus ihrem Inneren und voneinander weggehen. Abzüge für numerische Messungen werden unter der Struktur der Wahrscheinlichkeitshypothese vorgenommen, die die Untersuchung von unregelmäßigen Wundern steuert.

Eine Standard-Faktenmethode beinhaltet die Erprobung des Zusammenhangs zwischen zwei messbaren Informationsindizes oder einer Informationssammlung und einer hergestellten Information, die aus einem verherrlichten Modell gewonnen wird. Für die faktische Verbindung zwischen den beiden Informationssammlungen wird eine Spekulation vorgeschlagen, und diese wird als Option mit einer romantisierten ungültigen Theorie der fehlenden Verbindung zwischen zwei Informationsindizes kontrastiert. Das Zurückweisen oder Widerlegen der ungültigen Spekulation wird durch die Verwendung von faktischen Tests beendet, die den Sinn messen, in dem die ungültige Spekulation widerlegt werden kann, wenn man die Informationen, die in dem Test verwendet werden, berücksichtigt. Ausgehend von einer ungültigen Theorie werden zwei wesentliche Arten von Fehlern wahrgenommen: Fehler vom Typ I (ungültige Spekulation wird unehrlich abgetan, was zu einem “falsch positiven” Ergebnis führt) und Fehler vom Typ II (die ungültige Theorie versäumt es, abgetan zu werden, und eine wirkliche Verbindung zwischen Populaken wird versäumt, was zu einem “falsch negativen” Ergebnis führt). Mit diesem System sind zahlreiche Fragen verbunden: vom Erwerb einer angemessenen Beispielgröße bis zur Bestimmung einer zufriedenstellenden ungültigen Hypothese.

Schätzformen, die messbare Informationen erzeugen, sind zusätzlich auf Fehler angewiesen. Eine große Anzahl dieser Fehler werden als willkürlich (lautstark) oder effizient (Veranlagung) bezeichnet, doch können verschiedene Arten von Fehlern (z.B. Hummeln, wenn ein Ermittler z.B. falsche Einheiten meldet) ebenfalls vorkommen. Die Nähe zu fehlenden Informationen oder zur Redaktion kann zu einseitigen Bewertungen führen, und es wurden explizite Systeme geschaffen, um diese Probleme anzugehen.

Die frühesten Arbeiten über Wahrscheinlichkeit und Messungen, faktische Techniken, die von der Wahrscheinlichkeitshypothese ausgehen, gehen auf Mathematiker und Kryptographen aus dem Nahen Osten zurück, insbesondere auf Al-Khalil (717-786) und Al-Kindi (801-873). Im achtzehnten Jahrhundert begannen die Erkenntnisse zusätzlich intensiv aus der Analytik zu schöpfen. In späteren Jahren hingen die Einsichten mehr von faktischer Programmierung ab, um Tests, zum Beispiel grafische Analysen, zu liefern.

Anhäufung von Informationen

Untersuchen

An dem Punkt, an dem keine vollständigen Registrierungsinformationen gesammelt werden können, sammeln Analysten Testinformationen, indem sie explizite Analysepläne und Übersichtstests erstellen. Insights selbst gibt ebenfalls Instrumente zur Erwartung und Schätzung durch Faktenmodelle an die Hand. Mitte der 1600er Jahre wurde damit begonnen, Induktionen von getesteten Informationen abhängig zu machen, um die Bevölkerung zu bewerten und Vorläufer von Lebensversicherungen zu schaffen.

Um ein Beispiel als Leitfaden für eine ganze Bevölkerung zu verwenden, ist es wichtig, dass es sich wirklich an die allgemeine Bevölkerung wendet. Die Prüfung durch die Delegierten garantiert, dass die Übergaben und Enden sicher von dem Beispiel zur Bevölkerung im Allgemeinen gelangen können. Eine wichtige Frage besteht darin, zu entscheiden, inwieweit das gewählte Beispiel wirklich repräsentativ ist. Einsichten bieten Strategien zur Einschätzung und zum Umgang mit einer eventuellen Veranlagung innerhalb des Beispiels und Methoden der Informationsakkumulation. Es gibt zusätzliche Techniken der Versuchsstruktur für Tests, die diese Probleme zu Beginn einer Untersuchung reduzieren können, indem ihre Fähigkeit zur Wahrnehmung der Realitäten in der Bevölkerung gestärkt wird.

Die Prüfung der Hypothese ist ein Teil der numerischen Ordnung der Wahrscheinlichkeitshypothese. Die Wahrscheinlichkeit wird in numerischen Einsichten genutzt, um über die prüfenden Aneignungen von Testmessungen nachzudenken und, umso mehr, im Großen und Ganzen, über die Eigenschaften von faktischen Strategien. Die Verwendung jeder messbaren Strategie ist wesentlich, wenn der Rahmen oder die Bevölkerung die Annahmen der Technik erfüllt. Der perspektivische Unterschied zwischen der Hypothese der großen Wahrscheinlichkeit und der Testhypothese besteht im Allgemeinen darin, dass die Wahrscheinlichkeitshypothese von den gegebenen Parametern einer absoluten Population ausgeht, um auf Wahrscheinlichkeiten zu schließen, die sich auf Tests beziehen. Dessen ungeachtet geht die faktische Vermutung den anderen Weg – induktives Ableiten aus Tests zu den Parametern einer größeren oder absoluten Population.

Arten von Informationen

Grundlegende Artikel: Typ der Sachinformation und Schätzungsebenen

Es wurden verschiedene Anstrengungen unternommen, um eine wissenschaftliche Klassifizierung der Schätzungsebenen zu liefern. Der Psychophysiker Stanley Smith Stevens charakterisierte Vorgeblich-, Ordinal-, Zwischen- und Proportionsskalen. Scheinbare Schätzungen haben keine signifikante Positionsanforderung unter den Qualitäten und gewähren jede ausgewogene (injektive) Veränderung. Ordinale Schätzungen weisen lockere Kontraste zwischen kontinuierlichen Schätzungen auf, haben jedoch eine wichtige Anforderung an diese Qualitäten und gewähren jede Anforderung, die eine Veränderung schützt. Zwischenzeitliche Schätzungen haben wichtige Trennungen zwischen charakterisierten Schätzungen, dennoch ist der Nullwert diskretionär (wie für die Situation mit Längen- und Temperaturschätzungen in Celsius oder Fahrenheit) und genehmigen jede gerade Änderung. Anteilsschätzungen haben sowohl einen wichtigen Nullwert als auch die Trennungen zwischen verschiedenen Schätzungen charakterisiert und gewähren jede Änderung der Skalierung.

Da Faktoren, die sich nur an vorgebliche oder ordinale Schätzungen anpassen, numerisch nicht sinnvoll geschätzt werden können, werden sie hier und da als absolute Faktoren zusammengetragen, obwohl Anteils- und Zwischenschätzungen aufgrund ihres numerischen Charakters als quantitative Faktoren zusammengestellt werden, die entweder diskret oder konstant sein können. Solche Qualifikationen lassen sich im Software-Engineering häufig näherungsweise mit dem Informationstyp in Verbindung bringen, indem man dichotome All-Out-Faktoren mit dem booleschen Informationstyp, polytome Clear-Cut-Faktoren mit willkürlich festgelegten Zahlen im unverzichtbaren Informationstyp und persistente Faktoren mit dem echten Informationstyp einschließlich der Driftpunktberechnung anspricht. In jedem Fall hängt die Zuordnung von Software-Engineering-Informationstypen zu messbaren Informationstypen davon ab, welche Anordnung des letzteren ausgeführt wird.

Es wurden verschiedene Klassifikationen vorgeschlagen. Zum Beispiel erkannten Mosteller und Tukey (1977) Bewertungen, Positionen, erhobene Divisionen, Schecks, Summen und Paritäten an. Nelder (1990) stellte Nonstop-Tallies, konsistente Proportionen, Tally-Proportionen und absolute Informationsmethoden dar. Siehe auch Chrisman (1998), van cave Berg (1991).

Die Frage, ob es geeignet ist, verschiedene Arten von Faktentechniken auf Informationen anzuwenden, die aus verschiedenen Arten von Schätzungsstrategien gewonnen wurden, wird durch Fragen der Veränderung von Faktoren und der genauen Klärung von Forschungsfragen erschwert. “Die Verbindung zwischen den Informationen und dem, was sie darstellen, spiegelt einfach die Art und Weise wider, wie bestimmte Arten von messbaren Artikulationen eine Wertschätzung der Wahrheit haben können, die bei bestimmten Veränderungen nicht unveränderlich ist. Unabhängig davon, ob eine Änderung vernünftig zu erwägen ist, beruht auf der Anfrage, die man zu beantworten versucht” (Hand, 2004, S. 82)