Les statistiques sont l’ordre qui concerne la collecte, l’association, la présentation, l’examen, la traduction et l’introduction des données. En appliquant des mesures à une question logique, mécanique ou sociale, il est ordinaire dans tous les cas de considérer une population factuelle ou un modèle mesurable. Les populations peuvent être différents rassemblements d’individus ou d’objets, par exemple, “tous les individus vivant dans une nation” ou “chaque iota faisant une pierre précieuse”. Insights gère chaque partie de l’information, y compris l’organisation de l’accumulation d’informations concernant le plan d’études et d’expériences (voir le glossaire des probabilités et des mesures).

Au moment où il est impossible de recueillir des informations sur le dénombrement, les analystes rassemblent des informations en créant des structures d’examen explicites et des tests de synthèse. L’inspection des agents garantit que les inductions et les fins peuvent raisonnablement s’étendre de l’exemple à la population dans son ensemble. Une étude de test comprend la prise d’estimations de la doublure du cadre, le contrôle du cadre, et ensuite la prise d’estimations supplémentaires en utilisant une technique similaire pour décider si le contrôle a modifié les estimations des estimations. Inversement, une étude d’observation n’inclut pas de contrôle exploratoire.

Deux stratégies factuelles principales sont utilisées dans la recherche d’informations : les mesures sans équivoque, qui présentent les informations d’un exemple en utilisant des enregistrements, par exemple, la moyenne ou l’écart-type, et les aperçus inférentiels, qui font des déductions à partir d’informations qui dépendent d’une variété irrégulière (par exemple, erreurs d’observation, examen de la variation). Les mesures distinctes s’inquiètent régulièrement de deux dispositions des propriétés d’une appropriation (test ou population) : la propension focale (ou surface) cherche à décrire la focale du transport ou le déroulement de l’estime de l’usine, tandis que la dispersion (ou fluctuation) représente le degré de sortie des individus de la dispersion de son intérieur et les uns des autres. Les déductions sur les mesures numériques sont faites sous la structure de l’hypothèse de vraisemblance, qui gère l’investigation des merveilles irrégulières.

Une méthode factuelle standard comprend l’essai du lien entre deux indices informationnels mesurables, ou une collection d’informations et des informations fabriquées tirées d’un modèle glorifié. Une spéculation est proposée pour le lien factuel entre les deux collections d’informations, et elle est opposée en tant qu’option à une théorie romantique invalide de l’absence de lien entre deux indices informationnels. Le rejet ou la réfutation de la spéculation invalide s’achève par l’utilisation de tests factuels qui mesurent le sens dans lequel l’invalide peut être réfuté, compte tenu des informations utilisées dans le test. En partant d’une théorie invalide, deux types essentiels de bavures sont perçus : Les erreurs de type I (la spéculation non valable est malhonnêtement rejetée, ce qui donne un “faux positif”) et les erreurs de type II (la théorie non valable néglige d’être rejetée et un lien réel entre les populations est omis, ce qui donne un “faux négatif”). De nombreux problèmes sont liés à ce système : de l’acquisition d’un exemple de taille adéquate à la détermination d’une hypothèse invalide satisfaisante.

Les formulaires d’estimation qui créent des informations mesurables sont en outre tributaires des erreurs. Un grand nombre de ces erreurs sont qualifiées d’arbitraires (clameur) ou d’efficaces (prédisposition), mais différents types d’erreurs (par exemple, le bumble, lorsqu’un enquêteur signale des unités erronées) peuvent également se produire. La proximité d’informations manquantes ou de modifications peut entraîner des évaluations unilatérales et des systèmes explicites ont été créés pour résoudre ces problèmes.

Les travaux les plus anciens sur la probabilité et les mesures, techniques factuelles s’appuyant sur l’hypothèse de la probabilité, remontent aux mathématiciens et cryptographes du Moyen-Orient, notamment Al-Khalil (717-786) et Al-Kindi (801-873). Au XVIIIe siècle, les connaissances ont en outre commencé à s’inspirer intensément de l’analyse. Plus tard, les connaissances ont davantage dépendu de la programmation factuelle pour la réalisation de tests, par exemple l’analyse graphique.

Accumulation d’informations

Examiner

Au moment où il est impossible de recueillir des informations complètes sur l’inscription, les analystes rassemblent des informations sur les tests en créant des plans d’analyse explicites et des tests d’ensemble. Insights lui-même donne également des instruments d’attente et d’estimation par le biais de modèles factuels. La dépendance des inductions aux informations testées a commencé vers le milieu des années 1600 en ce qui concerne l’évaluation des populations et la création d’antécédents d’assurance vie.

Pour utiliser un exemple comme un manuel pour toute une population, il est significatif qu’il s’adresse réellement à la population générale. Le test des délégués garantit que les hypothèses et les conclusions peuvent être transmises en toute sécurité à partir de l’exemple à la population en général. Une question importante consiste à déterminer dans quelle mesure l’exemple choisi est réellement un agent. Insights propose des stratégies pour évaluer et traiter toute prédisposition à l’intérieur de l’exemple et des méthodes d’accumulation d’informations. Il existe d’autres techniques de structure d’essai pour les tests qui peuvent réduire ces problèmes au début d’une enquête, en renforçant sa capacité à percevoir les réalités de la population.

L’examen de l’hypothèse est un élément de l’ordre numérique de l’hypothèse de vraisemblance. La vraisemblance est utilisée dans les aperçus numériques pour réfléchir à l’examen des appropriations des mesures de test et, d’autant plus, dans l’ensemble, aux propriétés des stratégies factuelles. L’utilisation de toute stratégie mesurable est substantielle lorsque le cadre ou la population viable remplit les suppositions de la technique. La distinction en perspective entre l’hypothèse de grande probabilité et l’hypothèse de test est, en général, que l’hypothèse de probabilité part des paramètres donnés d’une population absolue pour conclure aux probabilités qui se rapportent aux tests. Les présomptions factuelles, nonobstant, se déplacent dans l’autre sens – en dérivant de manière inductive des tests vers les paramètres d’une population plus importante ou absolue.

types d’informations

Articles de principe : Type d’information factuelle et niveaux d’estimation

Différentes tentatives ont été faites pour fournir une classification scientifique des niveaux d’estimation. Le psychophysicien Stanley Smith Stevens a caractérisé les échelles ostensible, ordinale, intermédiaire et proportionnelle. Les estimations ostensibles n’ont pas de demande de position significative parmi les qualités, et accordent tout changement équilibré (injectif). Les estimations ordinales ont des contrastes lâches entre des estimations continues, mais ont une demande importante pour ces qualités, et autorisent toute demande protégeant le changement. Les estimations intermédiaires présentent des différences importantes entre les estimations caractérisées, mais la valeur zéro est discrétionnaire (comme pour la situation avec les estimations de longitude et de température en Celsius ou Fahrenheit), et autorise tout changement direct. Les estimations de proportion ont à la fois une valeur zéro importante et les séparations entre les différentes estimations caractérisées, et autorisent tout changement d’échelle.

Étant donné que les facteurs s’ajustant uniquement à des estimations ostensibles ou ordinales ne peuvent être raisonnablement estimés numériquement, ils sont ici et là rassemblés en tant que facteurs absolus, bien que les estimations proportionnelles et intermédiaires soient rassemblées en tant que facteurs quantitatifs, qui peuvent être soit discrets soit constants, en raison de leur nature numérique. De telles qualifications peuvent souvent être approximativement liées au type d’information dans le domaine du génie logiciel, en ce sens que l’on peut parler de facteurs dichotomiques tous azimuts avec le type d’information booléen, de facteurs polytomiques nets avec des nombres nommés de manière discrétionnaire dans le type d’information indispensable, et de facteurs persistants avec le type d’information véritable, y compris le calcul de points de dérive. Dans tous les cas, la mise en correspondance des types d’informations de génie logiciel avec les types d’informations mesurables dépend de la disposition de ces derniers.

Différentes classifications ont été proposées. Par exemple, Mosteller et Tukey (1977) ont reconnu les évaluations, les postes, les divisions calculées, les contrôles, les sommes et les parités. Nelder (1990) a décrit des comptages continus, des proportions cohérentes, des proportions de comptage et des méthodes absolues d’information. Voir également Chrisman (1998) et van cave Berg (1991).

La question de savoir s’il est approprié d’appliquer divers types de techniques factuelles aux informations obtenues à partir de divers types de stratégies d’estimation est aiguisée par les questions concernant le changement de facteurs et l’élucidation exacte des questions de recherche. “Le lien entre les informations et ce qu’elles décrivent reflète simplement la façon dont certains types d’articulations mesurables peuvent avoir des estimations de la vérité qui ne sont pas invariables sous certains changements. Peu importe si un changement est raisonnable à considérer, il dépend de l’enquête à laquelle on tente de répondre” (Hand, 2004, p. 82)