La estadística es el orden que preocupa en la recopilación, asociación, exhibición, examen, traducción e introducción de datos. Al aplicar las mediciones a una cuestión lógica, mecánica o social, es ordinario en cualquier caso considerar una población factual o un modelo medible. Las poblaciones pueden ser diferentes reuniones de individuos o artículos, por ejemplo, “todos los individuos que viven en una nación” o “cada pizca fabricando una piedra preciosa”. Las percepciones manejan cada parte de la información, incluida la organización de la acumulación de información relativa al plan de estudios y experimentos. Véase el glosario de probabilidades y mediciones.

En el momento en que no se puede recopilar la información de la enumeración, los analistas reúnen la información creando estructuras de examen explícitas y pruebas de visión general. La inspección de los agentes garantiza que las inducciones y los fines pueden extenderse sensatamente del ejemplo a la población en general. Un estudio de prueba incluye la toma de estimaciones de la estructura de examen, el control de la estructura y, posteriormente, la toma de estimaciones adicionales utilizando una técnica similar para decidir si el control ha alterado las estimaciones de las estimaciones. Por el contrario, una investigación observacional no incluye el control exploratorio.

En la investigación de la información se utilizan dos estrategias fácticas primarias: las mediciones inconfundibles, que esbozan la información de un ejemplo utilizando registros, por ejemplo, la media o la desviación estándar, y las percepciones inferenciales, que hacen inferencias a partir de la información que dependen de la variedad irregular (por ejemplo, los errores de observación, el examen de la variación). Las mediciones distintas suelen preocuparse por dos arreglos de propiedades de una apropiación (prueba o población): la propensión focal (o área) busca describir el enfoque o recorrido del transporte de la estima de molino, mientras que la dispersión (o fluctuación) retrata el grado en que los individuos de la dispersión salen de su interior y entre sí. Las deducciones sobre las mediciones numéricas se hacen bajo la estructura de la hipótesis de probabilidad, que gestiona la investigación de maravillas irregulares.

Un método factual estándar incluye el ensayo de la conexión entre dos índices informativos medibles, o una colección de información e información manufacturada extraída de un modelo glorificado. Se propone una especulación de la conexión fáctica entre las dos colecciones informativas, y se contrasta como opción con una teoría inválida romántica de la no conexión entre dos índices informativos. Desechar o refutar la especulación inválida se termina utilizando pruebas de hechos que miden el sentido en el que el inválido puede ser refutado, dada la información que se utiliza en la prueba. Trabajando a partir de una teoría inválida, se perciben dos tipos esenciales de desaciertos: Errores de tipo I (la especulación inválida se descarta deshonestamente dando un “falso positivo”) y errores de tipo II (la teoría inválida no se descarta y se pierde una conexión real entre las poblaciones dando un “falso negativo”). Numerosas cuestiones han llegado a relacionarse con este sistema: pasar de adquirir un tamaño de ejemplo adecuado a determinar una hipótesis inválida satisfactoria.

Las formas de estimación que crean información medible dependen adicionalmente del error. Un gran número de estos errores se denominan arbitrarios (clamor) o eficientes (predisposición), pero también pueden ocurrir diferentes tipos de errores (por ejemplo, torpeza, por ejemplo, cuando un investigador informa sobre unidades equivocadas). La cercanía de la información o la edición que falta puede dar lugar a evaluaciones unilaterales y se han creado sistemas explícitos para abordar estas cuestiones.

Los trabajos más rápidos sobre probabilidad y mediciones, técnicas factuales basadas en la hipótesis de la probabilidad, se remontan a los matemáticos y criptógrafos del Medio Oriente, notablemente Al-Khalil (717-786) y Al-Kindi (801-873). En el siglo XVIII, las ideas empezaron a basarse intensamente en la analítica. En años posteriores, las ideas han dependido más de la programación fáctica para realizar pruebas, por ejemplo, el análisis gráfico.

Acumulación de información

Examinando

En el momento en que no se puede recopilar toda la información de registro, los analistas reúnen información de prueba creando planes de análisis explícitos y pruebas de visión general. El conocimiento en sí mismo también da instrumentos para la expectativa y la estimación a través de modelos fácticos. Hacer que las inducciones dependan de la información probada comenzó a mediados de 1600 con respecto a la evaluación de las poblaciones y la creación de antecedentes de seguros de vida.

Para utilizar un ejemplo como manual para toda una población, es significativo que se dirija genuinamente a la población en general. La prueba delegada garantiza que las conjeturas y los fines pueden llegar con seguridad del ejemplo a la población en general. Una cuestión importante es decidir el grado en que el ejemplo elegido es realmente agente. Las perspicacias ofrecen estrategias para evaluar y abordar cualquier predisposición dentro del ejemplo y métodos de acumulación de información. Existen técnicas adicionales de estructura de prueba para los ensayos que pueden reducir estas cuestiones al comienzo de una investigación, fortaleciendo su capacidad de percibir las realidades de la población.

El examen de la hipótesis es una pieza del orden numérico de la hipótesis de probabilidad. La probabilidad se utiliza en la comprensión numérica para pensar en el examen de las apropiaciones de las mediciones de prueba y, sobre todo, por lo general, las propiedades de las estrategias de hecho. La utilización de cualquier estrategia mensurable es sustancial cuando el marco o la población viable cumple las suposiciones de la técnica. La distinción en perspectiva entre la hipótesis de gran probabilidad y la hipótesis de prueba es, por lo general, que la hipótesis de probabilidad parte de los parámetros dados de una población absoluta para concluir las probabilidades que se relacionan con las pruebas. No obstante, la suposición fáctica se desplaza en sentido contrario -inductivamente derivada de las pruebas- a los parámetros de una población mayor o absoluta.

tipos de información

Artículos principales: Tipo de información fáctica y niveles de estimación

Se han hecho diferentes esfuerzos para ofrecer una clasificación científica de los niveles de estimación. El psicofísico Stanley Smith Stevens caracterizó escalas ostensibles, ordinales, provisionales y de proporción. Las estimaciones ostensibles no tienen una solicitud de posición significativa entre las cualidades, y conceden cualquier cambio equilibrado (inyectivo). Las estimaciones ordinales tienen contrastes sueltos entre las estimaciones continuas, pero tienen una solicitud importante entre esas cualidades, y licencian cualquier solicitud protegiendo el cambio. Las estimaciones provisionales tienen importantes separaciones entre las estimaciones caracterizadas, pero el valor cero es discrecional (como en el caso de las estimaciones de longitud y temperatura en grados Celsius o Fahrenheit), y permiten cualquier cambio directo. Las estimaciones de proporción tienen tanto un valor cero importante como las separaciones entre las diversas estimaciones caracterizadas, y conceden cualquier cambio de reajuste.

Dado que los factores que se ajustan sólo a estimaciones ostensibles u ordinales no pueden ser estimados numéricamente de manera sensata, aquí y allá se reúnen como factores absolutos, aunque las estimaciones proporcionales y provisionales se reúnen como factores cuantitativos, que pueden ser discretos o constantes, debido a su naturaleza numérica. Con frecuencia, esas calificaciones pueden relacionarse aproximadamente con el tipo de información en la ingeniería de programas informáticos, en el sentido de que se podría hablar de factores dicotómicos con el tipo de información booleana, de factores politómicos de corte claro con números designados discretamente en el tipo de información indispensable, y de factores persistentes con el tipo de información genuina, incluido el cálculo del punto de deriva. En cualquier caso, la asignación de los tipos de información de ingeniería de programas informáticos a los tipos de información mensurables depende de la disposición de estos últimos.

Se han propuesto diferentes clasificaciones. Por ejemplo, Mosteller y Tukey (1977) reconocieron evaluaciones, posiciones, divisiones de conteo, cheques, sumas y paridades. Nelder (1990) describió recuentos continuos, proporciones consistentes, proporciones de conteo y métodos absolutos de información. Véase también Chrisman (1998),Van Cave Berg (1991).

La cuestión de si es conveniente aplicar diversos tipos de técnicas fácticas a la información adquirida de diversos tipos de estrategias de estimación se ve enredada por cuestiones relativas al cambio de factores y al esclarecimiento exacto de las cuestiones de investigación. “La conexión entre la información y lo que representan refleja simplemente la forma en que determinados tipos de articulaciones mensurables pueden tener estimaciones de la verdad que no son invariables bajo ciertos cambios. Independientemente de que un cambio sea razonable de considerar se basa en la investigación que se intenta responder” (Hand, 2004, pág. 82)