Covariantie en verbinding zijn twee fundamenteel gebruikte termen op het gebied van inzichten en waarschijnlijkheidshypothese. De meeste artikelen en doorlezingen over waarschijnlijkheid en inzichten gaan uit van een fundamenteel begrip van termen als methoden, standaarddeviatie, verbanden, testomvang en covariantie. Geef ons vandaag de dag de kans om twee of drie van deze termen te demystificeren, zodat we verder kunnen gaan met de rest. Het doel van het artikel is om de termen te karakteriseren: relatie en covariantie raamwerken, scheiden tussen de twee en het gebruik van de twee op het gebied van onderzoek en datasets te begrijpen.

Ik maak een record voor een eenvoudige verwijzing naar de onderwerpen:

Het ontrafelen van de voorwaarden

Wetenschappelijk karakteriseren van de termen

Covariantie versus Verbinding

Toepassing in onderzoek

Het ontrafelen van de voorwaarden

In principe meten beide termen het verband en de afhankelijkheid tussen twee variabelen. “Covariantie” toont het verloop van het directe verband tussen factoren aan. “Verbinding” meet dan weer zowel de kwaliteit als de draagkracht van het directe verband tussen twee factoren. Een relatie is een element van de covariantie. Wat hen scheidt is de manier waarop de relationele waardering is geïnstitutionaliseerd, covariantie waardering is dat echter zeker niet. Je kunt de relatiecoëfficiënt van twee factoren krijgen door de covariantie van deze factoren te scheiden door het resultaat van de standaardafwijkingen van vergelijkbare kwaliteiten. De kans dat we terugkomen op de betekenis van Standaarddeviatie wordt in principe gemeten aan de regelrechte inconsistentie van de toe-eigening van een dataset. Op het moment dat je de covariantie-eigenaarschap isoleert aan de hand van de standaardafwijking, verkleint het in principe de prikkel tot een beperkte omvang van – 1 tot +1. Dit is beslissend voor de reikwijdte van de aansluitingsachting.

Wetenschappelijk karakteriseren van de termen

Geef ons nu de kans om de wetenschappelijke betekenis van deze termen te bekijken.

Als we kijken naar één enkele variabele, zeg ‘y’, cov(y,y), dan kan de uitdrukking op de volgende manier worden geschreven:

Op dit moment is ‘s²’ of geteste verandering, zoals we in bovenstaande afbeelding zien, in wezen de covariantie van een variabele met zichzelf. Deze term kan ook op de volgende manier worden gekarakteriseerd:

In de bovenstaande formule staat de teller van de vergelijking (A) bekend als het geheel van kwadraatafwijkingen. In vergelijking (B) met twee factoren x en y staat het bekend als het geheel van de kruispunten. In bovenstaande vergelijking is n het aantal tests in de informatieverzameling. De waarde (n-1) geeft de gradaties van de kansen aan.

Correlatie

De aansluitingscoëfficiënt wordt ook wel de Pearson item-minuut-relatiecoëfficiënt genoemd, oftewel Pearson’s relatiecoëfficiënt. Zoals eerder vermeld, wordt deze verkregen door de covariantie van de twee factoren te isoleren door het resultaat van hun standaardafwijkingen. De wetenschappelijke weergave van het equivalent kan op een begeleidende manier verschijnen:

De schattingen van de relatiecoëfficiënt kunnen zich uitstrekken van – 1 tot +1. Hoe dichter het bij +1 of – 1 ligt, hoe intiemer de twee factoren met elkaar verbonden zijn. Het positieve teken impliceert de kop van de verbinding bijvoorbeeld in het geval dat een van de factoren opbouwt, de andere variabele zal naar verwachting eveneens toenemen.

Data-matrix representatie van Covariantie en Correlatie

Laten we bovendien wat dieper ingaan op het kaderbeeld van de covariantie.

Voor een datamatrix kan X op de volgende manier worden weergegeven:

een vector ‘xj’ zou in principe een (n × 1) vector suggereren die is geëxtraheerd uit de j-de sectie van X waar j een plaats heeft met de verzameling (1,2,… .,p). Bovendien spreekt ‘xi” tot de (1 × p) vector uit de I-de lijn van X. Hier kan ‘I’ een prikkel uit de verzameling (1,2,…,n) nemen. Je kunt X ook vertalen als een raster van variabele waarbij ‘xij’ de j-de variabele (segment) is die uit het I-de ding (push) wordt verzameld. Voor de eenvoud van de referentie noemen we pushes als dingen/onderwerpen en secties als factoren. Laten we nu kijken naar het gemiddelde van een kolom van de bovenstaande datamatrix:

Laten we nu het rijtje definiëren. Het is in principe het gemiddelde van de elementen die in de opgegeven rij aanwezig zijn.

Nu we de bovenstaande metrieken hebben, zal het gemakkelijker zijn om de covariantiematrix (S) te definiëren:

In bovenstaande matrix zien we dat het element van het covariantie netwerk p × p. his is in principe een symmetrische matrix, d.w.z. een vierkante matrix die gelijk is aan de transpositie (S`). De termen die het covariantie raamwerk construeren staan bekend als de veranderingen van een bepaalde variabele, die de scheefheid van het netwerk vormgeven of de covariantie van 2 factoren bovenop de rest van de ruimte. De covariantie van de j-de variabele met de k-de variabele is identiek aan de covariantie van de k-de variabele met de j-de variabele bijvoorbeeld ‘sjk’= ‘skj’.

We kunnen de covariantiematrix uit de datamatrix op de volgende manier maken:

Hier is ‘Xc’ een gefocust raster waarbij het specifieke segment betekent dat van elk onderdeel wordt afgetrokken. Gebruikmakend van dat als brandpunt is het covariantie raster ‘S’ het resultaat van de transpositie van ‘Xc’ en ‘Xc’ zelf, die vervolgens wordt gescheiden door het aantal dingen of kolommen (‘n’) in het informatieraster.

Voorheen gingen we verder, laten we teruggaan naar het idee van testschommeling of s-kwadraat (s²). We kunnen hieruit de standaardafwijking van een informatieverzameling afleiden. Rekenkunde kenmerkt de waarde ‘s’ als de standaardafwijking van de informatieve index. Het geeft in principe de mate van verstrooiing of verspreiding van informatie rond het normale niveau weer.

Zoals we hier zien, is het element van de verbindingsmatrix weer p × p. Op dit moment, bij de buitenkans dat we naar de afzonderlijke componenten van het verbindingsnetwerk kijken, gaat het bij de fundamentele schuinte allemaal om 1. Dit toont aan dat de verbinding van een component met zichzelf 1 is, of het meest opmerkelijke dat denkbaar is. Dit voorspelt veel goeds op een intelligente en natuurlijke manier. Verschillende componenten ‘rjk’ is Pearson’s verbindingscoëfficiënt tussen twee kwaliteiten: xj’ en ‘xk’. Zoals we al eerder zagen, geeft ‘xj’ het j-de deel van het informatierooster aan, X. Verder gaand met hoe de correlatiematrix uit de datamatrix kan worden verkregen:

Xs’ in de bovenstaande definitie staat bekend als het geschaalde of geïnstitutionaliseerde raster. Hier zien we dat de relatie raster kan worden gekarakteriseerd als het resultaat van de omzetting van het geschaalde raamwerk met zichzelf, opgedeeld door ‘n’. Als we terugkomen op de betekenis van de standaardafwijking van hierboven, zien we dat elke component (zoals het covariantie raster hierboven) van het geïnstitutionaliseerde raamwerk ‘Xs’ wordt gescheiden door de standaardafwijking van de individuele sectie. Dit versterkt ons begrip van het relatieraster als een geïnstitutionaliseerde of geschaalde ondergeschikte van de covariantiematrix.