Was ist ein PKA?

Angenommen, Sie müssen vorhersehen, wie die gesamte nationale Produktion (Bruttoinlandsprodukt) der USA im Jahr 2017 aussehen wird. Sie haben haufenweise Daten zur Verfügung: das US-Bruttoinlandsprodukt für das Hauptquartal 2017, das US-Bruttoinlandsprodukt für das Gesamtjahr 2016, 2015, usw. Sie haben jeden frei zugänglichen monetären Zeiger, ähnlich wie die Arbeitslosenquote, die Expansionsrate usw. Sie haben Informationen zur US-Registrierung aus dem Jahr 2010, die auswerten, wie viele Amerikaner in jeder Branche arbeiten, und Informationen der American People Group, die diese Einschätzungen in der Mitte jeder Statistik auffrischen. Sie wissen, wie viele Personen aus dem Repräsentantenhaus und dem Senat in jeder ideologischen Gruppe einen Platz haben. Sie könnten Informationen über den Aktienwert, die Anzahl der Börsengänge in einem Jahr und die Anzahl der Chiefs, die ein Angebot für ein offenes Amt abzugeben scheinen, sammeln. Obwohl es eine erschütternde Anzahl von Faktoren zu berücksichtigen gibt, beginnt diese Messe, das, was darunter liegt, aufzudecken.

Sie können die Frage stellen: “Wie würde ich die Gesamtheit der Faktoren, die ich gesammelt habe, nehmen und mich nur auf einige davon konzentrieren? Fachlich ausgedrückt, müssen Sie “die Komponente Ihres Elementraumes verringern”. Wenn Sie das Element Ihres Elementraumes verkleinern, haben Sie weniger Verbindungen zwischen den zu berücksichtigenden Faktoren und Sie sind eher abgeneigt, Ihr Modell zu überpassen. (Anmerkung: Das bedeutet nicht schnell, dass Überanpassung und so weiter nie wieder Bedenken sind – aber wir bewegen uns auf dem richtigen Weg!

Bis zu einem gewissen Grad wird die Verkleinerung des Elements des Komponentenraums offensichtlich als “Dimensionsabnahme” klassifiziert. Es gibt zahlreiche Ansätze, um eine Abnahme der Dimensionalität zu erreichen, doch ein großer Teil dieser Verfahren kann als eine von zwei Klassen klassifiziert werden:

Highlight Entsorgung

Highlight-Extraktion

Die Beseitigung von Glanzlichtern ist das, wonach es aussieht: Wir verkleinern den Bauteilraum, indem wir auf Glanzlichter verzichten. Im obigen Modell des Bruttoinlandsprodukts können wir, anstatt über jeden einzelnen Faktor nachzudenken, alle Faktoren mit Ausnahme der drei Faktoren, von denen wir glauben, dass sie am besten vorhersehen, wie die gesamte nationale Produktion der USA aussehen wird, weglassen. Interessante Punkte der Hervorhebungs- und Endtechniken beinhalten Mühelosigkeit und die Beibehaltung der Interpretierbarkeit Ihrer Faktoren.

Als Bärendienst erweist es sich jedoch, dass Sie aus den Variablen, die Sie fallen gelassen haben, keine Daten gewinnen. Für den Fall, dass wir nur das Bruttoinlandsprodukt von vor einem Jahr, den Umfang der Bevölkerung bei der Zusammenstellung von Berufen nach den neuesten Zahlen der American People Group Study und die Arbeitslosenquote zur Vorhersage des Bruttoinlandsprodukts des laufenden Jahres heranziehen, lassen wir alle Faktoren, die die gesunkenen Zahlen in unser Modell einfließen lassen könnten, außer Acht. Durch den Verzicht auf Höhepunkte haben wir darüber hinaus alle Vorteile, die diese weggefallenen Faktoren mit sich bringen würden, vollständig aufgegeben.

Die Hervorhebung der Extraktion, wie dem auch sei, stößt nicht auf dieses Problem. Nehmen wir an, wir haben zehn autonome Faktoren. Bei der Include-Extraktion machen wir zehn “neue” autonome Faktoren, wobei jeder “neue” freie Faktor eine Mischung aus jedem einzelnen der zehn “alten” autonomen Faktoren ist. In jedem Fall machen wir diese neuen freien Variablen mit einem bestimmten Ziel vor Augen und fragen diese neuen Faktoren danach, wie gut sie unsere abhängige Variable vorhersehen.

Sie können sagen: “Wo wird die Abnahme der Dimensionalität zu einem integralen Faktor? Nun, wir behalten die gleiche Anzahl der neuen freien Variablen, wie wir sie brauchen, aber wir lassen die “am wenigsten signifikanten” weg. Da wir die neuen Variablen danach gefragt haben, wie gut sie unsere bedürftige Variable vorhersehen, erkennen wir, welche Variable die signifikanteste und welche die am wenigsten signifikante ist. Wie dem auch sei, – und hier kommt der Clou – mit der Begründung, dass diese neuen freien Faktoren Mischungen unserer alten sind, unabhängig davon, dass wir die signifikantesten Teile unserer alten Faktoren behalten, auf jeden Fall, wenn wir mindestens eine dieser “neuen” Variablen fallen lassen!

Die Untersuchung des Kopfsegments ist eine Methode zur Include-Extraktion – sie konsolidiert also unsere Informationsfaktoren mit einem bestimmten Ziel vor Augen, an diesem Punkt können wir die “am wenigsten signifikanten” Faktoren fallen lassen, während wir noch die wichtigsten Teile der Gesamtheit der Faktoren behalten! Ein zusätzlicher Vorteil ist, dass jeder der “neuen” Faktoren nach dem PKA im Großen und Ganzen frei voneinander ist. Dies ist ein Vorteil angesichts der Tatsache, dass die Annahmen eines geraden Modells voraussetzen, dass unsere autonomen Faktoren frei voneinander sind. Wenn wir uns für die Anpassung eines geraden Rückfallmodells mit diesen “neuen” Variablen entscheiden (siehe unten “Kopfteil-Rückfall”), wird diese Vermutung im Wesentlichen erfüllt.

Wann wäre es für mich ratsam, das PKA zu nutzen?

Wollen Sie die Zahl der Faktoren verringern, sind aber nicht bereit, Faktoren zu erkennen, die man völlig aus dem Denken ausschließen kann?

Möchten Sie garantieren, dass Ihre Faktoren frei von einander sind?

Stimmt es, dass Sie offen dafür sind, Ihre freien Faktoren weniger interpretierbar zu machen?

Für den Fall, dass Sie auf jede der drei Anfragen mit “Ja” geantwortet haben, ist das PKA zu diesem Zeitpunkt eine vernünftige Strategie. Für den Fall, dass Sie “nein” an die Adresse 3 gerichtet haben, sollten Sie das PKA nicht anwenden.

Wie funktioniert das PKA?

In dem darauf folgenden Abschnitt wird untersucht, warum die HKA funktioniert, wobei eine kurze Zusammenfassung vor dem Sprung in die Berechnung für die Einstellung nützlich sein könnte:

Wir werden einen Rahmen ausarbeiten, der umreißt, wie sich unsere Faktoren alle miteinander identifizieren.

An diesem Punkt werden wir dieses Gitter in zwei separate Segmente trennen: Überschrift und Größe. Wir wären dann in der Lage, die “Überschriften” unserer Informationen und deren “Umfang” (oder wie “bedeutend” jeder Kurs ist) zu verstehen. Das untenstehende Bildschirmfoto aus dem setosa.io-Applet zeigt die beiden Hauptorientierungen dieser Informationen: den “roten Kurs” und die “grüne Überschrift”. Für diese Situation ist der “rote Kurs” der bedeutendere. Wir werden später noch darauf eingehen, warum dies die Situation ist, aber könnten Sie angesichts der Organisation der Spots einen Grund erkennen, warum die “rote Richtung” bedeutsamer aussieht als die “grüne Richtung” (Hinweis: Wie könnte eine Linie, die am besten zu dieser Information passt, aussehen)

Wir werden unsere einzigartigen Informationen so ändern, dass sie mit diesen signifikanten Rubriken (die eine Mischung unserer einzigartigen Faktoren sind) übereinstimmen. Der Bildschirmausschnitt unten (wieder von setosa.io) ist eine ununterscheidbare, präzise Information von oben, die jedoch mit dem Ziel geändert wurde, dass die x- und y-Tomahawks derzeit der “rote Kurs” und die “grüne Überschrift” sind. Wie könnte die Linie der besten Passung hier aussehen?

Während das visuelle Modell hier zweidimensional ist (und entlang dieser Linien haben wir zwei “Überschriften”), betrachten Sie eine Situation, in der unsere Informationen mehr Maße haben. Indem wir unterscheiden, welche “Peilungen” im Allgemeinen “signifikant” sind, können wir unsere Informationen auf einen kleinen Raum packen oder erweitern, indem wir die “Überschriften” weglassen, die “am wenigsten signifikant” sind. Indem wir unsere Informationen in einem kleinen Raum antizipieren, verringern wir die Dimensionalität unseres Komponentenraums… aber da wir unsere Informationen auf diese verschiedenen “Arten” geändert haben, haben wir darauf geachtet, dass jede einzelne Variable in unserem Modell erhalten bleibt!