Abnahme der Dimensionalität
Für den unwahrscheinlichen Fall, dass Sie schon einmal mit einem Datensatz mit vielen Hervorhebungen gearbeitet haben, können Sie nachvollziehen, dass es so schwer ist, die Zusammenhänge zwischen den Hervorhebungen zu verstehen oder zu untersuchen. Es macht das EDA-Verfahren lästig und beeinflusst auch die Darstellung des KI-Modells, da die Wahrscheinlichkeit besteht, dass Sie Ihr Modell überpasst oder einen Teil der Verdächtigungen der Berechnung beschädigen, ähnlich wie die Autonomie der Glanzlichter bei einem direkten Rückfall. An dieser Stelle kommt die Abnahme der Dimensionalität ins Spiel. Bei der KI ist die Dimensionalitätsabnahme der Weg zur Verminderung der Anzahl der unregelmäßigen Faktoren, die durch eine Menge von Kopffaktoren lebensfähig sind. Indem Sie die Komponente Ihres Elementraumes verringern, haben Sie weniger Verbindungen zwischen Glanzlichtern, über die Sie nachdenken müssen und die effektiv untersucht und abgebildet werden können, und außerdem sind Sie eher abgeneigt, Ihr Modell zu überpassen.
Eine Verringerung der Dimensionalität kann auf die begleitende Weise erreicht werden:
Ende hervorheben: Durch den Verzicht auf Hervorhebungen vermindern Sie den Platz des Elements. Dies hat jedoch eine Belastung zur Folge, da Sie keine Daten aus den Hervorhebungen gewinnen, die Sie weggelassen haben.
Bestimmung hervorheben: Sie wenden einige faktische Tests an, um sie nach ihrer Signifikanz zu ordnen, und wählen anschließend eine Teilmenge von Highlights für Ihre Arbeit aus. Diese wiederum erleidet Datenunglück und ist weniger stabil, da verschiedene Tests den Höhepunkten unterschiedliche Signifikanzbewertungen geben. Sie können hier mehr darüber erfahren.
Extraktion hervorheben: Sie machen neue freie Highlights, wobei jede neue autonome Komponente eine Mischung aus jedem der alten autonomen Highlights ist. Diese Systeme lassen sich zusätzlich in direkte und nicht-direkte Verfahren zur Verringerung der Dimensionalität trennen.
Hauptteil-Untersuchung (PCA)
Die Head Part Investigation oder PCA ist eine Strategie zur Extraktion gerader Komponenten. Sie spielt eine direkte Abbildung der Information auf einen niedrigdimensionalen Raum durch, so dass die Fluktuation der Information in der niedrigdimensionalen Darstellung verstärkt wird. Dies geschieht durch Abbildung der Eigenvektoren aus dem Kovarianz-Rahmenwerk. Die Eigenvektoren, die sich auf die größten Eigenwerte (die vordersten Teile) beziehen, werden verwendet, um einen bemerkenswerten Teil der Differenz der ersten Information wiederherzustellen.
Vereinfacht ausgedrückt, konsolidiert das PKA Ihre Informationen mit dem Ziel, dass Sie die am wenigsten wichtige Komponente weglassen können, während Sie die wichtigsten Teile der Gesamtheit der Höhepunkte noch im Auge behalten. Ein zusätzlicher Vorteil besteht darin, dass alle nach der HKA neu hinzugekommenen Highlights oder Segmente im Großen und Ganzen unabhängig voneinander sind.
t-dispergierte stochastische Nachbarschaftsimplantation (t-SNE)
t-Dispersed Stochastic Neighbor Implanting (t-SNE) ist eine nicht-direkte Strategie zur Verringerung der Dimensionalität, die besonders für die Wahrnehmung hochdimensionaler Datensätze geeignet ist. Sie findet eine breite Anwendung in der Bildbearbeitung, im NLP, in der genomischen Information und in der Diskursvorbereitung. Um die Dinge überschaubar zu halten, hier ein kurzes Schaubild der Arbeitsweise der t-SNE:
Die Berechnungen beginnen damit, dass die Wahrscheinlichkeit der Nähe von Brennpunkten im hochdimensionalen Raum berechnet und die Wahrscheinlichkeit der Vergleichbarkeit von Brennpunkten im zugehörigen niedrigdimensionalen Raum ermittelt wird. Die Nähe von Brennpunkten wird als die kontingente Wahrscheinlichkeit bestimmt, dass ein Punkt A den Punkt B als seinen Nachbarn auswählen würde, wenn Nachbarn im Verhältnis zu ihrer Wahrscheinlichkeitsdicke unter einer Gauß’schen (typischen Verbreitung) mit Fokus auf A ausgewählt würden.
An diesem Punkt versucht sie, den Kontrast zwischen diesen restriktiven Wahrscheinlichkeiten (oder Similituden) im höherdimensionalen und im niederdimensionalen Raum zu begrenzen, um eine ideale Darstellung von Informationen zu erreichen, die sich auf den niederdimensionalen Raum konzentrieren.
Um die Minimierung des Aggregats der Unterscheidung der kontingenten Wahrscheinlichkeit t-SNE zu quantifizieren, begrenzt die SNE die Summe der Kullback-Leibler-Unterschiede der allgemeinen Informationen, die sich auf die Anwendung einer Winkelabsturzstrategie konzentrieren.
Anmerkung: Die Kullback-Leibler-Differenz oder KL-Eindeutigkeit ist ein Anteil daran, wie eine Wahrscheinlichkeitsverteilung von einer zweiten, erwarteten Wahrscheinlichkeitsaneignung abhängt.
Diejenigen, die gerne wissen möchten, wie Punkt für Punkt eine Berechnung funktioniert, können auf diese Prüfungsarbeit anspielen.
Vereinfacht ausgedrückt, begrenzt die t-Disseminierte stochastische Nachbarschaftsimplantation (t-SNE) den Unterschied zwischen zwei Aneignungen: eine Übertragung, die paarweise Ähnlichkeiten der Informationsobjekte misst, und eine Zirkulation, die paarweise Ähnlichkeiten der vergleichenden niedrigdimensionalen Schwerpunkte in der Installation misst.
Auf diese Weise bildet t-SNE die mehrdimensionalen Informationen auf einen niedrigdimensionalen Raum ab und versucht, Muster in den Informationen zu entdecken, indem es die beobachteten Informationsbündel in Abhängigkeit von der Nähe der Informationen, die sich auf verschiedene Höhepunkte konzentrieren, unterscheidet. Auf jeden Fall sind nach diesem Verfahren die Informationshighlights nie wieder erkennbar, und man kann keine Ableitung vom Ertrag von t-SNE abhängig machen. Von nun an handelt es sich größtenteils um eine Methode der Informationsuntersuchung und -darstellung.
PCA versus t-SNE
Obwohl sowohl das PKA als auch die t-SNE ihre ganz eigenen Präferenzen und Belastungen haben, lassen sich einige wesentliche Gegensätze zwischen dem PKA und der t-SNE bei der Verfolgung der Ziele feststellen:
t-SNE ist rechenintensiv und kann bei Millionen von Beispieldatensätzen, bei denen die PCA sofort abgeschlossen wird, einige Stunden oder Minuten dauern.
Die PCA ist ein numerisches Verfahren, die t-SNE jedoch ein probabilistisches.
Geradlinige Dimensionalitätsverminderungsberechnungen, wie die HKA, konzentrieren sich darauf, eindeutige Informationsschwerpunkte zu setzen, die in einer niedrigeren Messwertdarstellung weit auseinander liegen. Wie dem auch sei, um mit hohen Messinformationen auf niedrig gemessene, nicht geradlinige komplexe zu sprechen, ist es grundlegend, dass vergleichende Informationsfokusse nahe beieinander gesprochen werden müssen, was etwas ist, was t-SNE nicht bei der HKA macht.
Einige der Zeit in t-SNE können verschiedene Läufe mit ähnlichen Hyperparametern verschiedene Ergebnisse liefern, so dass vor einer Auswertung mit t-SNE verschiedene Plots gesehen werden müssen, während dies bei der PCA nicht der Fall ist.
Da es sich bei der HKA um eine geradlinige Berechnung handelt, wird sie nicht die Möglichkeit haben, die komplizierte polynomische Verbindung zwischen den Glanzlichtern zu entziffern, während t-SNE dazu dient, genau dies zu erfassen.