Geschichte der prädiktiven Analyse und aktueller Fortschritt

Obwohl es die prädiktive Analyse seit Jahrzehnten gibt, ist die Zeit für diese Technologie reif. Immer mehr Organisationen wenden sich der prädiktiven Analyse zu, um ihre Gewinne und Wettbewerbsvorteile zu steigern. Warum gerade jetzt?

Die Datenmengen und -typen nehmen zu, und das Interesse an der Nutzung von Daten zur Gewinnung wertvoller Erkenntnisse nimmt zu.

Schnellere, preiswertere Computer.

Leichter zu bedienende Software.

Schwierigere wirtschaftliche Bedingungen und die Notwendigkeit der Wettbewerbsdifferenzierung.

Mit der wachsenden Beliebtheit von interaktiver und einfach zu bedienender Software ist die prädiktive Analyse nicht mehr nur eine Domäne von Mathematikern und Statistikern. Auch Wirtschaftsanalysten und Branchenexperten nutzen diese Technologien.

Warum ist die prädiktive Analyse wichtig?

Organisationen wenden sich der prädiktiven Analyse zu, um schwierige Probleme zu lösen und neue Möglichkeiten zu entdecken. Häufige Anwendungen sind unter anderem:

Aufdeckung von Betrug. Die Kombination mehrerer Analysemethoden kann die Mustererkennung verbessern und kriminelles Verhalten verhindern. Angesichts der wachsenden Besorgnis um die Cybersicherheit untersucht die leistungsbasierte Verhaltensanalyse alle Aktionen in einem Netzwerk in Echtzeit, um Anomalien zu identifizieren, die auf Betrug, Zero-Day-Schwachstellen und fortgeschrittene, anhaltende Bedrohungen hindeuten könnten.

Optimierung von Marketingkampagnen. Die prädiktive Analyse wird eingesetzt, um Kundenreaktionen oder Käufe zu ermitteln und Cross-Selling-Möglichkeiten zu fördern. Prädiktive Modelle helfen Unternehmen dabei, profitablere Kunden anzuziehen, zu halten und auszubauen.

Verbesserung der Betriebsabläufe. Viele Unternehmen verwenden prädiktive Modelle zur Vorhersage von Beständen und zur Verwaltung von Vermögenswerten. Fluggesellschaften verwenden prädiktive Analysen, um Ticketpreise festzulegen. Hotels versuchen, die Anzahl der Gäste pro Nacht vorherzusagen, um die Auslastung zu maximieren und die Einnahmen zu steigern. Mit Hilfe der prädiktiven Analyse können Unternehmen effizienter arbeiten.

Reduzieren Sie Risiken. Kredit-Scores werden verwendet, um die Wahrscheinlichkeit eines Käuferausfalls bei Käufen zu bewerten, und sind ein bekanntes Beispiel für die vorausschauende Analyse. Ein Kredit-Score ist eine Zahl, die von einem Vorhersagemodell generiert wird, das alle für die Kreditwürdigkeit einer Person relevanten Daten enthält. Andere risikobezogene Verwendungen umfassen Versicherungsansprüche und Inkasso.

Wer verwendet sie?

Jede Branche kann die prädiktive Analyse verwenden, um Risiken zu reduzieren, Abläufe zu optimieren und Einnahmen zu steigern. Hier sind einige Beispiele.

Bank- und Finanzdienstleistungen

Die Finanzindustrie, in der riesige Daten- und Geldmengen auf dem Spiel stehen, hat sich seit langem der vorausschauenden Analyse verschrieben, um Betrug aufzudecken und zu reduzieren, Kreditrisiken zu messen, Cross- und Up-Selling-Möglichkeiten zu maximieren und wertvolle Kunden zu binden. Die Commonwealth Bank verwendet Analysen, um die Wahrscheinlichkeit betrügerischer Aktivitäten für jede Transaktion vorherzusagen, bevor sie autorisiert wird – innerhalb von 40 Millisekunden nach Beginn der Transaktion.

Einzelhandel

Aus der inzwischen berüchtigten Studie, die gezeigt hat, dass Männer, die Windeln kaufen, oft gleichzeitig Bier kaufen, geht hervor, dass Einzelhändler auf der ganzen Welt die prädiktive Analyse zur Warenplanung und Preisoptimierung nutzen, um die Wirksamkeit von Werbeveranstaltungen zu analysieren und festzustellen, welche Angebote für die Verbraucher am besten geeignet sind. Staples hat durch die Analyse des Kundenverhaltens Einblicke in die Kunden gewonnen, ein vollständiges Bild ihrer Kunden gewonnen und einen ROI von 137 Prozent erzielt.

Öl, Gas und Versorgungsunternehmen

Ganz gleich, ob es um die Vorhersage von Geräteausfällen und künftigem Ressourcenbedarf, die Minderung von Sicherheits- und Zuverlässigkeitsrisiken oder die Verbesserung der Gesamtleistung geht – die Energiewirtschaft hat sich die vorausschauende Analyse energisch zu eigen gemacht. Das Salt River Project ist das zweitgrößte öffentliche Energieunternehmen in den Vereinigten Staaten und einer der größten Wasserversorger Arizonas. Die Analyse von Maschinensensordaten sagt voraus, wann stromerzeugende Turbinen gewartet werden müssen.

Regierungen und öffentlicher Sektor

Die Regierungen haben bei der Förderung der Informationstechnologie eine Schlüsselrolle gespielt. Das US Census Bureau hat die Daten analysiert, um die Bevölkerungsentwicklung seit Jahrzehnten zu verstehen. Regierungen nutzen heute – wie viele andere Branchen auch – die prädiktive Analyse, um Service und Leistung zu verbessern, Betrug aufzudecken und zu verhindern und das Verbraucherverhalten besser zu verstehen. Sie setzen die prädiktive Analyse auch zur Verbesserung der Informationssicherheit ein.

Wie sie funktioniert

Die prädiktiven Modelle verwenden bekannte Ergebnisse, um ein Modell zu entwickeln (oder zu trainieren), das zur Vorhersage von Werten für verschiedene oder neue Daten verwendet werden kann. Die Modellierung liefert Ergebnisse in Form von Vorhersagen, die eine Wahrscheinlichkeit für die Zielvariable (z.B. Einnahmen) auf der Grundlage der geschätzten Signifikanz eines Satzes von Eingabevariablen darstellen.

Dies unterscheidet sich von deskriptiven Modellen, die helfen zu verstehen, was passiert ist, oder von diagnostischen Modellen, die helfen, Schlüsselbeziehungen zu verstehen und festzustellen, warum etwas passiert ist. Ganze Bücher sind den analytischen Methoden und Techniken gewidmet. Umfassende Universitätsprogramme befassen sich eingehend mit diesem Thema. Doch zunächst einige Grundlagen.

Es gibt zwei Arten von prädiktiven Modellen. Klassifizierungsmodelle beinhalten die Klassenzugehörigkeit. Sie versuchen z.B. zu klassifizieren, ob jemand wahrscheinlich ausscheidet, ob er auf eine Anfrage antworten wird, ob es sich um ein gutes oder schlechtes Kreditrisiko handelt usw. In der Regel liegen die Ergebnisse des Modells in Form von 0 oder 1 vor, und 1 ist das angestrebte Ereignis. Regressionsmodelle sagen eine Zahl voraus – z.B. wie viel ein Kunde im nächsten Jahr generieren wird oder die Anzahl der Monate, bevor eine Komponente an einer Maschine ausfällt.

Die am häufigsten verwendeten prädiktiven Modellierungstechniken sind Entscheidungsbäume, Regression und neuronale Netze.

Bei den Entscheidungsbäumen handelt es sich um Klassifizierungsmodelle, die Daten auf der Grundlage von Kategorien von Eingabevariablen in Teilmengen unterteilen. Sie helfen dabei, den Pfad der Entscheidungen einer Person zu verstehen. Der Entscheidungsbaum wird als Baum dargestellt, wobei jeder Zweig eine Wahl zwischen einem Satz von Alternativen darstellt und jedes Blatt eine Klassifikation oder Entscheidung darstellt. Er sieht sich die Daten an und versucht, die einzige Variable zu finden, die die Daten in logische Gruppen unterteilt, die am vielfältigsten sind. Die Entscheidungsbäume sind beliebt, weil sie leicht zu verstehen und zu interpretieren sind. Sie gehen auch gut mit fehlenden Werten um und sind nützlich für die Vorauswahl von Variablen. Wenn Sie also eine Menge fehlender Werte haben oder eine schnelle und einfach zu interpretierende Antwort wünschen, können Sie mit einem Baum beginnen.

Die Regression (linear und logistisch) ist eine der beliebtesten Methoden in der Statistik. Die Regressionsanalyse schätzt die Beziehungen zwischen Variablen. Sie ist für kontinuierliche Daten gedacht, bei denen davon ausgegangen werden kann, dass sie einer Normalverteilung folgen, findet Schlüsselmuster in großen Datensätzen und wird oft verwendet, um zu bestimmen, wie bestimmte Faktoren, wie z. B. der Preis, die Bewegung einer Anlage beeinflussen. Mit der Regressionsanalyse wollen wir eine Zahl vorhersagen, die als Antwort oder Variable Y bezeichnet wird. Bei der linearen Regression wird eine unabhängige Variable verwendet, um das Ergebnis von Y zu erklären und/oder vorherzusagen. Die multiple Regression verwendet zwei oder mehr unabhängige Variablen, um das Ergebnis vorherzusagen. Bei der logistischen Regression werden unbekannte Variablen einer diskreten Variable auf der Grundlage des bekannten Wertes anderer Variablen vorhergesagt. Die Antwortvariable ist kategorisch, was bedeutet, dass sie nur eine begrenzte Anzahl von Werten annehmen kann. Bei der binären logistischen Regression hat eine Antwortvariable nur zwei Werte wie 0 oder 1. Eine Antwortvariable kann verschiedene Niveaus haben, wie niedrig, mittel und hoch oder 1, 2 und 3 in der mehrfachen logistischen Regression. Sie sind beliebt, weil sie leistungsstark und flexibel sind. Ihre Leistungsfähigkeit beruht auf ihrer Fähigkeit, mit nichtlinearen Beziehungen in den Daten umzugehen, was immer häufiger vorkommt, je mehr Daten gesammelt werden. Sie werden oft verwendet, um die Ergebnisse einfacher Techniken wie Regression und Entscheidungsbäume zu bestätigen. Neuronale Netze basieren auf Modellerkennung und einigen IA-Prozessen, die Parameter grafisch “modellieren”. Diese funktionieren gut, wenn es keine bekannte mathematische Formel gibt, die Inputs mit Outputs in Beziehung setzt, Vorhersagen wichtiger sind als Erklärungen oder es viele Trainingsdaten gibt. Die künstlichen neuronalen Netze wurden ursprünglich von Forschern entwickelt, die versuchten, die Neurophysiologie des menschlichen Gehirns nachzuahmen.

Andere beliebte Techniken, von denen Sie hören können

Bayessche Analyse. Bayes’sche Methoden behandeln Parameter als Zufallsvariablen und definieren die Wahrscheinlichkeit als “Grad der Überzeugung” (d.h. die Wahrscheinlichkeit eines Ereignisses ist der Grad, in dem das Ereignis als wahr angenommen wird). Wenn Sie eine Bayes’sche Analyse durchführen, beginnen Sie mit einer früheren Überzeugung hinsichtlich der Wahrscheinlichkeitsverteilung eines unbekannten Parameters. Nachdem Sie die Informationen aus den Ihnen vorliegenden Daten erfahren haben, ändern oder aktualisieren Sie Ihre Überzeugung über den unbekannten Parameter.

Setzen Sie die Modelle zusammen. Ensemble-Modelle werden erstellt, indem mehrere ähnliche Modelle trainiert und ihre Ergebnisse kombiniert werden, um die Genauigkeit zu verbessern, die Verzerrung zu verringern, die Varianz zu reduzieren und das beste Modell zu ermitteln, das mit den neuen Daten verwendet werden kann.

Erhöhen des Gradienten. Hierbei handelt es sich um einen Boosting-Ansatz, bei dem der Datensatz mehrmals neu abgetastet wird, um Ergebnisse zu erzeugen, die einen gewichteten Durchschnitt des neu abgetasteten Datensatzes bilden. Wie bei Entscheidungsbäumen werden beim Boosten keine Annahmen über die Datenverteilung getroffen. Das Boosting ist weniger anfällig für die Überdimensionierung von Daten als ein einzelner Entscheidungsbaum, und wenn ein Entscheidungsbaum gut genug zu den Daten passt, dann verbessert das Boosting oft die Anpassung. (Datenüberanpassung bedeutet, dass Sie zu viele Variablen verwenden und das Modell zu komplex ist. Unteranpassung bedeutet das Gegenteil: Es gibt nicht genügend Variablen und das Modell ist zu einfach. Beides verringert die Vorhersagegenauigkeit).

Inkrementelle Reaktion (auch Hebe- oder Netzhebe-Modelle genannt). Diese Modelle stellen die Veränderung der Wahrscheinlichkeit dar, die durch eine Aktion verursacht wird. Sie werden häufig verwendet, um die Abwanderung zu reduzieren und die Auswirkungen verschiedener Marketingprogramme zu ermitteln.

K-nächste Nähe (knn). Es handelt sich um eine nichtparametrische Klassifizierungs- und Regressionsmethode, bei der die Werte einer Objekt- oder Klassenzugehörigkeit auf der Grundlage von k-nächsten Trainingsbeispielen ermittelt werden.

Gedächtnisbasiertes Denken. Gedächtnisbasiertes Denken ist eine k-nearest neighbor-Technik zur Klassifizierung oder Vorhersage von Beobachtungen.

Teilweise quadratische Minima. Diese flexible statistische Technik kann auf Daten beliebiger Form angewendet werden. Sie modelliert die Beziehungen zwischen Eingaben und Ausgaben auch dann, wenn die Eingaben zueinander in Beziehung stehen und verrauscht sind, wenn es mehr Ausgaben gibt oder wenn es mehr Eingaben als Beobachtungen gibt. Die partielle Methode der kleinsten Quadrate sucht nach Faktoren, die sowohl Antwort- als auch Prädiktorvariationen erklären.

Analyse der Hauptkomponenten. Der Zweck der Hauptkomponentenanalyse besteht darin, eine kleine Anzahl von unabhängigen Linearkombinationen (Hauptkomponenten) eines Satzes von Variablen abzuleiten, die so viele Informationen wie möglich in den ursprünglichen Variablen enthalten.

Unterstützung von Vektormaschinen. Diese überwachte Technik des maschinellen Lernens verwendet zugehörige Lernalgorithmen, um Daten zu analysieren und Muster zu erkennen. Sie kann sowohl zur Klassifizierung als auch zur Regression verwendet werden.

Zeitreihen-Data-Mining. Zeitreihendaten werden zeitlich erfasst und über einen bestimmten Zeitraum in einem bestimmten Zeitintervall gesammelt (Verkäufe in einem Monat, Anrufe pro Tag, Webbesuche pro Stunde usw.) Zeitreihendaten-Mining kombiniert traditionelle Data-Mining- und Prognosetechniken. Data-Mining-Techniken wie Stichprobenziehung, Clustering und Entscheidungsbäume werden auf die im Laufe der Zeit gesammelten Daten angewandt, um die Prognose zu verbessern.