Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

GRU, auch als Gated Recurrent Unit bezeichnet, wurde 2014 eingeführt, um das häufige Problem des verschwindenden Gradienten zu lösen, mit dem Programmierer konfrontiert waren. Viele betrachten die GRU auch als eine fortschrittliche Variante der LSTM, da sie ähnlich aufgebaut sind und hervorragende Ergebnisse liefern. 

Gated Recurrent Units – Wie funktionieren sie?

Wie bereits erwähnt, sind Gated Recurrent Units eine fortgeschrittene Variante von SRRNs (Standard Recurrent Neural Network). Vielleicht fragen Sie sich jedoch, warum GRUs so effektiv sind. Lassen Sie es uns herausfinden. 

GRUs verwenden Update Gate und Reset Get, um das Problem des verschwindenden Gradienten eines Standard-RNN zu lösen. Dabei handelt es sich im Wesentlichen um 2 Vektoren, die über die Art der Informationen entscheiden, die an die Ausgabe weitergeleitet werden. Das Besondere an diesen Vektoren ist, dass Programmierer sie darauf trainieren können, Informationen zu speichern, vor allem solche, die lange zurückliegen. Das folgende Diagramm veranschaulicht die mathematischen Zusammenhänge dieses Prozesses:

Im Folgenden finden Sie einen detaillierteren Überblick über die GRU

 

Wie funktionieren diese GRUs?

Viele Menschen fragen sich oft, wie Siri oder die Google-Sprachsuche funktionieren. Nun, die Antwort ist ganz einfach: ein rekurrentes neuronales Netz. RNN hat komplizierte Algorithmen, die den gleichen Prinzipien folgen wie die Neuronen im menschlichen Gehirn.  Der RNN-Algorithmus speichert alle Eingaben dank eines internen Speichers, was ihn ideal für alle maschinellen Lernprobleme mit chronologischen Daten macht. 

Obwohl RNNs in der Regel unglaublich robust sind, haben sie oft Probleme mit dem Kurzzeitgedächtnis. Obwohl es sich um eine lange Reihe von Daten handelt, haben RNN Probleme, wenn es um die Übertragung von Daten aus älteren Schritten in neuere geht. Wenn zum Beispiel ein Absatz verarbeitet wurde, um Vorhersagen zu vervollständigen, könnte das RNN Gefahr laufen, wichtige Informationen vom Anfang auszulassen. 

Man sollte auch bedenken, dass rekurrente neuronale Netze mit Fading-Gradienten-Problemen konfrontiert sind, bei denen Gradienten als Werte für die Aktualisierung der Gewichte des neuronalen Systems verwendet werden. 

Fading-Gradient-Probleme erklärt

Fading-Gradient-Probleme treten auf, wenn der Gradient dazu neigt, sich zu verringern, nachdem er sich im Laufe der Zeit rückwärts fortgepflanzt hat, und keinen Wert mehr für den Lernprozess bietet. Daher wird bei registrierten neuronalen Netzen der Lernprozess abgebrochen, wenn die früheren Ebenen den geringsten Gradienten gewinnen. Da diese Ebenen nicht lernen können, kann sich das RNN nicht an Erfahrungen aus längeren Datenreihen erinnern und hat Probleme mit dem Kurzzeitgedächtnis.  

LSTM und GRUs sind ideale Lösungen, um dieses Problem zu lösen.

Wie löst die GRU das Problem?

Wie bereits erwähnt, sind GRUs oder Gated Current Units eine Variante des RNN-Designs. Sie nutzen einen Gated-Prozess zur Verwaltung und Steuerung des Automatisierungsflusses zwischen den Zellen des neuronalen Netzes. GRUs können das Erkennen von Abhängigkeiten erleichtern, ohne vergangene Informationen aus großen Mengen sequenzieller Daten zu ignorieren. 

Die GRU erreicht all dies durch den Einsatz ihrer Gattereinheiten, die dazu beitragen, Probleme mit verschwindenden/explodierenden Gradienten zu lösen, die häufig in herkömmlichen registrierten neuronalen Netzen auftreten. Diese Gates sind hilfreich für die Kontrolle der Informationen, die bei jedem Schritt beibehalten oder verworfen werden sollen. Es ist auch wichtig zu wissen, dass Gated Recurrent Units Reset- und Update-Gates verwenden. Hier ist ein Blick auf sie. 

Die Funktion des Update Gates

Die Hauptfunktion des Aktualisierungsgatters besteht darin, die ideale Menge an früheren Informationen zu bestimmen, die für die Zukunft wichtig sind. Einer der Hauptgründe, warum diese Funktion so wichtig ist, ist, dass das Modell jedes einzelne Detail aus der Vergangenheit kopieren kann, um das Problem des Fading-Gradienten zu beseitigen.

Die Funktion des Reset-Gates

Ein wesentlicher Grund, warum das Reset-Gate so wichtig ist, liegt darin, dass es bestimmt, wie viele Informationen ignoriert werden sollen. Es wäre fair, das Reset-Gate mit dem Forget-Gate des LSTM zu vergleichen, da es dazu neigt, nicht zusammenhängende Daten zu klassifizieren und das Modell dann dazu zu bringen, sie zu ignorieren und ohne sie weiterzumachen. 

Was unterscheidet GRU von LSTM

LSTM, das von vielen auch als Long Short Term Memory bezeichnet wird, ist eine künstliche Architektur von RNN, die häufig beim Deep Learning eingesetzt wird. Netzwerke mit langem Kurzzeitgedächtnis eignen sich gut für Prognosen, Klassifizierung und Verarbeitung auf der Grundlage von Zeitreihendaten. Dies liegt daran, dass es immer die Möglichkeit gibt, Lücken in nicht identifizierten Perioden innerhalb wichtiger Ereignisse in Zeitstrings zu haben. 

Gated Recurrent Units wurden 2014 eingeführt, um Gradientenprobleme zu lösen, mit denen RNNs konfrontiert sind. GRU und LSTM haben mehrere Eigenschaften gemeinsam. Beispielsweise verwenden beide Algorithmen eine Gating-Methode zur Verwaltung von Erinnerungsprozessen. Abgesehen davon sind GRUs nicht so komplex wie LSTMs und ihre Berechnung nimmt nicht allzu viel Zeit in Anspruch. 

Es gibt zwar mehrere Unterschiede zwischen LSTM und GRU, aber der wichtigste ist, dass das Langzeitgedächtnis drei Eingangsgatter hat, nämlich: Vergessen, Ausgang und Eingang. Im Gegensatz dazu gibt es bei GRU nur 2 Gatter, nämlich Update und Reset. Darüber hinaus sind GRUs nicht übermäßig kompliziert, was vor allem an der geringeren Anzahl von Gattern im Vergleich zu LSTM liegt.

Warum GRUs überragend sind

GRUs werden im Vergleich zu LSTMs als weit überlegen angesehen, da sie relativ einfach zu modifizieren sind, da sie keine Speichereinheiten benötigen. GRUs werden häufig eingesetzt, wenn es sich um eine kleine Datenmenge handelt. Bei großen Datenreihen sind jedoch LSTMs die bevorzugte Wahl. 

Natürlich werden GRU und LSTM in einer Vielzahl komplizierter Bereiche benötigt, wie z.B. maschinelles Verstehen, Aktienkursvorhersage, Stimmungsanalyse, Sprachsynthese, Spracherkennung, maschinelle Übersetzung und vieles mehr. 

Gated Recurrent Units (GRUs) sind ein wichtiger Bestandteil der Data-Science-Landschaft, und es ist wichtig, sich mit ihnen vertraut zu machen, um sicherzustellen, dass man sie angemessen nutzen kann. Aufgrund ihrer Fähigkeit, das Problem des verschwindenden Gradienten zu lösen, haben sich GRUs in der Welt der Datenwissenschaft als ein Geschenk des Himmels erwiesen, und Programmierer schulen sie und setzen sie in komplizierten Szenarien richtig ein.

Languages

Weekly newsletter

No spam. Just the latest releases and tips, interesting articles, and exclusive interviews in your inbox every week.