Das Jahr 2015 war ein großartiges Jahr auf dem Gebiet des menschengemachten Denkens. Nicht nur, dass PCs mehr herausfinden und sich schneller anpassen, wir untersuchen auch, wie sich ihre Rahmenbedingungen verbessern lassen. Alles beginnt sich anzupassen, und angesichts dessen sehen wir Schritte, die wir vor nicht allzu langer Zeit noch nie für denkbar gehalten hätten. Wir haben Programme, die Geschichten über Bilder erzählen können. Wir haben Fahrzeuge, die sich selbst fahren. Wir haben sogar Programme, die Handwerkskunst machen. Für den Fall, dass Sie sich nach und nach über die Fortschritte im Jahr 2015 informieren müssen, lesen Sie diesen Artikel. Hier bei Josh.ai, wo die KI-Innovation zum Zentrum von so ziemlich allem wird, was wir tun, glauben wir, dass es unbedingt notwendig ist, einen Teil der grundlegenden Formulierungen zu sehen und einen unangenehmen Gedanken darüber zu bekommen, wie alles funktioniert.

Welche sind das?

Eine Tonne der Fortschritte im computergestützten Denken sind neue messbare Modelle, der geistig dominierende Teil der Fortschritte liegt jedoch in einer Innovation, die als Fake Neural Systems (ANN) bezeichnet wird. Für den unwahrscheinlichen Fall, dass Sie schon einmal etwas darüber gelesen haben, werden Sie festgestellt haben, dass diese ANNs ein unangenehmes Modell dafür sind, wie der menschliche Verstand organisiert ist. Beachten Sie, dass es einen Kontrast zwischen gefälschten neuronalen Systemen und neuronalen Systemen gibt. Trotz der Tatsache, dass sehr viele Menschen die Fälschung wegen ihrer Kürze fallen lassen, wurde dem Ausdruck das Wort “Fälschung” vorangestellt, so dass Einzelpersonen in der Computational Neurobiology den Begriff “neuronales System” auf jeden Fall verwenden konnten, um auf ihre Arbeit hinzuweisen. Im Folgenden wird eine Grafik von echten Neuronen und Neurotransmittern im Großhirn im Gegensatz zu gefälschten dargestellt.

Fürchten Sie sich nicht, wenn die Grafik nicht offensichtlich durchkommt. Wichtig zu verstehen ist, dass wir in unseren ANNs diese Schätzungseinheiten, die Neuronen, haben. Diese gefälschten Neuronen sind mit Neurotransmittern verbunden, bei denen es sich um extrem einfach gewichtete Qualitäten handelt. Das bedeutet, dass ein Neuron, dem eine Zahl gegeben wird, eine Art von Zahl ausspielt (zum Beispiel die Sigmoid-Kapazität), und danach wird die Konsequenz dieser Zählung durch eine Last erhöht, während es “auf Reisen” geht. Das gewichtete Ergebnis kann hier und da die Ausbeute Ihres neuronalen Systems sein, oder, wie ich bald besprechen werde, Sie können mehr Neuronen in Schichten angeordnet haben, was die wesentliche Idee zu einem Gedanken ist, den wir tiefgreifendes Lernen nennen.

Woher kommen sie?

Gefälschte neuronale Systeme sind keine andere Idee. Um ehrlich zu sein, haben wir sie nicht einmal konsequent als neuronale Systeme bezeichnet, und sie sehen jetzt absolut nicht mehr so ähnlich aus wie zu Beginn. In den 1960er Jahren hatten wir ein sogenanntes Perceptron. Perceptrons wurden aus McCulloch-Pitts-Neuronen hergestellt. Wir hatten sogar einseitige Perceptrons, und endlich begannen Einzelpersonen, mehrschichtige Perceptrons herzustellen, was gleichbedeutend ist mit dem allgemeinen gefälschten neuronalen System, von dem wir heute Wind bekommen.

Wie dem auch sei, Pause, falls wir seit den 1960er Jahren neuronale Systeme haben, aus welchem Grund würden sie sagen, dass sie vor wenigen Sekunden kolossal geworden sind? Das ist eine lange Geschichte, und ich bitte Sie dringend, sich auf diese digitale Rundfunkszene einzustimmen, um sich auf die “Väter” der heutigen ANNs einzustimmen, die über ihre Ansichten zu diesem Thema sprechen. Um es kurz zu umreißen: Es gibt eine Handvoll Variablen, die verhindert haben, dass die ANNs immer mehr an Bedeutung gewinnen. Wir hatten nicht die PC-Handhabungskraft und wir hatten nicht die Informationen, um sie vorzubereiten. Ihre Verwendung wurde missbilligt, weil sie offensichtlich eine subjektive Fähigkeit zu guter Leistung haben. Jede einzelne dieser Variablen entwickelt sich weiter. Unsere PCs werden immer schneller und dominierender, und mit dem Internet haben wir eine breite Palette von Informationen, die wir gemeinsam nutzen können.

Wie würden sie funktionieren?

Ich verwies darauf, dass die Neuronen und Neurotransmitter Berechnungen durchführen. Die Untersuchung sollte an erster Stelle Ihrer Gedanken stehen: “Wie würden sie erkennen, welche Schätzungen durchzuführen sind?” Würde ich sagen, dass ich Recht hatte? Die angemessene Antwort ist, dass wir ihnen im Grunde genommen viele Fragen stellen und sie mit Antworten versorgen müssen. Dies ist ein Bereich, der administriertes Lernen genannt wird. Wenn genügend Anfragen und Antworten übereinstimmen, werden die Zählungen und Qualitäten, die bei jedem Neuron und Neurotransmitter abgelegt wurden, allmählich ausgeglichen. Im Allgemeinen geschieht dies durch ein Verfahren namens Backpropropagation.

Stellen Sie sich vor, Sie schlendern einen Gang entlang und sehen einen Lichtpfosten. Sie haben noch nie einen Lichtpfosten beobachtet, also gehen Sie direkt hinein und sagen “Aua”. Wann immer Sie einen Lichtpfosten sehen, kriechen Sie ein paar Mal zur Seite und schlendern weiter. Diesmal stößt Ihre Schulter gegen den Lichtpfosten und Sie sagen erneut “Aua”. Beim dritten Mal, wenn Sie einen Lichtpfosten sehen, gehen Sie rechts rüber, um sicherzustellen, dass Sie den Lichtpfosten nicht treffen. Aber jetzt ist etwas Schreckliches passiert – jetzt sind Sie geradewegs in den Weg eines Briefkastens geschlendert, und Sie haben noch nie einen Briefkasten beobachtet. Sie schlendern hinein, und die ganze Prozedur geschieht noch einmal. Das ist eindeutig eine Fehldarstellung, aber es ist adäquat, was Rückpropagation tut. Ein gefälschtes neuronales System erhält eine große Anzahl von Modellen, und danach versucht es, eine ähnliche Antwort wie das angegebene Modell zu erhalten. An dem Punkt, an dem es nicht richtig ist, wird ein Fehler festgestellt, und die Eigenschaften an jedem Neuron und Neurotransmitter werden in umgekehrter Richtung durch das ANN für immer erzeugt. Dieses Verfahren erfordert eine Menge Modelle. Für echte Anwendungen kann die Anzahl der Modelle in die Millionen gehen.

Da wir ein Verständnis für gefälschte neuronale Systeme und bis zu einem gewissen Grad auch für deren Funktionsweise haben, sollte eine weitere Untersuchung im Vordergrund Ihrer Überlegungen stehen. Wie würden wir wissen, wie viele Neuronen wir verwenden müssen? Darüber hinaus, aus welchem Grund haben Sie die Wortschichten vorher intensiviert? Schichten sind einfach Sätze von Neuronen. Wir haben eine Informationsschicht, die die Information ist, die wir der ANN geben. Wir haben die umhüllten Schichten, das ist der Ort, an dem die Verzauberung stattfindet. Schließlich haben wir die Fließschicht, das ist der Ort, an dem die fertigen Berechnungen des Systems für uns bestimmt sind, um sie zu nutzen.

Die Schichten selbst sind einfach Sätze von Neuronen. Zu Beginn der mehrschichtigen Perceptrons hielten wir es zunächst für ausreichend, nur eine Informationsschicht, eine Ummantelungsschicht und eine Fließschicht zu haben. Das verheißt Gutes, nicht wahr? Wenn man ein paar Zahlen angibt, braucht man nur eine Menge Berechnungen, und danach erhält man eine Ausbeute. Für den unwahrscheinlichen Fall, dass Ihre ANN nicht den richtigen Wert ermittelte, haben Sie einfach weitere Neuronen zu der einen Ummantelungsschicht hinzugefügt. Am Ende stellten wir fest, dass wir dabei ganz einfach eine direkte Kartierung jedes einzelnen Beitrags zum Ertrag vornehmen. Am Ende des Tages stellten wir fest, dass spezifische Informationen durchweg zu einem bestimmten Ertrag führen würden. Wir hatten keine Anpassungsfähigkeit und konnten wirklich nur mit Datenquellen umgehen, die wir zuvor gesehen hatten. Das war in keiner Weise das, was wir brauchten.

Gegenwärtig ist eine tiefgreifende Erkenntnis vorhanden, und das ist der Punkt, an dem wir mehr als eine verborgene Schicht haben. Dies ist ein Grund dafür, dass wir jetzt bessere ANNs haben, da wir mehrere Hubs mit zehn, wenn nicht sogar mehr Schichten benötigen. Daraus ergibt sich ein gigantisches Maß an Faktoren, die wir auf einmal überwachen müssen. Fortschritte in der parallelen Programmierung ermöglichen es uns ebenfalls, wesentlich größere ANNs in Klumpen zu betreiben. Unsere gefälschten neuronalen Systeme werden derzeit so riesig, dass wir nie wieder ein einsames Zeitalter, das sich durch das gesamte System zieht, ohne einen Augenblick Verzögerung laufen lassen können. Wir müssen alles in Gruppen tun, die nur Teilmengen des gesamten Systems sind, und sobald wir ein ganzes Zeitalter abgeschlossen haben, wenden wir an diesem Punkt die Backpropagation an.

Welche Arten gibt es?

Neben der Tatsache, dass man sich jetzt profundes Lernen zunutze macht, muss man unbedingt erkennen, dass es eine große Anzahl verschiedener Modelle gefälschter neuronaler Systeme gibt. Das reguläre ANN ist eine Anordnung in einer Art und Weise, bei der jedes Neuron mit jedem anderen Neuron in der folgenden Schicht verbunden ist. Diese werden explizit als vorgetäuschte gefälschte neuronale Systeme bezeichnet (trotz der Tatsache, dass ANNs in der Regel alle vorgetäuschte Neuronen sind). Wir haben herausgefunden, dass wir durch die Verbindung von Neuronen mit verschiedenen Neuronen in bestimmten Beispielen Zeichen einer Verbesserung zeigen können, die zu expliziten Situationen führt.

Repetitive Neuronale Systeme

Repetitive Neuronale Systeme (RNN) wurden geschaffen, um den Makel in gefälschten neuronalen Systemen zu beheben, die sich nicht mit Entscheidungen zufrieden gaben, die von Informationen aus der Vergangenheit abhingen. Ein Lauf der Mühle ANN hatte herausgefunden, wie man sich bei der Vorbereitung auf Entscheidungen in Abhängigkeit von der Einstellung einigen konnte, doch sobald man sich auf Entscheidungen für die Nutzung geeinigt hatte, wurden die Entscheidungen unabhängig voneinander getroffen.

Faltungsneuronale Systeme

Convolutional Neural Systems (CNN), in einigen Fällen als LeNets (benannt nach Yann LeCun) bezeichnet, sind gefälschte neuronale Systeme, bei denen die Assoziationen zwischen den Schichten alle Merkmale aufweisen, dass sie ziemlich selbstbewusst sind. In jedem Fall besteht der Zweck hinter der Anordnung der Neurotransmitter in der Art und Weise, wie sie angeordnet werden sollen, darin, die Anzahl der Parameter zu verringern, die weiterentwickelt werden sollten. Dies wird durch die Beachtung eines spezifischen Gleichgewichts in der Art und Weise, wie die Neuronen miteinander verbunden sind, abgeschlossen, so dass man im Grunde genommen Neuronen “wiederverwenden” kann, um ununterscheidbare Duplikate zu haben, ohne grundsätzlich eine ähnliche Anzahl von Neurotransmittern zu benötigen. CNNs werden in der Regel bei der Arbeit mit Bildern aufgrund ihrer Fähigkeit, Designs in umschließenden Pixeln wahrzunehmen, eingesetzt. Wenn man einen Blick auf jedes einzelne Pixel wirft, das mit seinen umgebenden Pixeln kontrastiert, sind überschüssige Daten enthalten, und man kann einen Teil dieser Daten aufgrund ihrer gleichmäßigen Eigenschaften wirklich packen. Das klingt wie der ideale Fall für ein CNN, wenn Sie mich zufällig fragen. Christopher Olah hat einen unglaublichen Blogeintrag über das Verständnis von CNNs ebenso wie über verschiedene Arten von ANNs, die Sie hier entdecken können. Ein weiterer außerordentlicher Gewinn für CNNs zum Thema Verstehen ist dieser Blog-Eintrag.