AI: Projekte, die sich selbst verändern

KI ist eine Teilmenge der computergestützten Intelligenz. Das heißt, alle KI betrachtet künstliche Intelligenz, aber nicht alle computerbasierte Intelligenz betrachtet KI. Beispielsweise könnten emblematische Begründungen – Regelmotoren, Master-Frameworks und Informationsdiagramme – alle als künstliche Intelligenz dargestellt werden, und keine von ihnen ist KI.

Ein Aspekt, der die künstliche Intelligenz von den Informationstafeln und Master-Frameworks isoliert, ist ihre Fähigkeit, sich selbst zu verändern, wenn mehr Informationen präsentiert werden; so ist die künstliche Intelligenz beispielsweise dynamisch und erfordert keine menschliche Intervention, um spezifische Verbesserungen einzuführen. Das macht sie weniger anfällig und weniger abhängig von menschlichen Spezialisten.

Ein PC-Programm soll für eine Tatsache E wie für eine Klasse von Aufgaben T und Ausführungsmaßnahme P gewinnen, wenn sich seine Ausstellung bei Besorgungen in T, wie von P geschätzt, mit der Erfahrung E verbessert. – Tom Mitchell

1959 charakterisierte Arthur Samuel, einer der Pioniere der KI, die KI als ein “Konzentrationsfeld, das es PCs ermöglicht, zu lernen, ohne dass sie eindeutig verändert werden”. Das heißt, KI-Programme wurden nicht ausdrücklich in einen PC eingebaut, ähnlich wie bei den obigen Ankündigungen. KI-Programme verändern sich sozusagen selbst im Lichte der Informationen, die ihnen präsentiert werden (wie ein Kind, das in die Welt gebracht wird und merkt, dass nichts sein Verständnis der Welt aufgrund von Erfahrung verändert).

Samuel wies ein PC-Programm an, Dame zu spielen. Sein Ziel war es, es darauf zu trainieren, Dame zu spielen, die ihm überlegen sind, was er eindeutig nicht eindeutig programmieren konnte. Es gelang ihm, und 1962 schlug sein Programm den Dame-Sieger der Provinz Connecticut.

Das “Anpassen” eines Teils der KI impliziert, dass ML-Berechnungen versuchen, zusammen mit einer bestimmten Messung aufzurüsten; z.B. versuchen sie in der Regel, Fehler einzuschränken oder die Wahrscheinlichkeit zu erhöhen, dass ihre Erwartungen gültig sind. Dafür gibt es drei Namen: eine Fehlerarbeit, eine Unglücksarbeit oder eine Zielarbeit, angesichts der Tatsache, dass die Berechnung ein Ziel hat… Wenn jemand sagt, er arbeite mit einer KI-Berechnung, kann man zum Wesen ihres Anreizes gelangen, indem man fragt: Was ist die Zielarbeit?

Wie kann man den Fehler begrenzen? Alles in allem besteht ein Weg darin, eine Struktur zusammenzustellen, die die Beiträge zur Anfrage erhöht, um Vermutungen über die Neigung der Informationsquellen anzustellen. Verschiedene Erträge/Überraschungen sind die Ergebnisse der Datenquellen und der Berechnung. Im Allgemeinen sind die zugrundeliegenden Theorien sehr abwegig, und für den Fall, dass Sie das Glück haben, Namen zu haben, die sich auf die Informationen beziehen, können Sie abschätzen, wie falsch Ihre Schätzungen sind, indem Sie sie von der Realität abheben, und diesen Fehler anschließend dazu nutzen, Ihre Berechnung zu ändern. Das ist das, was neuronale Systeme tun. Sie fahren fort, den Fehler zu schätzen und ihre Parameter so lange zu ändern, bis sie nicht mehr weniger Fehler machen können.

Sie sind, um es deutlich zu sagen, eine Verbesserungsrechnung. Für den unwahrscheinlichen Fall, dass man sie richtig einstellt, begrenzen sie ihren Schnitzer durch Spekulation und Spekulation und Spekulation und Spekulation noch einmal.

Tiefgreifende Anpassung: Mehr Präzision, mehr Mathematik und mehr Figur

Profundes Lernen ist eine Teilmenge der KI. Wenn Individuen den Begriff “profundes Lernen” verwenden, spielen sie in der Regel auf tiefgreifende gefälschte neuronale Systeme an, und in gewissem Maße weniger gewohnheitsmäßig auf tiefgreifendes Verstärkungslernen.

Tiefgreifende gefälschte neuronale Systeme sind viele Berechnungen, die neue Präzedenzfälle in der Präzision für einige wichtige Fragen geschaffen haben, z.B. Bildbestätigung, Klangbestätigung, Recommender-Frameworks, Handhabung der gemeinsamen Sprache und so weiter. Tiefgründiges Lernen ist zum Beispiel ein Teil der herausragenden AlphaGo-Berechnung von DeepMind, die Mitte 2016 den früheren Titelträger Lee Sedol bei Go und Mitte 2017 den derzeit besten auf dem Planeten Ke Jie schlug. Eine zunehmend vollständige Klärung der neuronalen Werke ist hier zu finden.

Tiefgründig ist ein Fachbegriff. Er spielt auf die Anzahl der Schichten in einem neuronalen System an. Eine flache Organisation hat eine angeblich verhüllte Schicht, und ein tiefgründiges System hat mehrere. Verschiedene verborgene Schichten ermöglichen es tiefgründigen neuronalen Systemen, Hervorhebungen der Informationen in einer angeblichen Komponentenpick-Reihenfolge zu erlernen, da sich grundlegende Hervorhebungen (z.B. zwei Pixel), beginnend mit einer Schicht, von einer Schicht zur nächsten rekombinieren, um progressiv komplexe Hervorhebungen (z.B. eine Linie) einzurahmen. Netze mit zahlreichen Schichten durchlaufen die Eingabeinformationen (Hervorhebungen) mehr wissenschaftliche Aufgaben als Netze mit kaum Schichten und sind daher in der Vorbereitung rechnerisch konzentrierter. Die Rechenintensität ist eines der Zeichen für tiefgreifendes Lernen, und sie ist eine Motivation dafür, warum eine andere Art von Chip-Call-GPUs zur Vorbereitung tiefgreifender Lernmodelle gesucht wird.

Man könnte also eine ähnliche Definition auf die tiefgreifende Entdeckung anwenden, die Arthur Samuel bei der KI gemacht hat – ein “Konzentrationsfeld, das es PCs ermöglicht, zu lernen, ohne dass sie ausdrücklich angepasst werden müssen” – und gleichzeitig hinzufügen, dass sie im Allgemeinen zu höherer Präzision führt, mehr Ausrüstung oder Vorbereitungszeit erfordert und besonders gut bei maschinellen Unterscheidungsaufgaben funktioniert, die unstrukturierte Informationen beinhalten, z.B. Massen von Pixeln oder Inhalten.

Wie geht es mit der künstlichen Intelligenz weiter?

Die Fortschritte der Wissenschaftler von DeepMind, Google Mind, OpenAI und verschiedenen Hochschulen beschleunigen sich. Simulierte Intelligenz ist geeignet, immer schwierigere Probleme besser zu lösen als alles, was Menschen tun können.

Dies impliziert, dass sich die künstliche Intelligenz schneller verändert, als ihre Geschichte geschrieben werden kann, so dass auch Prognosen über ihre Zukunft sofort veraltet sind. Verfolgen wir eine Errungenschaft wie den (denkbaren) atomaren Abschied oder versuchen wir, dem Silizium nach und nach Einsichten abzuringen, so wie wir versuchen, Blei in Gold zu verwandeln?1

Es gibt vier grundsätzliche Denkweisen, oder vielleicht heilige Orte der Überzeugung, die zusammenfassen, wie Einzelpersonen über von Menschen geschaffene Intelligenz sprechen.

Diejenigen, die akzeptieren, dass der simulierte Intelligenzfortschritt rasch voranschreiten wird, werden im Allgemeinen über solide computergestützte Intelligenz nachdenken und darüber, ob sie für die Menschheit nützlich ist. Unter den Personen, die Vermutungen über den Fortschritt anstellen, betont das eine Lager die Vorteile einer immer scharfsinnigeren Programmierung, die die Menschheit von ihren gegenwärtigen Dummheiten verschonen könnte; das andere Lager betont die existenzielle Gefahr eines Genies.

Angesichts der Tatsache, dass die Intensität der computergestützten Intelligenz untrennbar mit der Intensität der rechnergestützten Ausrüstung voranschreitet, die in den Grenzbereich des Rechnens vorstößt, z.B. bessere Chips oder Quantenverarbeitung, wird der Fortschritt der künstlichen Intelligenz Platz machen. Auf einer einfachen algorithmischen Ebene stammt die Mehrheit der schockierenden Ergebnisse, die von den Labors geliefert werden, z.B. DeepMind, aus der Verbindung verschiedener Arten, mit künstlicher Intelligenz umzugehen, so wie AlphaGo tiefgreifendes Lernen und Fortifikationslernen konsolidiert. Die Verbindung von tiefgreifendem Lernen mit repräsentativem Denken, analogem Denken, Bayes’schen und transformativen Techniken ist garantiert.

Diejenigen, die nicht akzeptieren, dass die computergestützte Intelligenz im Vergleich zur menschlichen Einsicht so viel an Boden gewinnt, rechnen mit einem weiteren von Menschen gemachten Intelligenz-Winter, in dem die Finanzierung wegen der im Großen und Ganzen frustrierenden Ergebnisse verpuffen wird, wie es bisher der Fall war. Eine riesige Anzahl dieser Personen hat eine Haustierkalkulation oder einen Ansatz, der sich mit tiefgreifendem Lernen begnügt.

Endlich gibt es die Realisten, die bei der Mathematik stehen bleiben und mit chaotischen Informationen, seltenen simulierten Intelligenzfähigkeiten und der Anerkennung der Klienten kämpfen. Sie sind minimal streng gegenüber den Versammlungen, die Vorhersagen über computergestützte Intelligenz machen – sie erkennen einfach, dass es schwer ist.