die MNIST-Datenbank (Changed National Organization of Benchmarks and Innovation database) ist eine riesige Datenbank mit manuell geschriebenen Ziffern, die normalerweise zur Vorbereitung verschiedener Bildverarbeitungssysteme verwendet wird. Die Datenbank wird darüber hinaus in der Regel für die Vorbereitung und Erprobung im Bereich des maschinellen Lernens genutzt. Sie wurde durch “Re-Blending” der Beispiele aus den einzigartigen Datensätzen des NIST erstellt. Da der Vorbereitungsdatensatz des NIST von Vertretern der amerikanischen Statistikbehörde stammt, während der Testdatensatz von amerikanischen Sekundarschülerinnen und -schülern übernommen wurde, war er nach Ansicht der Hersteller für KI-Experimente nicht geeignet. Darüber hinaus wurden die stark kontrastierenden Bilder vom NIST so standardisiert, dass sie in einen Begrenzungskasten von 28×28 Pixel passten und nicht assoziiert werden konnten, wodurch Graustufen dargestellt wurden.
MNIST-Testbilder
Testbilder aus dem MNIST-Testdatensatz
Die Datenbank des MNIST enthält 60.000 Vorbereitungsbilder und 10.000 Testbilder. Die Hälfte des Vorbereitungssatzes und die Hälfte des Testsatzes wurden dem Vorbereitungsdatensatz des NIST entnommen, während der andere Teil des Vorbereitungssatzes und der andere Teil des Testsatzes dem Versuchsdatensatz des NIST entnommen wurde. Es gab verschiedene logische Abhandlungen über das Bestreben, die niedrigste Fehlerquote zu erreichen; eine Abhandlung, die eine progressive Anordnung von konvolutionellen neuronalen Systemen verwendet, zeigt auf, wie man eine Fehlerquote der MNIST-Datenbank von 0,23% erreichen kann. Die ersten Macher der Datenbank halten einen Teil der Techniken, die an der Datenbank ausprobiert wurden, in einer Übersicht fest[5] In ihrem einzigartigen Papier verwenden sie eine Hilfsvektormaschine, um eine Fehlerrate von 0,8% zu erreichen. Ein allumfassender Datensatz wie MNIST namens EMNIST wurde 2017 verteilt, der 240.000 vorbereitende Bilder und 40.000 Testbilder von manuell geschriebenen Ziffern und Zeichen enthält.
Ausführung
Einige wenige Analysten haben in der MNIST-Datenbank eine “enge menschliche Ausführung” erreicht, indem sie ein Kuratorium für neuronale Systeme eingesetzt haben; in einem ähnlichen Papier vollbringen die Schöpfer die doppelte Ausführung wie Menschen bei anderen Anerkennungsaufgaben. Die bemerkenswerteste Fehlerquote, die auf der ersten Seite der Datenbank aufgeführt ist, liegt bei 12 Prozent, was durch die Verwendung eines einfachen direkten Klassifikators ohne Vorverarbeitung erreicht wird.
Im Jahr 2004 wurde von Analysten, die einen anderen Klassifikator namens LIRA verwendeten, eine Fehlerrate von 0,42 Prozent in der Datenbank erreicht. LIRA ist ein neuronaler Klassifikator mit drei Neuronenschichten, die von Rosenblatts Perceptron-Prinzipien abhängen.
Einige wenige Wissenschaftler haben von Menschen geschaffene Brainpower-Rahmenwerke ausprobiert, die die unter willkürliche Verzerrungen gestellte Datenbank nutzen. Bei den Rahmenwerken in diesen Fällen handelt es sich in der Regel um neuronale Systeme, und die verwendeten Verstümmelungen sind im Allgemeinen entweder relative Verzerrungen oder vielseitige Verzerrungen. Hin und wieder können diese Rahmenwerke fruchtbar sein; ein solches Rahmenwerk erreichte eine Fehlerquote von 0,39 Prozent bei der Datenbank.
Im Jahr 2011 wurde ein Schnitzer von 0,27 Prozent, der das bisher beste Ergebnis verbesserte, von Analysten, die eine vergleichende Anordnung neuronaler Netze verwendeten, verantwortet. Im Jahr 2013 wurde eine Methodik, die von der Regularisierung neuronaler Systeme unter Verwendung von DropConnect abhängt, angeblich eine Fehlerrate von 0,21 Prozent erreichen.[14] Kürzlich lag die beste Ausführung eines einzelnen konvolutionalen neuronalen Systems bei 0,31 Prozent Fehlerrate.[15] Ab August 2018 ist die beste Ausführung eines einzelnen konvolutionalen neuronalen Systems, das auf MNIST vorbereitet wurde und Informationen unter Verwendung von Informationswachstum in Echtzeit vorbereitet, 0.Auch das Parallele Registrierungszentrum (Chmelnizkij, Ukraine) erwarb eine Ausstattung von nur 5 Faltungsneuronalsystemen, die am MNIST mit einer Fehlerrate von 0,21 Prozent ausgeführt werden. 0,21 Prozent Fehlerrate kann durch eine falsche Markierung des Testdatensatzes vermieden werden.
Dies ist eine Tabelle mit einigen der in der Datenbank verwendeten maschinellen Lernverfahren und deren Fehlerraten, nach Art des Klassifikators:
Geben Sie ein. | Klassifikator | Verzerrung | Vorverarbeitung | Fehlerquote (%) |
Linearer Klassifikator | Paarweise linearer Klassifikator | Keine | Geraderücken | 7.6[9] |
K-Nächste Nachbarn | K-NNN mit nichtlinearer Verformung (P2DHMDM) | Keine | Verschiebbare Kanten | 0.52[19] |
Aufgebohrte Stümpfe | Produkt von Stümpfen auf Haar-Merkmalen | Keine | Haar Merkmale | 0.87[20] |
Nicht-linearer Klassifikator | 40 PCA + quadratischer Klassifikator | Keine | Keine | 3.3[9] |
Support-Vektor-Maschine (SVM) | Virtuelle SVM, Deg-9-Poly, 2-Pixel-Zittern | Keine | Geraderücken | 0.56[21] |
Tiefes neuronales Netzwerk (DNN) | 2-lagig 784-800-10 | Keine | Keine | 1.6[22] |
Tiefes neuronales Netzwerk | 2-lagig 784-800-10 | Elastische Verzerrungen | Keine | 0.7[22] |
Tiefes neuronales Netzwerk | 6-schichtig 784-2500-2000-1500-1000-500-10 | Elastische Verzerrungen | Keine | 0.35[23] |
Neuronales Faltungsnetz (CNN) | 6-schichtig 784-40-80-500-1000-2000-10 | Keine | Erweiterung der Trainingsdaten | 0.31[15] |
Neuronales Faltungsnetz | 6-schichtig 784-50-100-500-1000-10-10 | Keine | Erweiterung der Trainingsdaten | 0.27[24] |
Neuronales Faltungsnetz | Ausschuss von 35 CNNs, 1-20-P-40-P-150-10 | Elastische Verzerrungen | Breitennormalisierungen | 0.23[8] |
Neuronales Faltungsnetz | Ausschuss von 5 CNNs, 6-schichtig 784-50-100-500-1000-10-10 | Keine | Erweiterung der Trainingsdaten | 0.21[17][18] |