de MNIST-database (Changed National Organization of Benchmarks and Innovation database) is een enorme database van handmatig geschreven cijfers die normaal gesproken wordt gebruikt voor de voorbereiding van verschillende beeldverwerkingssystemen. De database wordt bovendien over het algemeen gebruikt voor het voorbereiden en testen op het gebied van machinaal leren. Het is gemaakt door de voorbeelden uit de unieke datasets van NIST te “re-blenden”. De makers waren van mening dat aangezien de voorbereidingsdataset van NIST afkomstig was van vertegenwoordigers van het Amerikaanse bureau voor de statistiek, terwijl de testdataset afkomstig was van understudies van Amerikaanse middelbare scholen, deze niet geschikt was voor AI-experimenten. Bovendien waren de zeer contrasterende foto’s van NIST gestandaardiseerd om te passen in een 28×28 pixel gebonden box en vijandig tegenover geassocieerde, die grijswaardenniveaus presenteerden.

MNIST-testfoto’s

Testfoto’s van MNIST testdataset

De MNIST-database bevat 60.000 voorbereidingsfoto’s en 10.000 testbeelden. De helft van de voorbereidingsset en de helft van de testset zijn genomen uit de voorbereidingsset van NIST, terwijl het andere deel van de voorbereidingsset en het andere deel van de testset zijn genomen uit de testdataset van NIST. Er zijn verschillende logische documenten over pogingen om het meest gereduceerde foutpercentage te bereiken; één document, dat gebruik maakt van een progressieve opstelling van convolutionele neurale systemen, geeft aan hoe je een blunderpercentage op de MNIST-database van 0,23% kunt krijgen. De eerste makers van de database houden een overzicht van een deel van de technieken die zijn uitgeprobeerd.[5] In hun unieke paper maken ze gebruik van een helpvectormachine om een blundertempo van 0,8% te krijgen. Een allesomvattende dataset zoals MNIST genaamd EMNIST is in 2017 verspreid, die 240.000 voorbereidingsfoto’s bevat, en 40.000 testfoto’s van handmatig geschreven cijfers en karakters.

Uitvoering

Een paar analisten hebben “close human execution” bereikt op de MNIST-database, met behulp van een raad van beheerders van neurale systemen; in een vergelijkbaar document, de makers uitvoering te bereiken tweevoudig dat van mensen op andere erkenning taken. Het meest opmerkelijke foutenpercentage dat op de eerste site van de database staat, is 12 procent, wat wordt bereikt door gebruik te maken van een eenvoudige directe classificatie zonder voorbewerking.

In 2004 werd een best-case fouttempo van 0,42 procent bereikt op de database door analisten die gebruik maken van een andere classificator genaamd de LIRA, die een neurale classificator is met drie neuronlagen die afhankelijk zijn van de perceptronprincipes van Rosenblatt.

Een paar wetenschappers hebben geprobeerd de door de mens gemaakte hersenkrachtskaders te gebruiken met behulp van de database die onder willekeurige verdraaiingen is geplaatst. De kaders in deze gevallen zijn typisch neurale systemen en de gebruikte verminkingen zullen in het algemeen ofwel relatieve verdraaiingen ofwel veelzijdige vervormingen zijn. Af en toe kunnen deze kaders vruchtbaar zijn; een van deze kaders bereikte een blunderpercentage op de database van 0,39 procent.

In 2011 werd een blundertempo van 0,27 procent, waarmee het beste resultaat uit het verleden werd bereikt, door analisten die gebruik maakten van een vergelijkende opstelling van neurale netwerken. In 2013 is een methode die afhankelijk is van de regularisatie van neurale systemen die gebruik maken van DropConnect, uitgeroepen tot een foutpercentage van 0,21 procent.[14] Recentelijk,[wanneer?] was de beste uitvoering van het enkelvoudige convolutionele neurale systeem 0,31 procent foutpercentage.[15] Vanaf augustus 2018 is de beste uitvoering van een solitair convolutioneel neurale systeem dat is voorbereid op MNIST en dat informatie voorbereidt met behulp van realtime informatiegroei 0. Ook het Parallel Registering Center (Khmelnitskiy, Oekraïne) verwierf een outfit van slechts 5 convolutionele neurale systemen die presteren op MNIST met een blunderpercentage van 0.21 procent.

Dit is een tabel van enkele van de machinale leermethoden die op de database worden gebruikt en hun foutpercentages, per type classificator:

Type Classifier Distortion Preprocessing Error rate (%)
Linear classifier Pairwise linear classifier None Deskewing 7.6[9]
K-Nearest Neighbors K-NN with non-linear deformation (P2DHMDM) None Shiftable edges 0.52[19]
Boosted Stumps Product of stumps on Haar features None Haar features 0.87[20]
Non-linear classifier 40 PCA + quadratic classifier None None 3.3[9]
Support-vector machine (SVM) Virtual SVM, deg-9 poly, 2-pixel jittered None Deskewing 0.56[21]
Deep neural network (DNN) 2-layer 784-800-10 None None 1.6[22]
Deep neural network 2-layer 784-800-10 Elastic distortions None 0.7[22]
Deep neural network 6-layer 784-2500-2000-1500-1000-500-10 Elastic distortions None 0.35[23]
Convolutional neural network (CNN) 6-layer 784-40-80-500-1000-2000-10 None Expansion of the training data 0.31[15]
Convolutional neural network 6-layer 784-50-100-500-1000-10-10 None Expansion of the training data 0.27[24]
Convolutional neural network Committee of 35 CNNs, 1-20-P-40-P-150-10 Elastic distortions Width normalizations 0.23[8]
Convolutional neural network Committee of 5 CNNs, 6-layer 784-50-100-500-1000-10-10 None Expansion of the training data 0.21[17][18]