AI: Projecten die zichzelf veranderen

AI is een subset van computergebaseerde intelligentie. Dat wil zeggen, alle AI beschouwt kunstmatige intelligentie, maar niet alle computergebaseerde intelligentie beschouwt AI. Bijvoorbeeld, emblematische rationale – regelmotoren, masterframeworks en informatiegrafieken – zouden allemaal als kunstmatige intelligentie kunnen worden afgeschilderd, en geen van hen is AI.

Een hoek die AI van de informatiegrafieken en masterframeworks isoleert is het vermogen om zichzelf te veranderen wanneer het wordt gepresenteerd aan meer informatie; AI is bijvoorbeeld dynamisch en vereist geen menselijke voorbede om specifieke verbeteringen uit te rollen. Dat maakt het minder kwetsbaar en minder afhankelijk van menselijke specialisten.

Een PC-programma zou voor een feit E als voor sommige klassen van opdrachten T en uitvoering maatregel P winnen als zijn tentoonstelling op boodschappen in T, zoals geschat door P, verbetert met ervaring E. – Tom Mitchell

In 1959 karakteriseerde Arthur Samuel, een van de pioniers van AI, AI als een “concentraatveld dat PC’s in staat stelt te leren zonder ondubbelzinnig te worden aangepast”. Dat wil zeggen, AI-programma’s zijn niet expliciet in een PC gegaan, zoals in het geval dat de aankondigingen hierboven. AI-programma’s, zou je kunnen zeggen, veranderen zichzelf in het licht van de informatie die ze worden gepresenteerd (zoals een kind dat in de wereld wordt gebracht en zich realiseert dat niets zijn begrip van de wereld verandert vanwege de ervaring).

Samuel gaf een PC-programma opdracht om dammen te spelen. Zijn doel was om het te trainen om dammen superieur aan zichzelf te spelen, wat duidelijk niet iets is wat hij ondubbelzinnig kon programmeren. Het is hem gelukt, en in 1962 versloeg zijn programma de checker’s victor van de provincie Connecticut.

Het “aanpassen” van een deel van AI houdt in dat ML-berekeningen proberen te upgraden samen met een specifieke meting; zo proberen ze in de regel blunder te beperken of de waarschijnlijkheid dat hun verwachtingen geldig zijn te vergroten. Dit heeft drie namen: een blunderwerk, een ongelukswerk, of een doelwerk, in het licht van het feit dat de berekening een doel heeft… Wanneer iemand zegt dat hij met een AI-berekening werkt, kun je tot de essentie van de stimulans ervan komen door te vragen: Wat is het doelwerk?

Hoe kan men de fout beperken? Al met al is er een route om een structuur samen te stellen die de bijdragen verhoogt om te vragen om vermoedens te maken met betrekking tot de neiging van de informatiebronnen. Verschillende opbrengsten/vermoedingen zijn de resultaten van de gegevensbronnen en de berekening. Over het algemeen zijn de onderliggende theorieën erg off-base, en in het geval dat je het geluk hebt om grondwaarheidsnamen te hebben met betrekking tot de informatie, kun je peilen hoe fout je schattingen zijn door ze te onderscheiden van de werkelijkheid, en daarna die blunder gebruiken om je berekening te wijzigen. Dat is wat neurale systemen doen. Ze gaan door met het inschatten van de fout en het veranderen van hun parameters totdat ze niet meer minder blunder kunnen bereiken.

Ze zijn, om het duidelijk te zeggen, een verbeteringsberekening. Als je ze niet goed afstemt, beperken ze hun blunder door te speculeren en nog eens te speculeren en te speculeren.

Diepgaande aanpassing: Meer precisie, meer wiskunde en meer figuur…

Diepgaand leren is een deelverzameling van AI. In de regel, wanneer individuen de term diepgaand leren gebruiken, verwijzen zij naar diepe neurale systemen, en tot op zekere hoogte minder gebruikelijk naar diepgaand versterkingsleren.

Diepgaande nepneurale systemen zijn een heleboel berekeningen die nieuwe precedenten hebben geschapen in precisie voor een aantal belangrijke zaken, bijvoorbeeld beeldbekentenis, geluidsbekentenis, aanbevelingskaders, gemeenschappelijke taalverwerking, enzovoort. Diepgaand leren is bijvoorbeeld een stuk van DeepMind’s uitmuntende AlphaGo berekening, die de vorige titelhouder Lee Sedol op Go medio 2016 versloeg, en de huidige beste op de planeet Ke Jie medio 2017. Een steeds vollediger verduidelijking van de neurale werken is hier te vinden.

Diepgaand is een gespecialiseerde term. Het verwijst naar het aantal lagen in een neuraal systeem. Een ondiepe organisatie heeft één vermeende omhullende laag, en een diepgaand systeem heeft meerdere. Verschillende verborgen lagen maken het mogelijk om diepe neurale systemen in een vermeende component-pikorde highlights te leren van de informatie, aangezien basis highlights (bijvoorbeeld twee pixels) opnieuw worden gecombineerd, beginnend met de ene laag en dan op de volgende, om progressief complexe highlights (bijvoorbeeld een lijn) in te kaderen. Netten met talrijke lagen geven inputinformatie (highlights) door meer wetenschappelijke taken dan netten met nauwelijks lagen en zijn daardoor meer computationeel geconcentreerd om zich voor te bereiden. De computerintensiteit is een van de tekenen van diepgaand leren, en het is een van de redenen waarom een ander soort chip-oproep GPU’s wordt gezocht om diepgaande leermodellen voor te bereiden.

Je zou dus een soortgelijke definitie kunnen toepassen op profound discovery als Arthur Samuel deed bij AI – een “concentratieveld dat PC’s in staat stelt om te leren zonder dat ze expliciet op maat worden gemaakt” – terwijl je eraan toevoegt dat het in het algemeen zal resulteren in een hogere precisie, meer apparatuur of voorbereidingstijd nodig heeft, en bijzonder goed zal presteren bij machine onderscheidende ondernemingen die ongestructureerde informatie bevatten, bijvoorbeeld massa’s van pixels of inhoud.

Wat is het volgende voor kunstmatige intelligentie?

De vooruitgang die wetenschappers bij DeepMind, Google Mind, OpenAI en verschillende hogescholen hebben geboekt, wordt steeds sneller. Gesimuleerde intelligentie is geschikt voor het oplossen van steeds moeilijkere zaken die superieur zijn aan wat mensen kunnen.

Dit betekent dat kunstmatige intelligentie sneller verandert dan de geschiedenis ervan kan worden samengesteld, zodat voorspellingen over de toekomst ook meteen achterhaald zijn. Streefden we naar een prestatie als atoomscheiding (denkbaar), of proberen we het inzicht uit silicium geleidelijk aan te wringen, zoals we proberen lood in goud om te zetten? 1

Er zijn vier belangrijke manieren van denken, of heilige plaatsen van overtuiging misschien, die samenkomen hoe individuen praten over door de mens gemaakte intelligentie.

De individuen die accepteren dat de gesimuleerde intelligentievoortgang in een stroomversnelling komt, zullen over het algemeen een solide computergestuurde intelligentie overwegen, en of die nuttig is voor de mensheid. Onder de individuen die gissen naar vooruitgang, benadrukt het ene kamp de voordelen van een steeds scherper wordende programmering, die de mensheid kan behoeden voor haar huidige stommiteiten; het andere kamp benadrukt het existentiële gevaar van een genie.

Aangezien de intensiteit van de computergestuurde intelligentie onlosmakelijk verbonden is met de intensiteit van de rekenapparatuur, zal de stuwkracht in de computerlimiet, bijvoorbeeld betere chips of kwantumverwerking, plaats maken voor de vooruitgang in de kunstmatige intelligentie. Op een eenvoudig algoritmisch niveau komt het merendeel van de schokkende resultaten die bijvoorbeeld door laboratoria worden geleverd, voort uit het samenvoegen van verschillende manieren om met kunstmatige intelligentie om te gaan, net zoals AlphaGo het diepgaand leren en het versterken van het leerproces consolideert. Het samenvoegen van diepgaand leren met representatief denken, analoog denken, Bayesiaanse en transformatieve technieken tonen allemaal garantie.

De individuen die niet accepteren dat computergebaseerde intelligentie zoveel terrein wint ten opzichte van menselijk inzicht, anticiperen op een andere door de mens gemaakte intelligentiewinter, waarin de financiering zal verdampen vanwege de over het algemeen frustrerende uitkomsten, zoals eerder is gebeurd. Enorme aantallen van die individuen hebben een huisdierberekening of -aanpak die met diepgaand leren te maken heeft.

Eindelijk zijn er de realisten, die stoppen bij de wiskunde, vechten met chaotische informatie, zeldzame gesimuleerde intelligentie vermogen, en de klant erkenning. Ze zijn minimaal streng in het maken van voorspellingen over computergebaseerde intelligentie – ze beseffen gewoon dat het moeilijk is.