Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

AI (Machinaal leren) is het logische onderzoek naar berekeningen en meetbare modellen die computersystemen gebruiken om een bepaalde boodschap uit te voeren zonder gebruik te maken van eenduidige richtlijnen, afhankelijk van voorbeelden en inductie. Het wordt gezien als een deelverzameling van de door de mens gemaakte redenering. AI-berekeningen stellen een wetenschappelijk model samen dat afhankelijk is van testinformatie, bekend als “informatie voorbereiden”, om zich te vestigen op verwachtingen of keuzes zonder dat deze expliciet worden aangepast om de taak uit te voeren. AI-berekeningen worden gebruikt in een breed scala van toepassingen, bijvoorbeeld e-mail sifting en computer vision, waar het moeilijk of niet mogelijk is om handmatig een algoritme te maken om de taak op te lossen.

AI is stevig geïdentificeerd met computationele inzichten, die de aandacht vestigen op het maken van verwachtingen met behulp van computers. Het onderzoek naar numerieke vooruitgang brengt technieken, hypotheses en toepassingsgebieden over naar het gebied van AI. Information mining is een gebied van concentratie binnen AI, en benadrukt verkennend informatieonderzoek door middel van zelfstandig leren. In de toepassing van AI op zakelijke kwesties wordt bovendien gezinspeeld op het onderzoek van de wetenschap.


Verbinding met Datamining

AI en datamining maken vaak gebruik van vergelijkbare technieken en bestrijken in wezen dezelfde dingen, maar terwijl AI zich richt op de verwachting, in het licht van de gerealiseerde eigenschappen die worden verkregen uit de voorbereidingsinformatie, zijn datamining centra rond de openbaring van (al) obscure eigenschappen in de gegevens (dit is het onderzoek naar het aanleren van onthulling in databases). Information mining maakt gebruik van vele AI-technieken, echter met verschillende doelstellingen; ook hier maakt AI gebruik van information mining strategieën als “unaided learning” of als een preprocessing venture om de nauwkeurigheid van de student te verbeteren. Een belangrijk deel van de wanorde tussen deze twee gebieden vraagt naar netwerken (die wel regelmatig afzonderlijke bijeenkomsten en afzonderlijke dagboeken hebben, waarbij ECML PKDD een belangrijk speciaal geval is) komt voort uit de essentiële veronderstellingen waarmee ze werken: bij AI wordt de uitvoering normaal gesproken beoordeeld op het vermogen om bekende informatie na te bootsen, terwijl bij learning disclosure en information mining (KDD) de belangrijkste onderneming de openbaring van de toch al obscure gegevens is. Beoordeeld met betrekking tot bekende gegevens, zal een onwetende (niet-ondersteunde) techniek effectief worden geslagen door andere gereguleerde strategieën, terwijl in een reguliere KDD taak, gerichte technieken niet kunnen worden gebruikt vanwege de ontoegankelijkheid van voorbereide gegevens.


Verbinding met Werbetering

AI heeft ook privé-verbindingen met verbetering: veel leerproblemen worden gezien als het minimaliseren van een aantal ongelukkige werkzaamheden aan een voorbereide set van modellen. Misfortuincapaciteiten drukken de inconsistentie uit tussen de verwachtingen van het model dat wordt voorbereid en de echte probleemgevallen (om bijvoorbeeld namen voor voorvallen toe te laten, en modellen zijn bereid om de vooraf toegewezen merken van veel modellen nauwkeurig te voorzien). Het onderscheid tussen de twee velden komt voort uit de doelstelling van speculatie: terwijl vooruitgangsberekeningen de tegenslag op een voorbereidingsset kunnen beperken, maakt AI zich zorgen over het beperken van de tegenslag op verborgen monsters.

Verbinding met Metingen

AI en inzichten zijn sterk verwant aan elkaar als het gaat om strategieën, maar toch onmiskenbaar in hun centrale doelstelling: metingen trekken populatieve deducties uit een voorbeeld, terwijl AI generaliseerbare prescient patronen vindt. Zoals Michael I. Jordan aangeeft, hebben de gedachten van AI, van methodologische standaarden tot hypothetische apparaten, een lange voorgeschiedenis in de statistiek. Hij raadde bovendien de term datawetenschap aan als een plaatshouder om het algemene veld te noemen tot een meer geschikte term opdook.

Leo Breiman herkende twee feitelijke weergavestandaarden: datamodel en algoritmisch model, waarin “algoritmisch model” zo’n beetje de AI-berekeningen als willekeurig bos betekent.

Een paar analisten hebben strategieën van AI omarmd, waardoor er een gezamenlijk veld ontstaat dat ze meetbaar leren noemen.
Modellen

Het uitvoeren van AI omvat het maken van een model, dat wordt voorbereid op een aantal voorbereide informatie en kan daarna extra informatie verwerken om verwachtingen te maken. Er zijn verschillende soorten modellen gebruikt en gevraagd voor AI-raamwerken.

Kunstmatige Neurale Netwerken

Kunstmatige neurale netwerken zijn een onderling verbonden verzameling van hubs, vergelijkbaar met het enorme systeem van neuronen in een cerebrum. Hier spreekt elke roterende hub tot een namaakneuron en elke bout tot een associatie van de opbrengst van het ene namaakneuron tot de bijdrage van een ander.

Kunstmatige neurale netwerken (ANN’s), oftewel connectionistische kaders, zijn verwerkingskaders die enigmatisch worden verlevendigd door de natuurlijke neurale systemen die de schepsel-cerebrums tot stand brengen. Zulke kaders “leren” om verbintenissen uit te voeren door na te denken over modellen, voor het grootste deel zonder dat ze worden aangepast met expliciete regels.

Een ANN is een model dat afhankelijk is van een verzameling van geassocieerde eenheden of hubs die “kunstmatige neuronen” worden genoemd, die de neuronen vrijelijk modelleren in een organische geest. Elke associatie, vergelijkbaar met de neurotransmitters in een natuurlijke geest, kan gegevens overbrengen, een “signaal”, beginnend met het ene nepneuron en dan op het volgende. Een nepneuron dat een teken krijgt, kan het verwerken en vervolgens extra kunstmatige neuronen die ermee geassocieerd zijn, signaleren. Op dezelfde manier als ANN-uitvoeringen, is het teken bij een associatie tussen valse neuronen een echt getal, en wordt de opbrengst van elk nepneuron geregistreerd door een bepaalde niet-directe capaciteit van het geheel van zijn gegevensbronnen. De associaties tussen valse neuronen worden “randen” genoemd. Valse neuronen en randen hebben vaak een gewicht dat verandert naarmate het leren vordert. Het gewicht verhoogt of verlaagt de kwaliteit van het teken bij een associatie. Kunstmatige neuronen kunnen een rand hebben met als einddoel dat het teken mogelijk wordt verzonden als het totale teken die rand overschrijdt. Vaak worden nepneuronen in lagen verzameld. Verschillende lagen kunnen verschillende soorten veranderingen in hun informatiebronnen aanbrengen. Borden verplaatsen zich van de hoofdlaag (de informatielaag) naar de laatste laag (de opbrengstlaag), wellicht in het kielzog van het navigeren door de lagen bij verschillende gelegenheden.

Het eerste doel van de ANN-benadering was om problemen op dezelfde manier aan te pakken als een menselijke hersenen. Hoe het ook zij, na verloop van tijd werd er overwogen om expliciete verbintenissen aan te gaan, wat aanleiding gaf tot afwijkingen van de wetenschap. Namaak neurale systemen zijn gebruikt op een scala van ondernemingen, met inbegrip van PC-visie, discours erkenning, machine interpretatie, interpersoonlijke organisatie te scheiden, het spelen van bord-en computerspelletjes en herstellende vastberadenheid.

Diepgaand leren bestaat uit verschillende gehulde lagen in een nagemaakt neuraal systeem. Deze methodiek probeert de manier waarop de menselijke hersenen licht en geluid in beeld en geluid verwerken weer te geven. Enkele effectieve toepassingen van diepgaand leren zijn computervisie en vertoogherkenning.

Beslissingsbomen

Het leren van beslissingsbomen maakt gebruik van een keuzeboom als een vooruitziend model om te gaan van percepties over een ding (gesproken in de takken) naar beslissingen over de objectieve waarde van het ding (gesproken in de bladeren). Het is een van de prescient displaying benaderingen die gebruikt worden in inzichten, information mining en AI. Beslissingsboommodellen waarbij de objectieve variabele een discrete rangschikking van kwaliteiten kan nemen, worden karakteriseringsbomen genoemd; in deze boomstructuren spreken de bladeren tot klassennamen en de takken tot samenvoegingen van hoogtepunten die leiden tot die klassentekens. Beslissingsbomen waarbij de objectieve variabele non-stop beoordelingen kan nemen (meestal echte getallen) worden terugvalbomen genoemd. In een keuzeonderzoek kan een beslisboom worden gebruikt om naar buiten toe uitdrukkelijk te spreken tot keuzes en basisleiderschap. In informatiemijnbouw geeft een keuzeboom informatie weer, maar de daarop volgende schikkingsboom kan een bijdrage leveren aan basisleiderschap.

Ondersteuning van Vectormachines

Support vector machines (SVM’s), ook wel help vector systemen genoemd, zijn verwante toegediende leertechnieken die gebruikt worden voor groepering en terugval. Gezien de vele voorbereide modellen, heeft elke set apart een plaats met een van de twee classificaties: en een SVM die de berekening voorbereidt, maakt een model dat voorspelt of een ander model in de ene of in de andere klasse valt. Een SVM-voorbereidende berekening is een niet-probabilistische, tweeledige, directe classificator, ondanks het feit dat er technieken bestaan om bijvoorbeeld Plattschaling te gebruiken om SVM in een probabilistische karakteriseringsinstelling te gebruiken. Ondanks het uitvoeren van een rechte groepering, kunnen SVM’s effectief een niet-directe karakterisering uitvoeren door gebruik te maken van wat bekend staat als de part stunt, waarbij hun bijdragen aan hoogdimensionale elementruimtes verifieerbaar in kaart worden gebracht.

Bayesiaanse Systemen

Een Bayesiaans systeem, veroordelingsorganisatie of gecoördineerd niet-cyclisch grafisch model is een probabilistisch grafisch model dat met een gecoördineerd niet-cyclisch diagram (DAG) spreekt over een heleboel willekeurige factoren en hun beperkende vrijheid. Een Bayesiaans systeem zou bijvoorbeeld kunnen spreken over de probabilistische verbanden tussen ziekten en bijwerkingen. Gezien de verschijningsvormen kan het systeem worden gebruikt om de waarschijnlijkheid van de nabijheid van verschillende kwalen in kaart te brengen. Er bestaan effectieve berekeningen die deductie en leren mogelijk maken. Bayesiaanse systemen die groeperingen van factoren modelleren, vergelijkbaar met vertoog- of eiwitopvolgingen, worden dynamische Bayesiaanse systemen genoemd. Speculaties van Bayesiaanse systemen die kunnen spreken met en zorgen voor keuzevraagstukken onder kwetsbaarheid worden impact-outslines genoemd.

Genetische Algoritmen

Een erfelijke berekening (GA) is een achtervolgingsberekening en een heuristische procedure die de procedure van de reguliere keuze nabootst, waarbij gebruik wordt gemaakt van technieken, bijvoorbeeld transformatie en hybride om nieuwe genotypen te produceren in de verwachting van het ontdekken van grote antwoorden voor een bepaalde kwestie. In AI werden in de jaren tachtig en negentig van de vorige eeuw erfelijke berekeningen gebruikt. Aan de andere kant zijn AI-strategieën gebruikt om de presentatie van erfelijke en transformatieve algoritmen te verbeteren.

Voorbereiding van modellen

Gewoonlijk hebben AI-modellen veel informatie nodig om goed te kunnen presteren. Voor het grootste deel moet men bij de voorbereiding van een AI-model een grote, gedelegeerde test van informatie uit een voorbereidingsset verzamelen. De informatie uit de voorbereidingsset kan zo verschillend zijn als een corpus van inhoud, een opeenstapeling van foto’s, en informatie verzameld bij enkele klanten van de hulpverlening. Overfitting is iets om op te letten bij het voorbereiden van een AI-model.

Federaal leren

Unified learning is een andere manier om om te gaan met het opstellen van AI-modellen die de voorbereidingsprocedure decentraliseren, waarbij rekening wordt gehouden met de bescherming van de cliënten door niet te verwachten dat ze hun informatie naar een geconcentreerde server sturen. Dit bouwt ook de effectiviteit op door de voorbereidingsprocedure te decentraliseren naar tal van apparaten. Gboard maakt bijvoorbeeld gebruik van verenigde AI om zoekvraagverwachtingsmodellen voor te bereiden op de mobiele telefoons van cliënten zonder individuele vragen terug te sturen naar Google.