Il 2015 è stato un anno grandioso nel campo del ragionamento artificiale. Non solo i PC scoprono di più e si adattano più rapidamente, ma stiamo anche studiando come migliorare i loro quadri di riferimento. Tutto sta cominciando ad adattarsi, e alla luce di ciò stiamo vedendo passi che non avremmo mai pensato possibili fino a non molto tempo fa. Abbiamo programmi che possono raccontare storie di immagini. Abbiamo veicoli che si guidano da soli. Abbiamo anche programmi che fanno artigianato. Nel caso in cui fosse necessario sfogliare progressivamente i progressi compiuti nel 2015, leggete questo articolo. Qui a Josh.ai, con l’innovazione dell’IA che sta diventando il centro di quasi tutto quello che facciamo, crediamo che sia imperativo vedere una parte del fraseggio di base e ottenere un pensiero spiacevole su come tutto funziona.

Cosa sono?

Una tonnellata dei progressi nel ragionamento computerizzato sono nuovi modelli misurabili, tuttavia, la parte dominante della mente è in un’innovazione chiamata sistemi neurali fasulli (RNA). Nella remota possibilità che abbiate esaminato qualcosa di loro in precedenza, avrete capito che queste RNA sono un modello spiacevole di come la mente umana è organizzata. Osservate che c’è un contrasto tra sistemi neurali contraffatti e sistemi neurali. Nonostante il fatto che molte persone lascino cadere il falso per cattiveria, la parola falso è stata preparata all’espressione in modo che gli individui in neurobiologia computazionale potessero, in ogni caso, utilizzare il termine sistema neurale per alludere al loro lavoro. Di seguito è riportato un grafico di neuroni reali e neurotrasmettitori nel cervello in contrasto con quelli contraffatti.

Non temere, se il grafico non arriva, ovviamente. Ciò che è essenziale da comprendere qui è che nelle nostre RNA abbiamo queste unità di stima chiamate neuroni. Questi neuroni contraffatti sono associati a neurotrasmettitori che sono qualità estremamente semplicemente ponderate. Ciò significa che, dato un numero, un neurone effettuerà un tipo di calcolo (per esempio la capacità sigmoide), e dopo, la conseguenza di questo conteggio sarà aumentata di un carico mentre “viaggia”. Il risultato ponderato può essere qui e là la resa del vostro sistema neurale, oppure, come dirò presto, si possono avere più neuroni disposti a strati, che è l’idea essenziale per un pensiero che chiamiamo apprendimento profondo.

Da dove provengono?

I falsi sistemi neurali non sono un’altra idea. A dire il vero, non li chiamavamo nemmeno costantemente sistemi neurali e non sono assolutamente simili a quelli che avevano all’inizio. Negli anni ’60 avevamo quello che era conosciuto come percotrone. I percettori erano fatti di neuroni McCulloch-Pitts. Avevamo anche dei percettori unilaterali, e alla fine gli individui iniziarono a creare dei percettori multistrato, che è sinonimo del finto sistema neurale generale di cui ora si sente parlare.

Sia come sia, metti in pausa, nel caso in cui abbiamo avuto sistemi neurali dagli anni ’60, per quale motivo direbbero che pochi secondi fa sono diventati colossali? È una lunga storia, e vi esorto a sintonizzarvi su questa scena della trasmissione digitale per sintonizzarvi con i “padri” delle RNA attuali che parlano del loro punto di vista sul tema. Per delineare rapidamente, c’è una manciata di variabili che hanno impedito alle RNA di diventare sempre più importanti. Non avevamo la forza di gestione del PC e non avevamo le informazioni per prepararle. Il loro utilizzo è stato disapprovato a causa della loro capacità apparentemente soggettiva di funzionare bene. Ognuna di queste variabili è in evoluzione. I nostri PC stanno diventando sempre più veloci e sempre più dominanti, e con il web abbiamo una vasta gamma di informazioni che vengono condivise per l’uso.

Come funzionerebbero?

Ho fatto riferimento al fatto che i neuroni e i neurotrasmettitori eseguono i calcoli. L’indagine in prima linea dei vostri pensieri dovrebbe essere: “Come potrebbero rendersi conto di quali stime effettuare?” Direi che ho ragione? La risposta appropriata è che dobbiamo fondamentalmente chiedere loro molte domande e fornire loro delle risposte. Questo è un campo chiamato apprendimento amministrato. Con un numero sufficiente di casi di risposta alle domande, i conteggi e le qualità messe da parte ad ogni neurone e neurotrasmettitore sono gradualmente equilibrati. Generalmente, questo avviene attraverso una procedura chiamata backpropagazione.

Immaginate di passeggiare lungo una passerella e di vedere un palo della luce. Non avete mai osservato un palo della luce, quindi camminate direttamente dentro di esso e dite “ahi”. Ogni volta che vedete un palo della luce vi affrettate a fare un paio di strisciate di lato e continuate a passeggiare. Questa volta la tua spalla colpisce il palo della luce e di nuovo dichiari “ahi”. La terza volta che vedete un palo della luce, vi spostate per garantire che non colpiate il palo della luce. Ma ora è successo qualcosa di orribile: in questo momento hai camminato dritto in una cassetta delle lettere e non hai mai osservato una cassetta delle lettere. Ci si cammina dentro e l’intera procedura si ripete ancora una volta. È chiaro che si tratta di un travisamento, tuttavia, è adeguatamente ciò che fa il backpropagation. Un sistema neurale contraffatto riceve un gran numero di modelli e in seguito cerca di ottenere una risposta simile a quella data dal modello. Nel momento in cui non è giusto, si determina un errore e le qualità di ogni neurone e neurotrasmettitore vengono generate al contrario attraverso la RNA per ogni volta. Questa procedura richiede molti modelli. Per le applicazioni reali, il numero di modelli può essere di milioni.

Poiché abbiamo una comprensione dei falsi sistemi neurali e in qualche modo una comprensione del loro funzionamento, un’altra indagine dovrebbe essere in prima linea nei vostri pensieri. Come possiamo sapere quale numero di neuroni dobbiamo utilizzare? Inoltre, per quale motivo avete intensificato gli strati di parole prima? Gli strati sono semplicemente insiemi di neuroni. Abbiamo uno strato informativo che è l’informazione che diamo alla RNA. Abbiamo gli strati avvolti, che è il luogo in cui avviene l’incantesimo. In conclusione, abbiamo lo strato di rendimento, che è il luogo in cui i calcoli completi del sistema sono impostati per noi da utilizzare.

Gli strati stessi sono semplicemente insiemi di neuroni. All’inizio dei percotroni multistrato, abbiamo inizialmente ritenuto che avere un solo strato informativo, uno strato avvolto e uno strato di resa fosse adeguato. È di buon auspicio, non è vero? Dati alcuni numeri, basta un solo calcolo, e dopo si ottiene un rendimento. Nella remota possibilità che la vostra RNA non abbia accertato il giusto valore, avete appena aggiunto altri neuroni al singolo strato avvolto. Alla fine, abbiamo scoperto che, nel fare questo, stavamo semplicemente facendo una mappatura diretta da ogni contributo alla resa. Alla fine della giornata, abbiamo scoperto che informazioni specifiche ci avrebbero guidato in modo coerente verso una determinata resa. Non avevamo alcuna adattabilità e potevamo veramente occuparci solo delle fonti di dati che avevamo visto in precedenza. Questo non era in alcun modo, né forma, né forma, ciò di cui avevamo bisogno.

Attualmente presente profonda realizzazione, che è il punto in cui abbiamo più di uno strato nascosto. Questo è uno dei motivi per cui abbiamo migliori ANNs ora, dato che abbiamo bisogno di diversi hub con decine se non più strati. Questo richiede una misura gigantesca di fattori che dobbiamo monitorare in una volta sola. I progressi nella programmazione parallela ci permettono anche di eseguire RNA significativamente più grandi in gruppi. I nostri falsi sistemi neurali stanno attualmente diventando così grandi che non potremo mai più eseguire un’era solitaria, che è un’enfasi attraverso l’intero sistema, senza un attimo di ritardo. Dobbiamo fare tutto in gruppi che sono solo sottoinsiemi dell’intero sistema, e una volta completata un’età intera, a quel punto applichiamo la retropropagazione.

Di che tipo sono?

Oltre ad utilizzare ora l’apprendimento profondo, è imperativo rendersi conto che esiste un gran numero di vari modelli di sistemi neurali contraffatti. La RNA regolare è una disposizione in cui ogni neurone è associato con i neuroni dello strato successivo. Questi sono esplicitamente chiamati sistemi neurali contraffatti feed-forward (nonostante il fatto che le RNA sono comunemente tutti feed-forward). Abbiamo scoperto che interfacciando i neuroni a diversi neuroni in esempi specifici, possiamo mostrare segni di miglioramento che portano a situazioni esplicite.

Sistemi Neurali Ripetitivi

I sistemi neurali ripetitivi (RNN) sono stati realizzati per ovviare all’imperfezione dei falsi sistemi neurali che non si sono accontentati di scelte dipendenti dalle informazioni del passato. Una volta che la RNN aveva capito come accontentarsi di scelte che dipendevano dall’impostazione nella preparazione, ma una volta che si era accontentata di scelte per l’uso, le scelte sono state fatte in modo autonomo l’una dall’altra.

Sistemi Neurali Convoluzionali

I Sistemi Neurali Convoluzionali (CNN), in alcuni casi chiamati LeNets (dal nome di Yann LeCun), sono sistemi neurali contraffatti in cui le associazioni tra gli strati hanno tutte le caratteristiche di essere abbastanza autoaffermative. In ogni caso, lo scopo che sta dietro ai neurotrasmettitori da organizzare nel modo in cui sono, è quello di contribuire a ridurre il numero di parametri che dovrebbero essere avanzati. Questo è finito prendendo nota di un equilibrio specifico nel modo in cui i neuroni sono associati, quindi si possono fondamentalmente “riutilizzare” i neuroni per avere duplicati indistinguibili senza richiedere fondamentalmente un numero simile di neurotrasmettitori. Le CNN sono di solito utilizzate per lavorare con le immagini a causa della loro capacità di percepire i disegni in pixel comprendenti. Quando si osserva ogni singolo pixel in contrasto con i pixel che lo compongono, i dati in eccesso sono contenuti in ogni singolo pixel in contrasto con i pixel che lo circondano, e si può davvero impacchettare una parte di questi dati a causa delle loro proprietà uniformi. Sembra la circostanza ideale per una CNN nella remota possibilità che mi chiedete. Christopher Olah ha un incredibile blog sulla comprensione delle CNN, così come diversi tipi di RNA che potete scoprire qui. Un’altra risorsa straordinaria per la comprensione CNNs è questo blog entry.