AI: Progetti che cambiano se stessi

L’intelligenza artificiale è un sottoinsieme dell’intelligenza basata sul computer. Cioè, tutta l’intelligenza artificiale è considerata intelligenza artificiale, ma non tutta l’intelligenza basata sul computer la considera tale. Per esempio, la logica emblematica – i motori delle regole, le strutture principali e i diagrammi informativi – potrebbero essere tutti descritti come intelligenza artificiale, e nessuno di loro è intelligenza artificiale.

Un angolo che isola l’IA dai diagrammi informativi e dai framework master è la sua capacità di cambiare se stessa quando viene presentata a più informazioni; per esempio, l’IA è dinamica e non richiede l’intercessione umana per introdurre miglioramenti specifici. Questo la rende meno fragile e meno dipendente dagli specialisti umani.

Si dice che un programma per PC guadagni per un fatto E come per alcune classi di incarichi T e misura di esecuzione P se la sua esposizione alle commissioni in T, come stimato da P, migliora con l’esperienza E. – Tom Mitchell

Nel 1959, Arthur Samuel, uno dei pionieri dell’IA, caratterizzò l’IA come un “campo di concentrazione che permette ai PC di imparare senza essere inequivocabilmente modificati”. Vale a dire che i programmi di IA non sono stati espressamente inseriti in un PC, come nel caso degli annunci di cui sopra. I programmi di IA, si potrebbe dire, si alterano alla luce delle informazioni a cui sono presentati (come un bambino che viene messo al mondo rendendosi conto che nulla altera la sua comprensione del mondo a causa dell’esperienza).

Samuel ha incaricato un programma per PC di giocare a dama. Il suo obiettivo era quello di addestrarlo a giocare a dama superiore a se stesso, cosa che chiaramente non poteva programmare in modo inequivocabile. Ci è riuscito, e nel 1962 il suo programma ha battuto il vincitore della provincia del Connecticut.

L'”adattamento” di alcune parti dell’IA implica che i calcoli ML cercano di migliorare insieme ad una specifica misura; per esempio, di norma cercano di limitare gli errori o di aumentare la probabilità che le loro aspettative siano valide. Questo ha tre nomi: un lavoro di errore, un lavoro di sfortuna, o un lavoro di obiettivo, alla luce del fatto che il calcolo ha un obiettivo… Quando qualcuno dice che sta lavorando con un calcolo di IA, si può arrivare all’essenza del suo incentivo chiedendo: Qual è l’obiettivo del lavoro?

Come si può limitare l’errore? Tutto sommato, un percorso è quello di assemblare una struttura che aumenti i contributi alla richiesta di fare supposizioni riguardo alla propensione delle fonti di informazione. I risultati delle fonti di dati e del calcolo sono i risultati delle varie rese/supposizioni. In generale, le teorie sottostanti sono molto fuori luogo, e nel caso in cui si abbia la fortuna di avere nomi di fondo relativi alle informazioni, si può valutare quanto siano sbagliate le proprie stime distinguendole dalla realtà, e in seguito utilizzare quell’errore per alterare il calcolo. Questa è la cosa che fanno i sistemi neurali. Continuano a stimare l’errore e a modificare i loro parametri finché non riescono a fare meno errori.

Sono, per dirla in parole povere, un calcolo di miglioramento. Nella remota possibilità che li si sintonizzi bene, essi limitano il loro errore speculando e speculando e speculando ancora una volta.

Adattamento profondo: Più precisione, più matematica e più figura

L’apprendimento profondo è un sottoinsieme dell’IA. Di regola, quando gli individui utilizzano il termine apprendimento profondo, alludono a falsi sistemi neurali profondi e, in una certa misura, meno abitualmente all’apprendimento profondo di fortificazione.

I sistemi neurali falsi e profondi sono un sacco di calcoli che hanno stabilito nuovi precedenti di precisione per alcune questioni significative, per esempio, il riconoscimento delle immagini, il riconoscimento del suono, i quadri di raccomandazione, la gestione del linguaggio comune e così via. Per esempio, l’apprendimento profondo è un pezzo dell’eccezionale calcolo AlphaGo di DeepMind, che ha battuto il precedente detentore del titolo Lee Sedol al Go a metà del 2016, e il migliore presente sul pianeta Ke Jie a metà del 2017. Un chiarimento sempre più completo delle opere neurali è qui.

Profondo è un termine specializzato. Allude al numero di strati di un sistema neurale. Un’organizzazione poco profonda ha un presunto strato avvolto, e un sistema profondo ne ha più di uno. Vari livelli nascosti consentono ai sistemi neurali profondi di apprendere i punti salienti delle informazioni in un presunto ordine di beccata dei componenti, poiché i punti salienti di base (per esempio due pixel) si ricombinano iniziando da un livello e poi su quello successivo, per inquadrare progressivamente i punti salienti complessi (per esempio una linea). Le reti con numerosi livelli passano le informazioni di input (evidenziazioni) attraverso più compiti scientifici rispetto alle reti con pochi livelli e sono di conseguenza più concentrate computazionalmente per prepararsi. L’intensità computazionale è uno dei segni dell’apprendimento profondo ed è una delle motivazioni alla base della ricerca di un altro tipo di chip call GPU per preparare modelli di apprendimento profondo.

Così si potrebbe applicare una definizione simile alla scoperta profonda che Arthur Samuel ha fatto all’IA – un “campo di concentrazione che permette ai PC di imparare senza essere espressamente personalizzati” – aggiungendo che in generale risulterà in una maggiore precisione, richiederà più attrezzature o tempo di preparazione, e funzionerà particolarmente bene su imprese di discernimento delle macchine che includono informazioni non strutturate, per esempio, masse di pixel o contenuti.

Qual è il prossimo passo per l’intelligenza artificiale?

I progressi compiuti dagli scienziati di DeepMind, Google Mind, OpenAI e diversi college stanno accelerando. L’intelligenza simulata è adatta a occuparsi di questioni sempre più difficili, superiore a qualsiasi cosa le persone possano fare.

Questo implica che l’intelligenza artificiale sta cambiando più velocemente di quanto la sua storia possa essere composta, quindi anche le previsioni sul suo futuro diventano immediatamente obsolete. Stiamo perseguendo un risultato come la scissione atomica (concepibile), o cerchiamo di strappare progressivamente l’intuizione dal silicio come il tentativo di trasformare il piombo in oro?

Ci sono quattro modi principali di pensare, o forse luoghi sacri di convinzione, che riuniscono il modo in cui gli individui parlano di intelligenza artificiale.

Gli individui che accettano che il progresso dell’intelligenza simulata procederà a breve termine contempleranno, in generale, una solida intelligenza basata sul computer, e se questa sia utile per l’umanità. Tra gli individui che hanno ipotizzato il progresso, un campo accentua i vantaggi di una programmazione sempre più astuta, che può risparmiare all’umanità le sue attuali stupidità; l’altro campo sottolinea il pericolo esistenziale di un genio.

Dato che l’intensità dell’intelligenza basata sul computer avanza in modo inscindibile con l’intensità delle apparecchiature di calcolo, spinge nel limite di calcolo, ad esempio, migliori chip o l’elaborazione quantistica, farà strada al progresso dell’intelligenza artificiale. A livello algoritmico semplice, la maggior parte dei risultati scioccanti forniti dai laboratori, per esempio, DeepMind ha origine dall’unione di vari modi di trattare l’intelligenza artificiale, così come AlphaGo consolida l’apprendimento profondo e l’apprendimento di fortificazione. L’unione dell’apprendimento profondo con il pensiero rappresentativo, il pensiero analogico, le tecniche bayesiane e trasformative mostrano tutti una garanzia.

Gli individui che non accettano che l’intelligenza basata sul computer stia guadagnando così tanto terreno rispetto all’intuizione umana si aspettano un altro inverno di intelligenza artificiale, durante il quale i finanziamenti evaporeranno a causa di risultati frustranti, come è successo in precedenza. Un numero enorme di questi individui ha un calcolo o un approccio che si scontra con l’apprendimento profondo.

Finalmente, ci sono i realisti, che si fermano alla matematica, combattendo con informazioni caotiche, rara capacità di intelligenza simulata e riconoscimento del cliente. Sono i minimi rigorosi dei raduni che fanno previsioni sull’intelligenza basata sul computer – si rendono semplicemente conto che è difficile.