O ano de 2015 foi um grande ano no campo do raciocínio humano. Não só os PCs estão descobrindo mais e se adaptando mais rapidamente, mas também estamos estudando como melhorar seus quadros. Tudo está começando a se ajustar, e à luz disso estamos vendo passos que nunca imaginamos concebíveis como há não muito tempo. Temos programas que podem recontar histórias sobre fotos. Temos veículos que estão dirigindo por conta própria. Temos até programas que fazem artesanato. No caso de você precisar ler progressivamente sobre os avanços em 2015, leia este artigo. Aqui no Josh.ai, com a inovação da IA se tornando o centro de praticamente tudo o que fazemos, acreditamos que é imperativo ver uma parte do fraseado básico e ter uma idéia desagradável de como tudo funciona.

O que são eles?

Uma tonelada dos avanços no raciocínio computadorizado são novos modelos mensuráveis, entretanto, a parte dominante da mente dos avanços está em uma inovação chamada sistemas neurais falsos (ANN). Na hipótese remota de que você tenha lido algo sobre eles anteriormente, você terá lido que essas ANNs são um modelo desagradável de como a mente humana está organizada. Observe que há um contraste entre sistemas neurais falsos e sistemas neurais falsificados. Apesar do fato de muitas pessoas deixarem cair a falsificação por curvatura, a palavra falsificação foi prependida à expressão para que os indivíduos em neurobiologia computacional pudessem, de qualquer forma, utilizar o termo sistema neural para aludir ao seu trabalho. A seguir, um gráfico dos neurônios e neurotransmissores reais no cérebro, contrastando com os falsificados.

Não teme se o gráfico não passar obviamente. O essencial para compreender aqui é que em nossas ANNs temos estas unidades de estimação chamadas neurônios. Estes neurônios falsificados estão associados a neurotransmissores que são qualidades extremamente simples de ponderação. Isto significa que, dado um número, um neurônio vai executar um tipo de figura (por exemplo, a capacidade sigmóide) e, posteriormente, a conseqüência desta contagem será aumentada por uma carga à medida que ele “viaja”. O resultado ponderado pode ser aqui e ali o rendimento do seu sistema neural, ou como vou discutir em breve, você pode ter mais neurônios dispostos em camadas, que é a idéia essencial para um pensamento que chamamos de aprendizado profundo.

De onde eles são originários?

Sistemas neurais falsos não são outra idéia. Verdade seja dita, nós nem mesmo os chamamos de sistemas neurais consistentes e eles absolutamente não se parecem agora com o que pareciam no seu início. Durante os anos 60, nós tínhamos o que era conhecido como perceptron. Os perceptrons eram feitos de neurônios McCulloch-Pitts. Nós até tínhamos perceptrons unilaterais, e finalmente os indivíduos começaram a fazer perceptrons multicamadas, o que é sinônimo do sistema neural falso em geral que pegamos o vento de agora.

Seja como for, pausa, no caso de termos sistemas neurais desde os anos 60, por que razão eles diriam que estão há alguns segundos atrás ficando colossais? É uma longa história, e peço que se sintonizem com esta cena de transmissão digital para se sintonizarem com os “pais” das ANNs atuais, que falam de suas visões sobre o tema. Para delinear rapidamente, há um punhado de variáveis que impedem que as ANNs fiquem cada vez mais proeminentes. Nós não tínhamos a força de manipulação do PC e não tínhamos as informações para prepará-las. A sua utilização foi desaprovada por terem uma capacidade aparentemente subjetiva de desempenho. Cada uma destas variáveis está evoluindo. Nossos PCs estão ficando mais rápidos e ainda mais dominantes, e com a web, temos uma grande variedade de informações sendo compartilhadas para uso.

Como eles funcionariam?

Eu referi que os neurônios e neurotransmissores fazem cálculos. A investigação na vanguarda de seus pensamentos deve ser: “Como eles realizariam as estimativas a serem feitas?” Eu diria que eu estava correto? A resposta apropriada é que basicamente temos que perguntar a eles muitas perguntas e dar-lhes respostas. Este é um campo chamado aprendizado administrado. Com suficientes casos de perguntas, as contagens e qualidades guardadas em cada neurônio e neurotransmissor são gradualmente equilibradas. Geralmente, isto é através de um procedimento chamado retropropagação.

Envolvimento que você está passeando por uma passarela e você vê um poste de luz. Você nunca observou um poste de luz, então você caminha diretamente para dentro dele e diz “ai”. Sempre que você vê um poste de luz você apressa um par de rastejantes para o lado e continua andando. Desta vez seu ombro bate no poste de luz e novamente você diz “ouch”. A terceira vez que você vê um poste de luz, você se move para garantir que não acerte o poste de luz. Mas agora algo horrível aconteceu – agora você caminhou direto para o caminho de uma caixa de correio, e nunca observou uma caixa de correio. Você entra nela e todo o procedimento acontece mais uma vez. Claramente, isto é uma deturpação, porém, é adequadamente o que a retropropagação faz. Um sistema neural falsificado recebe um grande número de modelos e, posteriormente, tenta obter uma resposta semelhante ao modelo dado. No momento em que não está certo, um erro é determinado e as qualidades em cada neurônio e neurotransmissor são geradas ao contrário através da ANN para sempre. Este procedimento requer uma série de modelos. Para aplicações verdadeiras, o número de modelos pode estar na casa dos milhões.

Como temos uma compreensão dos falsos sistemas neurais e até certo ponto uma compreensão pela forma como eles funcionam, outra investigação deve estar na vanguarda de seus pensamentos. Como saberíamos que número de neurônios temos que utilizar? E mais, por que razão você intensificou as camadas de palavras antes? Camadas são simplesmente conjuntos de neurônios. Nós temos uma camada info que é a informação que damos à ANN. Nós temos as camadas envoltas, que é o lugar onde o encanto ocorre. Em conclusão, temos a camada de rendimento, que é o local onde os cálculos completos do sistema são definidos para que possamos utilizar.

As próprias camadas são simplesmente conjuntos de neurônios. No início dos perceptrons multicamadas, sentimos inicialmente que ter apenas uma camada de informação, uma camada envolta e uma camada de rendimento era adequado. Isso é um bom presságio, não é mesmo? Dados alguns números, você simplesmente precisa de um monte de cálculos, e depois, você obtém um yield. Na hipótese de que seu ANN não estava determinando o valor certo, você simplesmente adicionou mais neurônios à camada isolada envolta. No final, descobrimos que ao fazer isso estávamos fazendo um mapeamento extremamente simples de cada contribuição para o rendimento. No final do dia, descobrimos que informações específicas iriam guiar consistentemente para um rendimento específico. Não tínhamos adaptabilidade e realmente podíamos lidar apenas com fontes de dados que tínhamos visto anteriormente. Isto não era, de forma alguma, o que precisávamos.

Atualmente apresentamos uma profunda realização, que é o ponto em que temos mais de uma camada oculta. Esta é uma das razões pelas quais agora temos melhores ANNs, pois precisamos de vários hubs com dezenas se não mais camadas. Isto nos leva a uma medida gigantesca de fatores que temos que monitorar de uma só vez. Os avanços na programação paralela também nos permitem executar ANNs significativamente maiores em tufos. Nossos falsos sistemas neurais estão atualmente ficando tão grandes que nunca mais poderemos executar uma era solitária, o que é uma ênfase em todo o sistema, sem um momento de atraso. Temos que fazer tudo em grupos que são apenas subconjuntos de todo o sistema, e uma vez que completamos uma idade inteira, nesse ponto aplicamos a retropropagação.

Quais são os tipos existentes?

Ao mesmo tempo em que se utiliza agora o aprendizado profundo, é imperativo perceber que há um grande número de vários modelos de sistemas neurais falsificados. O ANN regular é um arranjo em que cada neurônio está associado a outros neurônios, na seguinte camada. Estes são explicitamente chamados de sistemas neurais falsos de alimentação (apesar do fato de que as ANNs geralmente são todas de alimentação para frente). Descobrimos que ao fazer a interface de neurônios com diferentes neurônios em exemplos específicos, podemos mostrar sinais de melhoria que trazem situações explícitas.

Sistemas Neurais Repetitivos

Os Sistemas Neurais Repetitivos (RNN) foram feitos para resolver a falha em sistemas neurais falsos que não se acomodavam a escolhas dependentes de informações passadas. A ANN havia descoberto como se estabelecer em escolhas dependentes de ajuste na preparação, mas uma vez estabelecido em escolhas para uso, as escolhas foram feitas de forma autônoma umas das outras.

Sistemas Neuronais Convolucionais

Os Sistemas Neurais Convolucionais (CNN), em alguns casos chamados de LeNets (com o nome de Yann LeCun), são sistemas neurais falsificados onde as associações entre camadas têm todas as características de serem bastante auto-afirmativas. Em qualquer caso, o objetivo por trás dos neurotransmissores a serem organizados da maneira como eles são é ajudar a diminuir o número de parâmetros que devem ser avançados. Isto é terminado tomando nota de um equilíbrio específico em como os neurônios estão associados, assim você pode basicamente “reutilizar” neurônios para ter duplicatas indistinguíveis sem requerer fundamentalmente um número similar de neurotransmissores. As CNNs são normalmente utilizadas no trabalho com imagens por causa de sua capacidade de perceber desenhos em pixels abrangentes. Há um excesso de dados contidos quando você dá uma olhada em cada pixel individual em contraste com seus pixels abrangentes, e você pode realmente empacotar uma porção desses dados em função de suas propriedades uniformes. Parece ser a circunstância ideal para uma CNN na chance que você me pergunta. Christopher Olah tem uma entrada incrível no blog sobre CNNs de compreensão, assim como diferentes tipos de ANNs que você pode descobrir aqui. Outra vantagem extraordinária para a compreensão das CNNs é esta entrada no blog.