L’année 2015 a été une grande année dans le domaine du raisonnement artificiel. Les PC ne sont pas les seuls à en savoir plus et à s’adapter plus rapidement, mais nous étudions comment améliorer leurs cadres de travail. Tout commence à s’adapter, et à la lumière de cela, nous voyons des étapes que nous n’avions jamais imaginées il n’y a pas si longtemps. Nous avons des programmes qui peuvent raconter des histoires sur les images. Nous avons des véhicules qui se conduisent tout seuls. Nous avons même des programmes qui font de l’artisanat. Au cas où vous auriez besoin de vous pencher progressivement sur les progrès réalisés en 2015, lisez cet article. Chez Josh.ai, l’innovation en matière d’IA étant au centre de presque tout ce que nous faisons, nous pensons qu’il est impératif de voir une partie de la formulation de base et d’avoir une idée désagréable de la façon dont tout fonctionne.

Qu’est-ce que c’est ?

Une tonne de progrès dans le raisonnement informatisé sont de nouveaux modèles mesurables, cependant, la part dominante de l’esprit dans ces progrès est une innovation appelée faux systèmes neuronaux (ANN). Si par hasard vous avez déjà lu quelque chose à leur sujet, vous aurez compris que ces ANN sont un modèle désagréable de la façon dont l’esprit humain est organisé. Observez qu’il existe un contraste entre les systèmes neuronaux contrefaits et les systèmes neuronaux. Malgré le fait que beaucoup de gens abandonnent la contrefaçon pour des raisons de courtoisie, le mot “faux” a été ajouté à l’expression afin que les personnes travaillant en neurobiologie computationnelle puissent, dans tous les cas, utiliser le terme “système neuronal” pour faire allusion à leur travail. Le graphique suivant montre le contraste entre les vrais neurones et neurotransmetteurs du cerveau et les faux.

Ne craignez rien si le graphique n’est pas clair. Ce qu’il est essentiel de comprendre ici, c’est que dans nos ANN, nous avons ces unités d’estimation appelées neurones. Ces neurones contrefaits sont associés à des neurotransmetteurs qui sont des qualités pondérées extrêmement simples. Cela signifie qu’à partir d’un certain nombre, un neurone va jouer une sorte de chiffre (par exemple la capacité sigmoïde), et ensuite, la conséquence de ce compte sera augmentée d’une charge au fur et à mesure qu’il “voyage”. Le résultat pondéré peut ici et là être le rendement de votre système neuronal, ou comme je le dirai bientôt, vous pouvez avoir plus de neurones disposés en couches, ce qui est l’idée essentielle d’une pensée que nous appelons apprentissage profond.

D’où viennent-ils ?

Les faux systèmes neuronaux ne sont pas une autre idée. À vrai dire, nous ne les appelions même pas systématiquement systèmes neuronaux et ils ne ressemblent absolument pas à ce qu’ils étaient au départ. Dans les années 1960, nous avions ce que l’on appelait un perceptron. Les perceptrons étaient constitués de neurones McCulloch-Pitts. Nous avions même des perceptrons unilatéraux, et enfin des individus ont commencé à fabriquer des perceptrons multicouches, ce qui est synonyme du faux système neuronal général dont nous avons vent aujourd’hui.

Quoi qu’il en soit, pause, au cas où nous aurions des systèmes neuronaux depuis les années 1960, pour quelle raison dira-t-on qu’ils deviennent colossaux il y a quelques secondes ? C’est une longue histoire, et je vous invite à vous mettre à l’écoute de cette scène de la radiodiffusion numérique pour écouter les “pères” des ANN actuelles parler de leur vision du thème. Pour résumer rapidement, il y a quelques variables qui ont empêché les ANN d’occuper une place de plus en plus importante. Nous n’avions pas la force de traitement des PC et nous n’avions pas les informations nécessaires pour les préparer. Leur utilisation a été désapprouvée parce qu’elles avaient une capacité apparemment subjective à bien fonctionner. Chacune de ces variables est en évolution. Nos PC sont de plus en plus rapides et de plus en plus dominants, et avec le web, nous disposons d’un large éventail d’informations à partager pour les utiliser.

Comment fonctionneraient-ils ?

J’ai indiqué que les neurones et les neurotransmetteurs effectuent des calculs. L’enquête au premier plan de vos pensées devrait être : “Comment réalisent-ils les estimations à effectuer ?” Est-ce que je dirais que j’ai raison ? La réponse appropriée est que nous devons leur poser beaucoup de questions et leur fournir des réponses. C’est un domaine appelé “apprentissage administré”. Si un nombre suffisant de réponses aux questions correspond, le nombre et les qualités de chaque neurone et neurotransmetteur sont progressivement équilibrés. Généralement, cela se fait par une procédure appelée rétropropagation.

Imaginez que vous vous promenez sur une promenade et que vous voyez un phare. Vous n’avez jamais observé de phare, alors vous vous y engagez directement et vous dites “aïe”. Dès que vous apercevez un phare, vous vous dépêchez de ramper sur le côté et vous continuez à vous promener. Cette fois, votre épaule touche le phare et vous dites “aïe”. La troisième fois que vous apercevez un phare, vous vous déplacez sur le côté pour vous assurer de ne pas le heurter. Mais voilà que quelque chose d’horrible s’est produit : vous vous êtes alors directement dirigé vers une boîte aux lettres, et vous n’avez jamais vu de boîte aux lettres. Vous vous y promenez et toute la procédure se répète. Il est clair qu’il s’agit là d’une fausse déclaration, mais c’est bien ce que fait la rétropropagation. Un faux système neuronal reçoit un grand nombre de modèles et tente ensuite d’obtenir une réponse similaire à celle du modèle donné. Au moment où il n’est pas correct, une bévue est déterminée et les qualités de chaque neurone et neurotransmetteur sont engendrées à l’inverse par l’ANN pour chaque fois. Cette procédure nécessite de nombreux modèles. Pour de véritables applications, le nombre de modèles peut se chiffrer en millions.

Puisque nous avons une compréhension des faux systèmes neuronaux et, dans une certaine mesure, une compréhension de leur fonctionnement, une autre enquête devrait être au premier plan de vos pensées. Comment saurions-nous combien de neurones nous devons utiliser ? De plus, pour quelle raison avez-vous intensifié les couches de mots auparavant ? Les couches sont simplement des ensembles de neurones. Nous avons une couche d’information qui est l’information que nous donnons à l’ANN. Nous avons les couches enveloppées, qui sont l’endroit où l’enchantement se produit. En conclusion, nous avons la couche de rendement, qui est l’endroit où les calculs complets du système sont établis pour que nous puissions les utiliser.

Les couches elles-mêmes sont simplement des ensembles de neurones. Au début des perceptrons multicouches, nous avons d’abord pensé qu’une seule couche d’information, une couche enveloppée et une couche de rendement étaient suffisantes. C’est de bon augure, n’est-ce pas ? Avec quelques chiffres, il suffit d’un seul lot de calculs, et ensuite, on obtient un rendement. Au cas où votre ANN n’aurait pas eu la bonne valeur, vous avez simplement ajouté d’autres neurones à l’unique couche enveloppée. Au final, nous avons découvert qu’en faisant cela, nous faisions très simplement une cartographie directe de chaque contribution au rendement. En fin de compte, nous avons découvert que des informations spécifiques guideraient systématiquement vers un rendement spécifique. Nous n’avions aucune capacité d’adaptation et pouvions vraiment nous contenter de sources de données que nous avions déjà vues auparavant. Ce n’était en aucun cas ce dont nous avions besoin.

La réalisation profonde actuelle, qui est le point où nous avons plus d’une couche cachée. C’est l’une des raisons pour lesquelles nous avons de meilleurs ANN maintenant, car nous avons besoin de plusieurs centres avec des dizaines, voire plus, de couches. Cela donne lieu à une mesure gigantesque de facteurs que nous devons surveiller en même temps. Les progrès de la programmation parallèle nous permettent également d’utiliser des ANN beaucoup plus grands par groupes. Nos faux systèmes neuronaux deviennent actuellement si énormes que nous ne pouvons plus jamais faire fonctionner un âge solitaire, ce qui est une priorité dans tout le système, sans un moment de retard. Nous devons tout faire en groupes qui ne sont que des sous-ensembles de l’ensemble du système, et une fois que nous avons terminé un âge complet, à ce moment-là, nous appliquons la rétropropagation.

Quelles sont les différentes sortes de produits ?

En plus d’utiliser maintenant un apprentissage profond, il est impératif de réaliser qu’il existe un grand nombre de modèles différents de systèmes neuronaux contrefaits. L’ANN ordinaire est un arrangement dans lequel chaque neurone est associé aux autres neurones de la couche suivante. Ces systèmes sont explicitement appelés systèmes neuronaux contrefaits de feed-forward (malgré le fait que les ANN soient généralement tous feed-forward). Nous avons découvert qu’en associant des neurones à différents neurones dans des exemples spécifiques, nous pouvons montrer des signes d’amélioration et provoquer des situations explicites.

Systèmes neuronaux répétitifs

Les systèmes neuronaux répétitifs (RNN) ont été créés pour remédier aux défauts des faux systèmes neuronaux qui ne se contentent pas de choix dépendant d’informations passées. Une fois qu’il a décidé des choix d’utilisation, ces choix sont devenus autonomes les uns par rapport aux autres.

Systèmes neuronaux convolutifs

Les systèmes neuronaux convolutifs (CNN), parfois appelés LeNets (du nom de Yann LeCun), sont des systèmes neuronaux contrefaits où les associations entre les couches ont toutes les caractéristiques d’une affirmation de soi assez forte. Dans tous les cas, l’objectif des neurotransmetteurs à disposer de la manière dont ils sont est de contribuer à réduire le nombre de paramètres qui devraient être avancés. Pour finir, il faut noter un équilibre spécifique dans la manière dont les neurones sont associés, ce qui permet de “réutiliser” les neurones pour obtenir des duplications indiscernables sans avoir besoin d’un nombre similaire de neurotransmetteurs. Les CNN sont généralement utilisés pour travailler sur des images en raison de leur capacité à percevoir des dessins dans des pixels englobants. Il y a un excès de données contenues lorsque vous jetez un coup d’œil à chaque pixel individuel par rapport à ses pixels englobants, et vous pouvez vraiment emballer une partie de ces données en raison de leurs propriétés uniformes. Cela semble être la situation idéale pour une CNN au cas où vous me poseriez la question. Christopher Olah a un article de blog incroyable sur la compréhension des CNN tout comme les différents types d’ANN que vous pouvez découvrir ici. Un autre atout extraordinaire pour les CNN de compréhension est cet article de blog.