AI : Des projets qui se transforment

L’IA est un sous-ensemble de l’intelligence artificielle. C’est-à-dire que toute l’IA considère l’intelligence artificielle, mais pas toute l’intelligence informatique. Par exemple, des principes emblématiques – moteurs de règles, cadres directeurs et tableaux d’information – peuvent tous être décrits comme de l’intelligence artificielle, et aucun d’entre eux n’est de l’IA.

Un angle qui isole l’IA des tableaux d’information et des cadres directeurs est sa capacité à se modifier lorsqu’elle est présentée à plus d’informations ; par exemple, l’IA est dynamique et ne nécessite pas l’intervention humaine pour mettre en place des améliorations spécifiques. Cela la rend moins fragile et moins dépendante des spécialistes humains.

Un programme PC gagnerait pour un fait E comme pour certaines classe de missions T et mesure d’exécution P si son exposition aux courses en T, telle qu’estimée par P, s’améliore avec l’expérience E. – Tom Mitchell

En 1959, Arthur Samuel, l’un des pionniers de l’IA, a décrit l’IA comme un “champ de concentration qui permet aux PC d’apprendre sans être modifiés de manière non équivoque”. Autrement dit, les programmes d’IA n’ont pas été expressément introduits dans un PC, comme dans le cas des annonces ci-dessus. Les programmes d’IA, pourrait-on dire, se modifient à la lumière des informations qui leur sont présentées (comme un enfant qui est mis au monde en réalisant que rien n’altère sa compréhension du monde à cause de l’expérience).

Samuel a demandé à un programme pour PC de jouer aux dames. Son objectif était de l’entraîner à jouer aux dames à un niveau supérieur au sien, ce qui n’est manifestement pas quelque chose qu’il pouvait programmer sans équivoque. Il a réussi et en 1962, son programme a battu le vainqueur du jeu de dames de la province du Connecticut.

L'”adaptation” d’une partie de l’IA implique que les calculs de ML s’efforcent de s’améliorer en même temps qu’une mesure spécifique ; par exemple, en règle générale, ils tentent de limiter les erreurs ou d’augmenter la probabilité que leurs attentes soient valables. Cela porte trois noms : un travail de bévue, un travail de malchance ou un travail de but, compte tenu du fait que le calcul a une cible… Lorsque quelqu’un dit qu’il travaille avec un calcul d’IA, vous pouvez connaître l’essence de son incitation en demandant : Quel est l’objectif du travail ?

Comment peut-on limiter l’erreur ? Tout bien considéré, une voie consiste à assembler une structure qui augmente les contributions à la demande pour faire des suppositions quant aux sources d’inclinaison de l’information. Les différents rendements/surmontants sont les résultats des sources de données et du calcul. En général, les théories sous-jacentes sont très éloignées de la réalité et, si vous avez la chance d’avoir des noms de vérité de base en rapport avec les informations, vous pouvez mesurer à quel point vos estimations sont erronées en les démarquant de la réalité, et ensuite utiliser cette erreur pour modifier votre calcul. C’est ce que font les systèmes neuronaux. Ils continuent à estimer l’erreur et à modifier leurs paramètres jusqu’à ce qu’ils ne puissent plus faire d’erreur.

Il s’agit, en clair, d’un calcul d’amélioration. Au cas où vous les accorderiez correctement, ils limitent leur bévue en spéculant et spéculant encore et encore.

S’adapter en profondeur : Plus de précision, plus de mathématiques et plus de chiffres

L’apprentissage approfondi est un sous-ensemble de l’IA. En règle générale, lorsque les individus utilisent le terme d’apprentissage profond, ils font allusion à de faux systèmes neuronaux profonds et, dans une certaine mesure, moins habituellement à l’apprentissage fortifié profond.

Les faux systèmes neuronaux profonds sont un grand nombre de calculs qui ont établi de nouveaux précédents en matière de précision pour certaines questions importantes, par exemple, la reconnaissance d’image, la reconnaissance de son, les cadres de recommandation, le traitement du langage commun, etc. Par exemple, l’apprentissage profond est un élément du calcul exceptionnel AlphaGo de DeepMind, qui a battu le précédent détenteur du titre, Lee Sedol, au Go, à la mi-2016, et le meilleur actuel de la planète, Ke Jie, à la mi-2017. Une clarification de plus en plus complète des travaux neuronaux est ici.

Profond est un terme spécialisé. Il fait référence au nombre de couches d’un système neuronal. Une organisation peu profonde a une couche prétendument enveloppée, et un système profond en a plusieurs. Les différentes couches cachées permettent aux systèmes neuronaux profonds d’apprendre les hautes lumières de l’information dans un ordre de pic de composantes présumé, puisque les hautes lumières de base (par exemple deux pixels) se recombinent en commençant par une couche puis sur la suivante, pour encadrer progressivement les hautes lumières complexes (par exemple une ligne). Les réseaux comportant de nombreuses couches font passer les informations d’entrée (les hautes lumières) par un plus grand nombre de tâches scientifiques que les réseaux ne comportant pratiquement aucune couche et sont donc plus concentrés en termes de calcul pour la préparation. L’intensité de calcul est l’un des signes d’un apprentissage profond, et c’est l’une des raisons pour lesquelles un autre type de GPU à appel de puces est recherché pour préparer des modèles d’apprentissage profond.

Vous pourriez donc appliquer une définition similaire à la découverte profonde qu’a faite Arthur Samuel de l’IA – un “champ de concentration qui permet aux PC d’apprendre sans être expressément personnalisés” – tout en ajoutant qu’elle aboutira en général à une précision plus élevée, nécessitera plus d’équipement ou de temps de préparation, et sera particulièrement performante dans les entreprises de discernement des machines qui comprennent des informations non structurées, par exemple des masses de pixels ou de contenu.

Quelles sont les prochaines étapes pour l’intelligence artificielle ?

Les progrès réalisés par les scientifiques de DeepMind, Google Mind, OpenAI et de différentes universités s’accélèrent. L’intelligence simulée est plus apte à traiter des questions de plus en plus difficiles que tout ce que les gens peuvent faire.

Cela implique que l’intelligence artificielle change plus vite que son histoire ne peut être composée, de sorte que les prévisions sur son avenir deviennent immédiatement obsolètes également. Poursuivons-nous une réalisation comme la séparation des atomes (concevable), ou tentons-nous d’extraire progressivement des informations du silicium comme nous essayons de transformer le plomb en or ?

Il existe quatre principaux modes de pensée, ou lieux saints de conviction peut-être, qui rassemblent la façon dont les individus parlent de l’intelligence artificielle.

Les personnes qui acceptent que les progrès simulés en matière d’intelligence progressent à un rythme rapide envisageront, en général, une intelligence solide basée sur l’informatique, et se demanderont si elle est utile à l’humanité. Parmi les individus qui conjecturent le progrès, un camp accentue les avantages d’une programmation de plus en plus astucieuse, qui peut épargner à l’humanité ses stupidités actuelles ; l’autre camp insiste sur le danger existentiel d’un génie.

Étant donné que l’intensité de l’intelligence informatique progresse de manière indissociable de l’intensité des équipements de calcul, les propulsions dans la limite du calcul, par exemple, de meilleures puces ou le traitement quantique, feront place aux progrès de l’intelligence artificielle. Sur le plan algorithmique simple, la majorité des résultats choquants fournis par les laboratoires, par exemple DeepMind, proviennent de l’association de différentes manières de traiter l’intelligence artificielle, tout comme AlphaGo consolide l’apprentissage profond et l’apprentissage fortifiant. L’association de l’apprentissage profond avec la pensée représentative, la pensée analogique, les techniques bayésiennes et les techniques de transformation sont toutes garanties.

Les personnes qui n’acceptent pas que l’intelligence informatique gagne autant de terrain par rapport à l’intelligence humaine anticipent un autre hiver de l’intelligence artificielle, au cours duquel les financements s’évaporeront en raison de résultats largement frustrants, comme cela s’est produit précédemment. Un grand nombre de ces personnes ont un calcul ou une approche qui se contente d’un apprentissage profond.

Enfin, il y a les réalistes, qui s’arrêtent aux mathématiques, se battent avec des informations chaotiques, une rare capacité d’intelligence simulée et la reconnaissance des clients. Ils ne sont pas très stricts sur les rassemblements qui font des prévisions sur le renseignement par ordinateur – ils se rendent simplement compte que c’est difficile.