L’IA (apprentissage automatique) est l’investigation logique des calculs et des modèles mesurables que les systèmes informatiques utilisent pour effectuer une course particulière sans utiliser de directives non équivoques, selon les exemples et l’induction. Elle est considérée comme un sous-ensemble du raisonnement artificiel. Les calculs d’IA assemblent un modèle scientifique dépendant d’informations de test, connu sous le nom de “préparation d’informations”, de manière à se fixer sur des attentes ou des choix sans être expressément modifié pour accomplir la tâche. Les calculs d’IA sont utilisés dans un large éventail d’applications, par exemple le tri des courriels et la vision artificielle, où il est difficile ou impossible de concevoir manuellement un algorithme pour résoudre la tâche.

L’IA est fermement identifiée aux connaissances informatiques, qui mettent en évidence la création d’attentes à l’aide d’ordinateurs. L’étude des progrès numériques permet de transmettre des techniques, des hypothèses et des domaines d’application au domaine de l’IA. L’exploration de l’information est un domaine de concentration à l’intérieur de l’IA, et met l’accent sur l’examen exploratoire de l’information par l’apprentissage non assisté. Dans son application à des questions commerciales, l’IA est également considérée comme une investigation de prescience.


Connexion à l’exploration de données

L’IA et le data mining utilisent fréquemment des techniques similaires et couvrent essentiellement les mêmes choses. Cependant, alors que l’IA est centrée sur l’attente, à la lumière des propriétés réalisées à partir des informations de préparation, le data mining est centré sur la révélation de propriétés (déjà) obscures dans les données (c’est l’entreprise d’examen de l’apprentissage de la divulgation dans les bases de données). L’exploration de l’information utilise de nombreuses techniques d’IA, mais avec des objectifs différents ; là encore, l’IA utilise également des stratégies d’exploration de l’information comme “apprentissage autonome” ou comme entreprise de prétraitement pour améliorer la précision de l’étudiant. Une part importante de la confusion entre ces deux domaines concerne les réseaux (qui ont régulièrement des collectes et des journaux séparés, la PKDD du CELV étant un cas particulier important) et provient des présomptions essentielles avec lesquelles ils travaillent : dans l’IA, l’exécution est normalement évaluée en fonction de la capacité à imiter des informations connues, tandis que dans la divulgation de l’apprentissage et l’exploration de l’information (KDD), l’entreprise clé est la révélation de données déjà obscures. Si l’évaluation porte sur des données connues, une technique ignorante (sans aide) sera effectivement battue par d’autres stratégies réglementées, tandis que dans une tâche normale de KDD, les techniques dirigées ne peuvent pas être utilisées en raison de l’inaccessibilité des données préparées.


Lien avec l’amélioration

De même, l’IA a des liens privés avec l’amélioration : de nombreux problèmes d’apprentissage automatique sont considérés comme une minimisation de certains travaux malheureux sur un ensemble de modèles préparés. Les capacités de malheur expriment l’incohérence entre les attentes du modèle préparé et les véritables cas de problèmes (par exemple, dans l’ordre, il faut permettre des noms pour les occurrences, et les modèles sont préparés pour prévoir avec précision les marques pré-attribuées de nombreux modèles). La distinction entre les deux domaines découle de l’objectif de la spéculation : alors que les calculs d’avancement peuvent limiter le malheur sur un ensemble de préparation, l’IA s’inquiète de limiter le malheur sur les échantillons cachés.

Connexion aux mesures

L’intelligence artificielle et les connaissances sont des domaines étroitement liés en ce qui concerne les stratégies, mais leur objectif central est sans équivoque : les mesures tirent des déductions de la population à partir d’un exemple, tandis que l’intelligence artificielle trouve des modèles de prédiction généralisables. Comme l’a indiqué Michael I. Jordan, les réflexions de l’IA, des normes méthodologiques aux dispositifs hypothétiques, ont eu une longue préhistoire en matière de statistiques. Il a en outre recommandé d’utiliser le terme “science des données” pour désigner le domaine général jusqu’à ce qu’un terme plus approprié fasse surface

Leo Breiman a reconnu deux normes d’affichage des faits : le modèle de données et le modèle algorithmique, où “modèle algorithmique” signifie à peu près les calculs de l’IA comme une forêt arbitraire.

Quelques analystes ont adopté les stratégies de l’IA, ce qui a donné naissance à un domaine commun qu’ils appellent l’apprentissage mesurable.
Modèles

L’IA comprend la réalisation d’un modèle, qui est préparé à partir d’informations préparées et qui peut ensuite traiter des informations supplémentaires pour créer des attentes. Différents types de modèles ont été utilisés et étudiés pour les cadres d’IA.

Réseaux neuronaux artificiels

Les réseaux neuronaux artificiels sont un ensemble de centres interconnectés, comparable à l’énorme système de neurones d’un cerveau. Ici, chaque plaque tournante parle à un faux neurone et chaque boulon parle à une association allant du rendement d’un faux neurone à la contribution d’un autre.

Les réseaux neuronaux artificiels (ANN), ou cadres connectionnistes, sont des cadres de traitement énigmatiquement animés par les systèmes neuronaux naturels qui établissent les cerveaux des créatures. Ces cadres “apprennent” à effectuer des opérations en pensant à des modèles, pour la plupart sans être modifiés par des règles explicites.

Un ANN est un modèle qui dépend d’un ensemble d’unités ou de centres associés appelés “neurones artificiels”, qui modélisent librement les neurones dans un esprit organique. Chaque association, comme les neurotransmetteurs d’un esprit naturel, peut transmettre des données, un “signal”, en commençant par un faux neurone puis en passant au suivant. Un faux neurone qui reçoit un signal peut le traiter et ensuite envoyer un signal à d’autres neurones artificiels qui lui sont associés. De la même manière que les exécutions ANN, le signe d’une association entre des neurones contrefaits est un nombre authentique, et le rendement de chaque faux neurone est enregistré par une capacité non directe de l’ensemble de ses sources de données. Les associations entre les faux neurones sont désignées par le terme “bords”. Les faux neurones et les arêtes ont généralement un poids qui change au fur et à mesure que l’apprentissage se poursuit. Le poids augmente ou diminue la qualité du signe d’une association. Les neurones artificiels peuvent avoir un bord avec pour objectif final que le signe soit éventuellement envoyé si le signe total franchit ce bord. Souvent, les faux neurones sont rassemblés en couches. Les différentes couches peuvent effectuer divers types de changements dans leurs sources d’information. Les signes se déplacent de la couche principale (la couche d’information) à la dernière couche (la couche de rendement), peut-être dans le sillage de la navigation entre les couches à différentes occasions.

Le premier objectif de l’approche ANN était d’aborder les problèmes de la même manière que le ferait un cerveau humain. Quoi qu’il en soit, après un certain temps, la réflexion s’est déplacée vers l’exécution d’engagements explicites, suscitant des déviations par rapport à la science. Des systèmes neuronaux contrefaits ont été utilisés pour toute une série d’activités, notamment la vision sur ordinateur, la reconnaissance du discours, l’interprétation des machines, la séparation de l’organisation interpersonnelle, les jeux de société et d’ordinateur et la détermination réparatrice.

L’apprentissage approfondi comprend plusieurs couches enveloppées dans un système neuronal contrefait. Cette méthodologie tente de montrer la manière dont le cerveau humain transforme la lumière et le son en vision et en audition. Certaines utilisations efficaces de l’apprentissage profond sont la vision par ordinateur et la reconnaissance du discours.

Arbres de décision

L’apprentissage des arbres de décision utilise un arbre de choix comme modèle de prescience pour passer des perceptions d’une chose (à laquelle on parle dans les branches) aux décisions sur la valeur objective de la chose (à laquelle on parle dans les feuilles). C’est l’une des approches de visualisation de la prescience utilisée dans les domaines de la compréhension, de l’exploration de l’information et de l’IA. Les modèles d’arbres de décision où la variable objective peut prendre un arrangement discret de qualités sont appelés arbres de caractérisation ; dans ces structures arborescentes, les feuilles parlent aux noms de classe et les branches parlent aux conjonctions de points forts qui mènent à ces marques de classe. Les arbres de décision dans lesquels la variable objective peut prendre des appréciations continues (généralement des nombres authentiques) sont appelés arbres de rechute. Dans une enquête de choix, un arbre de décision peut être utilisé pour parler extérieurement et expressément des choix et du leadership de base. Dans l’exploration de l’information, un arbre de choix présente des informations, mais l’arbre d’arrangement ultérieur peut être une contribution à la direction de base.

Machines à vecteurs de soutien

Les machines à vecteurs de soutien (SVM), également appelées systèmes à vecteurs d’aide, sont des techniques d’apprentissage administrées connexes utilisées pour le regroupement et la rechute. Étant donné le grand nombre de modèles préparés, chaque ensemble a une place avec l’une des deux classifications : et un SVM préparant un calcul fabrique un modèle qui prédit si un autre modèle tombe dans une classe ou l’autre. Un MVC préparant un calcul est un classificateur non probabiliste, double et direct, malgré le fait que des techniques, par exemple, l’échelle de Platt existent pour utiliser le MVC dans un cadre de caractérisation probabiliste. Même s’ils effectuent des regroupements simples, les MVC peuvent effectivement effectuer une caractérisation non directe en utilisant ce que l’on appelle le “part stunt”, c’est-à-dire en cartographiant de manière vérifiable leurs contributions dans des espaces d’éléments à haute dimension.

Systèmes bayésiens

Un système bayésien, une organisation de conviction ou un modèle graphique non-cyclique coordonné est un modèle graphique probabiliste qui parle de beaucoup de facteurs arbitraires et de leur liberté restrictive avec un diagramme non-cyclique coordonné (DAG). Par exemple, un système bayésien pourrait parler des connexions probabilistes entre les maladies et les effets secondaires. Étant donné les manifestations, le système peut être utilisé pour calculer les probabilités de proximité de différentes maladies. Il existe des calculs efficaces qui font appel à la déduction et à l’apprentissage. Les systèmes bayésiens qui modélisent des groupements de facteurs, similaires au signe du discours ou aux successions de protéines, sont appelés systèmes bayésiens dynamiques. Les spéculations de systèmes bayésiens qui peuvent parler et prendre en charge les questions de choix dans le cadre de la vulnérabilité sont appelées des esquisses d’impact.

Algorithmes génétiques

Un calcul héréditaire (GA) est un calcul de poursuite et une procédure heuristique qui imite la procédure du choix régulier, en utilisant des techniques, par exemple, de transformation et d’hybridation pour produire de nouveaux génotypes dans l’espoir de découvrir de grandes réponses à une question donnée. En IA, les calculs héréditaires ont été utilisés dans les années 1980 et 1990. D’autre part, des stratégies d’IA ont été utilisées pour améliorer la présentation des algorithmes héréditaires et de transformation.

Préparation des modèles

Habituellement, les modèles d’IA nécessitent beaucoup d’informations dans le but d’être performants. La plupart du temps, lors de la préparation d’un modèle d’IA, il est nécessaire de rassembler un grand nombre d’informations provenant d’un ensemble de préparation. Ces informations peuvent être aussi différentes qu’un corpus de contenu, une accumulation d’images et des informations recueillies auprès de clients particuliers. Il faut être attentif au surdosage lors de la préparation d’un modèle d’IA.

Apprentissage fédéré

L’apprentissage unifié est une autre façon de traiter la préparation des modèles d’IA qui décentralisent la procédure de préparation, en considérant que la protection des clients doit être maintenue en ne s’attendant pas à envoyer leurs informations à un serveur concentré. Cela permet également d’accroître l’efficacité en décentralisant la procédure de préparation vers de nombreux dispositifs . Par exemple, Gboard utilise l’IA unifiée pour préparer des modèles d’attente de questions de recherche sur les téléphones portables des clients sans envoyer de requêtes individuelles à Google.