L’IA (ML) est l’investigation logique des calculs et des modèles mesurables que le système PC utilisait pour effectuer une course particulière sans utiliser de directives non équivoques, en fonction des exemples et de l’induction. Elle est considérée comme un sous-ensemble du raisonnement artificiel. Les calculs d’IA assemblent un modèle scientifique dépendant des informations du test, connu sous le nom de “préparation des informations”, afin de se fixer sur des attentes ou des choix sans être expressément modifié pour accomplir la tâche. Les calculs d’IA sont utilisés dans un large éventail d’applications, par exemple le tri des courriels et la vision sur PC, où il est difficile ou impossible d’établir un calcul ordinaire pour mener à bien l’entreprise de manière viable.

L’IA est fermement identifiée aux connaissances informatiques, qui mettent l’accent sur la création d’attentes à l’aide de PC. L’étude des progrès numériques permet de transmettre des techniques, des hypothèses et des domaines d’application au domaine de l’IA. L’exploration de l’information est un domaine de concentration de l’IA, et met l’accent sur l’examen exploratoire de l’information par l’apprentissage autonome. Dans son application transversale aux questions commerciales, l’IA est en outre considérée comme une investigation prévoyante.

Connexion à l’extraction de données

L’IA et le data mining utilisent fréquemment des techniques similaires et couvrent essentiellement, cependant, alors que l’IA est centrée sur l’attente, à la lumière des propriétés réalisées à partir des informations de préparation, le data mining est centré sur la révélation de propriétés (déjà) obscures dans les données (c’est l’entreprise d’examen de l’apprentissage de la divulgation dans les bases de données). L’exploration de l’information utilise de nombreuses techniques d’IA, mais avec des objectifs différents ; là encore, l’IA utilise également des stratégies d’exploration de l’information comme “apprentissage autonome” ou comme entreprise de prétraitement pour améliorer la précision de l’étudiant. Une part importante de la confusion entre ces deux types d’enquête sur les réseaux (qui ont régulièrement des collectes et des journaux séparés, la PKDD du CELV étant un cas particulier important) provient des présomptions essentielles avec lesquelles ils travaillent : dans l’IA, l’exécution est normalement évaluée en fonction de la capacité à imiter des informations connues, tandis que dans la divulgation de l’apprentissage et l’exploration de l’information (KDD), l’entreprise clé est la révélation de données déjà obscures. Si l’évaluation porte sur des données connues, une technique ignorante (sans aide) sera effectivement battue par d’autres stratégies réglementées, tandis que dans une tâche normale de KDD, les techniques dirigées ne peuvent pas être utilisées en raison de l’inaccessibilité de la préparation des données.

Connexion à l’amélioration

L’IA a également des liens privés avec l’amélioration : de nombreux problèmes d’apprentissage sont considérés comme une minimisation de certains travaux malheureux sur un ensemble de modèles de préparation. Les capacités de malchance expriment l’incohérence entre les attentes du modèle en cours de préparation et les véritables cas de problèmes (par exemple, pour qu’il y ait un nom aux occurrences, il faut que les modèles soient préparés de manière à prévoir avec précision les marques pré-attribuées de nombreux modèles). La distinction entre les deux domaines découle de l’objectif de la spéculation : alors que les calculs d’avancement peuvent limiter le malheur sur un ensemble de préparation, l’IA s’inquiète de limiter le malheur sur les échantillons cachés.

Connexion aux mesures

L’intelligence artificielle et les connaissances sont des domaines étroitement liés en ce qui concerne les stratégies, mais leur objectif central est sans équivoque : les mesures tirent des déductions de la population à partir d’un exemple, tandis que l’intelligence artificielle trouve des modèles de prédiction généralisables. Comme l’a indiqué Michael I. Jordan, les réflexions de l’IA, des normes méthodologiques aux dispositifs hypothétiques, ont une longue préhistoire en matière de statistiques. Il a en outre recommandé d’utiliser le terme “science des données” pour désigner le domaine général.

Leo Breiman a reconnu deux normes d’affichage des faits : le modèle de données et le modèle algorithmique, où “modèle algorithmique” signifie à peu près les calculs de l’IA comme Bois arbitraire.

Quelques analystes ont adopté les stratégies de l’IA, ce qui a donné naissance à un domaine commun qu’ils appellent l’apprentissage mesurable.

Modèles

L’IA comprend la réalisation d’un modèle, qui est préparé à partir de certaines informations de préparation et qui peut ensuite traiter des informations supplémentaires pour créer des attentes. Différents types de modèles ont été utilisés et étudiés pour les cadres d’IA.

Réseaux de neurones artificiels

Article principal : Réseau de neurones artificiels

Voir aussi : Apprentissage approfondi

Les réseaux neuronaux artificiels sont un ensemble de centres interconnectés, comparable à l’énorme système de neurones d’un cerveau. Ici, chaque plaque tournante parle à un faux neurone et un boulon parle à une association entre le rendement d’un faux neurone et la contribution d’un autre.

Les réseaux neuronaux artificiels (ANN), ou cadres connectionnistes, sont des cadres de traitement énigmatiquement animés par les systèmes neuronaux naturels qui établissent les cerveaux des créatures. Ces cadres “apprennent” à effectuer des opérations en pensant à des modèles, pour la plupart sans être modifiés par des règles explicites.

Un ANN est un modèle qui dépend d’un ensemble d’unités ou de centres associés appelés “neurones artificiels”, qui modèlent librement les neurones dans un esprit organique. Chaque association, semblable aux neurotransmetteurs d’un esprit naturel, peut transmettre des données, un “signal”, en commençant par un faux neurone puis en passant au suivant. Un faux neurone qui reçoit un signal peut le traiter et ensuite envoyer un signal à d’autres neurones artificiels qui lui sont associés. De la même manière que les exécutions ANN, le signe d’une association entre des neurones contrefaits est un nombre authentique, et le rendement de chaque faux neurone est enregistré par une capacité non directe de l’ensemble de ses sources de données. Les associations entre les faux neurones sont désignées par le terme “bords”. Les faux neurones et les arêtes ont généralement un poids qui change au fur et à mesure que l’apprentissage se poursuit. Le poids augmente ou diminue la qualité du signe d’une association. Les neurones artificiels peuvent avoir un bord avec pour objectif final que le signe soit éventuellement envoyé si le signe total franchit ce bord. En général, les faux neurones sont rassemblés en couches. Les différentes couches peuvent effectuer divers types de changements dans leurs sources d’information. Le signe se déplace de la couche principale (la couche d’information) à la dernière couche (la couche de rendement), peut-être dans le sillage de la navigation entre les couches à différentes occasions.

Le premier objectif de l’approche ANN était d’aborder les problèmes de la même manière que le cerveau humain. Quoi qu’il en soit, après un certain temps, la réflexion s’est déplacée vers la réalisation d’engagements explicites, suscitant des déviations par rapport à la science. Des systèmes neuronaux contrefaits ont été utilisés dans un assortiment d’entreprises, y compris la vision sur PC, la reconnaissance du discours, l’interprétation des machines, la séparation de l’organisation interpersonnelle, les jeux de société et d’ordinateur et la détermination réparatrice.

L’apprentissage profond est constitué de diverses couches enveloppées dans un système neuronal contrefait. Cette méthodologie tente de montrer la manière dont le cerveau humain transforme la lumière et le son en vision et en audition. Certaines utilisations efficaces de l’apprentissage profond sont la vision par ordinateur et la reconnaissance du discours.

Arbres de décision

Article fondamental : Apprentissage des arbres de décision

L’apprentissage des arbres de décision utilise un arbre de choix comme modèle de prescience pour passer des perceptions d’une chose (parlées dans les branches) aux décisions sur la valeur objective de la chose (parlées dans les feuilles). Il s’agit d’une des approches de visualisation de la prescience utilisées dans les domaines de l’intuition, de l’exploration de l’information et de l’IA. Les modèles d’arbres de décision où la variable objective peut prendre un arrangement discret de qualités sont appelés arbres de caractérisation ; dans ces structures arborescentes, les feuilles parlent aux noms de classe et les branches parlent aux conjonctions de points forts qui mènent à ces marques de classe. Les arbres de décision dans lesquels la variable objective peut prendre des appréciations continues (généralement des nombres authentiques) sont appelés arbres de rechute. Dans une enquête de choix, un arbre de décision peut être utilisé pour parler extérieurement et expressément des choix et du leadership de base. Dans l’exploration de l’information, un arbre de choix présente des informations, mais l’arbre d’arrangement ultérieur peut être une contribution à la direction de base.

Soutenir les machines à vecteurs

Article principal : Machines à vecteurs de support

Les machines à vecteurs de soutien (SVM), aussi appelées systèmes à vecteurs d’aide, sont de nombreuses techniques d’apprentissage administrées connexes utilisées pour le regroupement et la rechute. Étant donné le grand nombre de modèles de préparation, chacun ayant une place distincte dans l’une des deux classifications, un MVS préparant un calcul fabrique un modèle qui prédit si un autre modèle entre dans l’une ou l’autre des classes. Un MVC préparant un calcul est un classificateur direct, non probabiliste, à deux niveaux, en dépit du fait que des techniques, par exemple l’échelle de Platt, existent pour utiliser le MVC dans un cadre de caractérisation probabiliste. Même s’ils effectuent des regroupements simples, les MVC peuvent effectivement effectuer une caractérisation non directe en utilisant ce que l’on appelle le “part stunt”, c’est-à-dire en cartographiant de manière vérifiable leurs contributions dans des espaces d’éléments à haute dimension.

Systèmes bayésiens

Article de principe : Système bayésien

Un système bayésien simple. La pluie a un impact sur le déclenchement de l’arroseur, et la pluie et l’arroseur ont tous deux un impact sur l’humidité de l’herbe.

Un système bayésien, une organisation de conviction ou un modèle graphique non-cyclique coordonné est un modèle graphique probabiliste qui parle de beaucoup de facteurs arbitraires et de leur liberté restrictive avec un diagramme non-cyclique coordonné (DAG). Par exemple, un système bayésien pourrait parler des connexions probabilistes entre les maladies et les effets secondaires. Étant donné les manifestations, le système peut être utilisé pour calculer les probabilités de proximité de différentes maladies. Il existe des calculs efficaces qui font appel à la déduction et à l’apprentissage. Les systèmes bayésiens qui modélisent des groupements de facteurs, similaires au signe du discours ou aux successions de protéines, sont appelés systèmes bayésiens dynamiques. Les spéculations de systèmes bayésiens qui peuvent parler et prendre en charge les questions de choix dans le cadre de la vulnérabilité sont appelées des esquisses d’impact.

Algorithmes génétiques

Article de principe : Algorithmes génétiques

Un calcul héréditaire (GA) est un calcul de poursuite et une procédure heuristique qui imite la procédure du choix régulier, en utilisant des techniques, par exemple, de transformation et d’hybridation pour produire de nouveaux génotypes dans l’espoir de découvrir de grandes réponses à une question donnée. En IA, les calculs héréditaires ont été utilisés dans les années 1980 et 1990. D’autre part, des stratégies d’IA ont été utilisées pour améliorer la présentation des algorithmes héréditaires et de transformation […

Préparation des modèles

Habituellement, les modèles d’IA nécessitent beaucoup d’informations dans le but d’être performants. La plupart du temps, lors de la préparation d’un modèle d’IA, il est nécessaire de rassembler un grand nombre d’informations provenant d’un ensemble de préparation. Ces informations peuvent être aussi différentes qu’un corpus de contenu, une accumulation d’images et des informations recueillies auprès de clients particuliers. Il faut être attentif au surmenage lors de la préparation d’un modèle d’IA.

Apprentissage fédéré

Article de principe : Apprentissage fédéré

L’apprentissage unifié est une autre façon de traiter la préparation des modèles d’IA qui décentralise la procédure de préparation, en considérant que la protection des clients doit être maintenue en ne s’attendant pas à envoyer leurs informations à un serveur concentré. Cela permet également d’accroître l’efficacité en décentralisant la procédure de préparation vers de nombreux gadgets. Par exemple, Gboard utilise l’IA unifiée pour préparer des modèles d’attente de questions de recherche sur les téléphones portables des clients sans renvoyer les chasses individuelles à Google.