AI (ML) ist die logische Untersuchung von Berechnungen und messbaren Modellen, mit denen das PC-System je nach Beispiel und Induktion eine bestimmte Besorgung ohne Verwendung eindeutiger Richtlinien durchführte. Sie wird als eine Untergruppe des künstlichen Denkens betrachtet. KI-Berechnungen fügen ein wissenschaftliches Modell zusammen, das von Testinformationen abhängt, die als “Vorbereitung von Informationen” bezeichnet werden, um Erwartungen oder Entscheidungen zu treffen, ohne dass sie ausdrücklich modifiziert werden, um die Aufgabe auszuführen. KI-Berechnungen werden in einer Vielzahl von Anwendungsbereichen eingesetzt, z.B. beim E-Mail-Sieben und bei der PC-Vision, wo es mühsam oder nicht durchführbar ist, eine gewöhnliche Berechnung zu erstellen, um die Aufgabe durchführbar zu machen.

Die künstliche Intelligenz wird fest mit den Erkenntnissen der Informatik identifiziert, die sich auf die Erwartungsbildung bei der Nutzung von PCs konzentriert. Die Untersuchung des numerischen Fortschritts vermittelt Techniken, Hypothesen und Anwendungsbereiche auf das Gebiet der KI. Information Mining ist ein Schwerpunktbereich innerhalb der KI und legt den Schwerpunkt auf die explorative Untersuchung von Informationen durch ungestütztes Lernen, wobei die KI in ihrer Anwendung quer zu betriebswirtschaftlichen Fragestellungen zusätzlich als vorausschauende Untersuchung angedeutet wird.

Verbindung zum Data Mining

KI und Data Mining verwenden häufig ähnliche Techniken und decken im Wesentlichen ab, doch während bei der KI die Erwartung im Mittelpunkt steht, geht es beim Data Mining angesichts der realisierten Eigenschaften, die aus den Vorbereitungsinformationen gewonnen werden, um die Enthüllung (bereits) obskurer Eigenschaften in den Daten (dies ist das Untersuchungsvorhaben der lernenden Offenlegung in Datenbanken). Beim Information Mining kommen viele KI-Techniken zum Einsatz, allerdings mit unterschiedlichen Zielsetzungen; andererseits verwendet die KI ebenfalls Information Mining-Strategien als “ununterstütztes Lernen” oder als Vorverarbeitungsunternehmen, um die Genauigkeit der Studenten zu verbessern. Ein bedeutender Teil der Unordnung zwischen diesen beiden Anfragen über Netzwerke (die regelmäßig getrennte Versammlungen und getrennte Tagebücher führen, wobei das ECML PKDD ein bedeutender Sonderfall ist) hat seinen Ursprung in den wesentlichen Annahmen, mit denen sie arbeiten: Bei der KI wird die Ausführung normalerweise im Hinblick auf die Fähigkeit, bekannte Informationen zu imitieren, bewertet, während bei der Lernfortschrittsoffenlegung und dem Information Mining (KDD) das Schlüsselunternehmen die Offenlegung bereits obskurer Daten ist. In Bezug auf bekannte Daten bewertet, wird eine unwissende (ununterstützte) Technik durch andere regulierte Strategien effektiv geschlagen, während bei einer regulären KDD-Aufgabe gerichtete Techniken wegen der Unzugänglichkeit der Datenaufbereitung nicht eingesetzt werden können.

Verbindung zur Verbesserung

AI hat ebenfalls private Verbindungen zur Verbesserung: viele Lernprobleme werden als Minimierung einiger unglücklicher Arbeiten an einem Vorbereitungssatz von Modellen dargestellt. Unglückskapazitäten drücken die Inkonsistenz zwischen den Erwartungen an das vorzubereitende Modell und den tatsächlichen Problemfällen aus (z.B. muss man, um einen Namen zu ermöglichen, Vorkommnisse zulassen, und Modelle sind darauf vorbereitet, die vorbelegten Noten vieler Modelle genau vorherzusehen). Die Unterscheidung zwischen den beiden Bereichen ergibt sich aus dem Ziel der Spekulation: Während Fortschrittsberechnungen das Unglück auf einem Präparationsset begrenzen können, ist die KI um die Begrenzung des Unglücks bei verborgenen Proben besorgt.

Verbindung zu Messungen

KI und Einsichten sind, was die Strategien betrifft, fest miteinander verwandte Felder, doch in ihrer zentralen Zielsetzung unverkennbar: Messungen ziehen populäre Schlussfolgerungen aus einem Beispiel, während die KI verallgemeinerbare vorausschauende Muster findet. Wie von Michael I. Jordan angedeutet, haben die Gedanken der KI, von methodologischen Standards bis hin zu hypothetischen Geräten, eine lange Vorgeschichte in der Statistik. Er empfahl zusätzlich den Begriff der Datenwissenschaft als Platzhalter für die Bezeichnung des allgemeinen Feldes.

Leo Breiman erkannte zwei faktische Darstellungsstandards: Datenmodell und algorithmisches Modell, wobei “algorithmisches Modell” so ziemlich die KI-Berechnungen wie “Arbitrary woodland” bezeichnet.

Einige wenige Analysten haben sich Strategien der KI zu eigen gemacht und damit ein gemeinsames Feld geschaffen, das sie messbares Lernen nennen.

Modelle

Zur Durchführung der KI gehört die Anfertigung eines Modells, das auf der Grundlage einiger Vorbereitungsinformationen erstellt wird und anschließend zusätzliche Informationen verarbeiten kann, um Erwartungen zu formulieren. Es wurden verschiedene Arten von Modellen für KI-Rahmenwerke verwendet und angefragt.

Künstliche neuronale Netze

Hauptartikel: Künstliches neuronales Netz

Siehe auch: Tiefes Lernen

Künstliche neuronale Netze sind eine miteinander verbundene Ansammlung von Knotenpunkten, vergleichbar mit dem riesigen System von Neuronen in einem Großhirn. Hier spricht jeder Kreisverkehrsknotenpunkt mit einem gefälschten Neuron, und ein Bolzen spricht mit einer Assoziation von der Ausbeute eines gefälschten Neurons zum Beitrag eines anderen.

Künstliche neuronale Netze (ANNs) oder konnektionistische Gerüste sind Verarbeitungsgerüste, die auf rätselhafte Weise durch die natürlichen neuronalen Systeme belebt werden, die das Großhirn der Kreatur bilden. Solche Rahmenwerke “lernen” die Durchführung von Unternehmungen, indem sie über Modelle nachdenken, zumeist ohne dass sie durch irgendwelche expliziten Regeln für Besorgungen modifiziert werden.

Eine ANN ist ein Modell, das von einer Ansammlung assoziierter Einheiten oder Knotenpunkte abhängt, die “künstliche Neuronen” genannt werden und die Neuronen in einem organischen Geist frei modellieren. Jede Assoziation kann, ähnlich wie die Neurotransmitter in einem natürlichen Geist, Daten, ein “Signal”, übertragen, beginnend mit einem falschen Neuron, dann zum nächsten. Ein falsches Neuron, das ein Zeichen erhält, kann es verarbeiten und danach zusätzliche künstliche Neuronen, die mit ihm assoziiert sind, signalisieren. In ähnlicher Weise wie bei ANN-Ausführungen ist das Zeichen bei einer Assoziation zwischen gefälschten Neuronen eine echte Zahl, und die Ausbeute jedes gefälschten Neurons wird durch eine nicht-direkte Kapazität der Gesamtheit seiner Datenquellen registriert. Die Assoziationen zwischen gefälschten Neuronen werden als “Kanten” bezeichnet. Gefälschte Neuronen und Kanten haben in der Regel ein Gewicht, das sich mit fortschreitendem Lernen ändert. Das Gewicht erhöht oder vermindert die Qualität des Zeichens bei einer Assoziation. Künstliche Neuronen können eine Kante mit dem Endziel haben, dass das Zeichen möglicherweise gesendet wird, wenn das gesamte Zeichen diese Kante überquert. Gewöhnlich werden die künstlichen Neuronen in Schichten gesammelt. Verschiedene Schichten können verschiedene Arten von Veränderungen in ihren Informationsquellen durchführen. Das Zeichen wandert von der Hauptschicht (der Info-Schicht) zur letzten Schicht (der Fließschicht), vielleicht im Zuge der Navigation durch die Schichten bei verschiedenen Gelegenheiten.

Das erste Ziel des ANN-Ansatzes bestand darin, Probleme ähnlich anzugehen, wie es ein menschliches Großhirn tun würde. Wie dem auch sei, nach einiger Zeit gingen die Überlegungen zu expliziten Unternehmungen über und führten zu Abweichungen von der Wissenschaft. Gefälschte neuronale Systeme wurden bei einer Reihe von Unternehmungen eingesetzt, darunter PC-Vision, Diskursanerkennung, maschinelle Interpretation, zwischenmenschliche Organisationstrennung, Brett- und Computerspiele und restaurative Entschlossenheit.

Tiefgreifendes Lernen besteht aus verschiedenen umhüllten Schichten in einem gefälschten neuronalen System. Diese Methodik versucht, die Art und Weise darzustellen, in der das menschliche Großhirn Licht und Ton in Sehen und Hören umsetzt. Einige wirksame Anwendungen des Tiefenlernens sind das PC-Sehen und die Diskurserkennung.

Entscheidungsbäume

Grundlegender Artikel: Lernen von Entscheidungsbäumen

Beim Lernen von Entscheidungsbäumen wird ein Entscheidungsbaum als vorausschauendes Modell verwendet, um von den Wahrnehmungen über eine Sache (mit denen in den Zweigen gesprochen wird) zu Entscheidungen über den objektiven Wert der Sache (mit denen in den Blättern gesprochen wird) zu gelangen. Er gehört zu den vorausschauenden Darstellungsansätzen, die bei Einsichten, Informationsgewinnung und KI verwendet werden. Entscheidungsbaummodelle, bei denen die objektive Variable eine diskrete Anordnung von Eigenschaften annehmen kann, werden Charakterisierungsbäume genannt; in diesen Baumstrukturen sprechen Blätter zu Klassennamen und Äste zu Konjunktionen von Hervorhebungen, die zu diesen Klassenzeichen führen. Entscheidungsbäume, bei denen die objektive Variable nonstop Wertschätzungen (gewöhnlich echte Zahlen) annehmen kann, werden als Rückfallbäume bezeichnet. In einer Entscheidungsuntersuchung kann ein Entscheidungsbaum dazu verwendet werden, nach außen hin und ausdrücklich zu Entscheidungen und grundlegender Führung zu sprechen. Bei der Informationsbeschaffung stellt ein Entscheidungsbaum Informationen dar, während der anschließende Ordnungsbaum ein Beitrag zur grundlegenden Führung sein kann.

Unterstützung von Vektormaschinen

Primärer Artikel: Unterstützung von Vektor-Maschinen

Support-Vektor-Maschinen (SVMs), auch Hilfe-Vektor-Systeme genannt, sind eine Menge verwandter verwalteter Lerntechniken, die zur Gruppierung und zum Rückfall verwendet werden. Angesichts vieler vorbereitender Modelle, von denen jedes einen Platz mit einer von zwei Klassifizierungen hat, erstellt eine SVM vorbereitende Berechnung ein Modell, das vorhersagt, ob ein anderes Modell in die eine oder die andere Klasse fällt. Eine SVM, die eine Berechnung vorbereitet, ist ein nicht-babilistischer, zweifacher, direkter Klassifikator, trotz der Tatsache, dass es Techniken wie z.B. die Platt-Skalierung gibt, um SVM in einer probabilistischen Charakterisierungsumgebung zu verwenden. Ungeachtet der Durchführung einer geradlinigen Gruppierung können SVMs eine nicht-direkte Charakterisierung unter Verwendung des so genannten Part-Stunts effektiv durchführen, indem sie ihre Beiträge nachweislich in hochdimensionalen Elementräumen abbilden.

Bayessche Systeme

Grundsatzartikel: Bayessches System

Ein geradliniges Bayessches System. Ein Regenguss wirkt sich darauf aus, ob der Regner ausgelöst wird, und sowohl der Regenguss als auch der Regner wirken sich darauf aus, ob das Gras nass ist.

Ein Bayessches System, eine Überzeugungsorganisation oder ein koordiniertes nicht-zyklisches graphisches Modell ist ein probabilistisches graphisches Modell, das mit einem koordinierten nicht-zyklischen Diagramm (DAG) eine Menge willkürlicher Faktoren und deren einschränkende Freiheit anspricht. Ein Bayes’sches System könnte zum Beispiel die probabilistischen Zusammenhänge zwischen Krankheiten und Nebenwirkungen ansprechen. Bei gegebenen Manifestationen kann das System verwendet werden, um die Wahrscheinlichkeiten der Nähe verschiedener Krankheiten abzubilden. Es gibt effektive Berechnungen, die Deduktion und Lernen ermöglichen. Bayes’sche Systeme, die Gruppierungen von Faktoren modellieren, ähnlich wie Diskurszeichen- oder Proteinfolgen, werden als dynamische Bayes’sche Systeme bezeichnet. Spekulationen über Bayes’sche Systeme, die mit Wahlfragen unter Anfälligkeit sprechen und sich darum kümmern können, werden als Wirkungskonturen bezeichnet.

Genetische Algorithmen

Grundsatzartikel: Genetische Algorithmen

Eine Vererbungsrechnung (GA) ist eine Verfolgungsrechnung und ein heuristisches Verfahren, das das Verfahren der regulären Wahl emuliert, indem es Techniken wie z.B. Transformation und Hybrid verwendet, um neue Genotypen in der Erwartung zu erzeugen, große Antworten für eine gegebene Frage zu finden. Bei der KI wurden in den 1980er und 1990er Jahren Erbberechnungen eingesetzt. Auf der anderen Seite wurden KI-Strategien eingesetzt, um die Darstellung von erblichen und transformativen Algorithmen zu verbessern.[

Modelle vorbereiten

Normalerweise erfordern KI-Modelle sehr viele Informationen mit dem Ziel, dass sie gut funktionieren. Meistens muss man bei der Vorbereitung eines KI-Modells einen riesigen, delegierten Test von Informationen aus einem Vorbereitungsset zusammenstellen. Die Informationen aus dem Vorbereitungsset können so unterschiedlich sein wie ein Korpus von Inhalten, eine Ansammlung von Bildern und Informationen, die von einzelnen Hilfskunden gesammelt wurden. Bei der Vorbereitung eines KI-Modells ist auf Überanpassung zu achten.

Föderiertes Lernen

Grundsatzartikel: Föderiertes Lernen

Einheitliches Lernen ist eine weitere Möglichkeit, mit der Vorbereitung von KI-Modellen umzugehen, die das Vorbereitungsverfahren dezentralisiert, wobei der Schutz der Kunden dadurch aufrechterhalten wird, dass sie nicht erwarten, ihre Informationen an einen konzentrierten Server zu senden. Dies erhöht ebenfalls die Effektivität, indem der Vorbereitungsprozess auf zahlreiche Geräte dezentralisiert wird. So verwendet Gboard beispielsweise eine einheitliche KI, um Modelle für die Erwartungshaltung bei Suchfragen auf den Mobiltelefonen der Kunden vorzubereiten, ohne einzelne Jagden an Google zurückzuschicken.