Coursera Learner working on a presentation with Coursera logo and
Coursera Learner working on a presentation with Coursera logo and

“Interpretierbarkeit” bezieht sich auf das Ausmaß, in dem Sie die Gründe für eine Entscheidung verstehen können. Auf der anderen Seite erlaubt Machine Learning einem Computer, seine Entscheidungen auf der Grundlage der gesammelten Daten zu verbessern. So entsteht ein maschinelles Lernmodell, das den Code von Mustern und Algorithmen aus den Daten immer weiter verbessert. Interpretierbarkeit beim maschinellen Lernen bedeutet jedoch etwas anderes.
Wenn ein maschinelles Lernmodell eine niedrige Interpretierbarkeit hat, werden Sie nicht in der Lage sein zu verstehen, warum das maschinelle Lernmodell bestimmte Entscheidungen trifft und andere nicht. Im Gegensatz dazu können Sie bei einer hohen Interpretierbarkeit des Modells die Gründe für die Entscheidungen eines maschinellen Lernmodells leicht ermitteln.
Lineare und logistische Regression, Entscheidungsbaum, etc. sind einige Techniken eines maschinellen Lernmodells.

Wichtigkeit der Interpretierbarkeit

Warum ist es Ihrer Meinung nach wichtig, dass ein maschinelles Lernmodell interpretierbar ist?
Maschinelle Lernmodelle haben in unserem digitalen Zeitalter zahlreiche Anwendungen. Die Filmempfehlungen bei Streaming-Anwendungen und Vorschläge für Social-Media-Seiten sind nur die Spitze des Eisbergs. Chatbots mit künstlicher Intelligenz (KI) können Interviews führen, Online-Kunden bei der Kaufentscheidung helfen und einen intelligenten Staubsauger betreiben, der sich selbständig auflädt und arbeitet.
Der weitere Einsatz von maschinellem Lernen erstreckt sich auf sehr komplexe und risikobehaftete Szenarien. Teure Geschäftsentscheidungen, die Vorhersage der Kreditwürdigkeit eines Bewerbers bei einer Bank, Medikamentenverschreibungen in einem Krankenhaus und sogar Kriminalabteilungen zur Analyse von Beweisen usw.
Aber wie können Sie Lücken in den Vorhersagen und Entscheidungen eines maschinellen Lernmodells erkennen? Sie möchten vielleicht wissen, warum ein Modell einem Patienten ein bestimmtes Medikament verschreibt. Angenommen, Sie finden heraus, dass eine bestimmte Entscheidung des maschinellen Lernmodells falsch oder ungenau ist. In diesem Fall würden Sie wissen wollen, welche Algorithmen und Schritte die Maschine verwendet hat, um ein solches Ergebnis zu erzielen.
An dieser Stelle sind interpretierbare maschinelle Lernmodelle effektiv. Mit den richtigen Techniken und der richtigen Implementierung helfen sie Ihnen, die Argumentation eines Lernmodells zu verstehen. Im Gegensatz zu erklärbaren Modellen verwenden interpretierbare Modelle verschiedene Techniken (lineare Regression, logistische Regression, Entscheidungsbaum usw.) und sind relativ einfach zu verstehen.
Lassen Sie uns besprechen, warum interpretierbare Machine-Learning-Modelle so wichtig sind.

Einfaches Verstehen

Sie haben z. B. ein Modell erstellt, das erklärt, wie lange es dauert, bis ein Bauprojekt abgeschlossen ist. Dasselbe Modell könnte auch abschätzen, wie viel Umsatz es in den ersten Jahren des Betriebs generieren würde. Dazu verwendet es die Daten, die Sie in das Modell eingegeben haben, zusätzlich zu dem, was es aus dem Internet sammelt (Markttrends, die industrielle Kapazität des Gebiets, Einkommens- und Investitionsstatistiken des Gebiets usw.).
Und bevor Sie ein solches Modell in die Praxis umsetzen, brauchen Sie die Zustimmung der Unternehmensleitung. Denken Sie daran, dass sie ein Modell nur dann genehmigen werden, wenn sie es verstehen.
Also wird die Interpretierbarkeit Ihrem Chef erklären, wie das Modell funktioniert, und zwar in einfacher Sprache und nicht in technischem Kauderwelsch.

Ein Modell kann Ihnen bestimmte Dinge beibringen

Sie haben vielleicht nicht gewusst, dass Ihr Arbeitsprozess eine bestimmte Formel oder einen Code anwendet. Ein interpretierbares Modell wird Ihnen helfen, leicht zu verstehen, warum es verwendet wurde, und lässt Sie daraus lernen. Je höher also die Interpretierbarkeit des Modells ist, desto mehr verstehen Sie.

Unvoreingenommenheit und gerechte Entscheidungen

Es ist offensichtlich, dass das maschinelle Lernmodell Entscheidungen auf der Grundlage der Daten trifft, die es sammelt, und der Daten, die Sie ihm anfangs eingegeben haben. Es ist nicht wahr, dass ein Modell immer eine unvoreingenommene Entscheidung treffen wird. Zum Beispiel kann es aufgrund der Rassentrennung zu einer rassistischen Profilierung bei der Verarbeitung der Standorte bestimmter Personen kommen. Aufgrund der Rasse kann das Modell eine voreingenommene Entscheidung treffen.
Mit einem interpretierbaren Modell können Sie jedoch feststellen, ob Ihr Modell eine faire Entscheidung getroffen hat. Außerdem können Sie es leicht korrigieren und solche Schwierigkeiten in Zukunft vermeiden.

Vorhersage der zukünftigen Leistung eines Modells

Im Laufe der Zeit kann sich die Leistung eines maschinellen Lernmodells entweder verbessern oder verschlechtern. Die Variablen, die es in seinen Berechnungen verwendet, oder die Daten, die es nutzt, können veralten oder für seine Algorithmen nicht mehr brauchbar sein. Zum Beispiel kann ein Modell, das das Geschlecht eines Individuums basierend auf der Information seines Einkommens/Lohngefälles vorhersagt, unbrauchbar werden, wenn das Lohngefälle in unserer modernen Gesellschaft nicht mehr existiert.
Zum Beispiel sagt das Modell Personen mit einem Einkommen von $18.000-$20.000 als weiblich und Personen mit einem Einkommen von $15.000-17.000 als männlich voraus. Bei einer Verringerung der Lohnunterschiede könnte es für das Modell jedoch schwierig werden, eine Entscheidung zu treffen. Wenn sich der Einkommensbereich für Männer von 15.000-17.000 auf 16.000-19.000 bewegt, könnte ein Modell in diesem Fall Männer als Frauen vorschlagen.
So können Sie die zukünftige Leistung eines Modells vorhersagen und kompensieren.

Ein Nachteil der Machine-Learning-Modelle

Machine Learning-Modelle besitzen die Anfälligkeit, ausgenutzt zu werden. Benutzer können die Ergebnisse, die ein maschinelles Lernmodell produziert, leicht manipulieren.
Betrachten wir zum Beispiel ein Modell, das das Risiko und die Glaubwürdigkeit von Kreditkandidaten berechnet. Es weiß, dass es Kandidaten mit mehreren Kreditkarten ablehnt, da diese ein hohes Risiko für die Kreditrückzahlung darstellen. Wenn ein Kandidat dies jedoch weiß, könnte er alle seine Kreditkarten sperren, bevor er als Kandidat für den Kredit auftritt.
Auf diese Weise manipulieren sie das Modell so, dass es sie als geeignete Kandidaten für den Kredit anzeigt.

Fazit

Die Interpretierbarkeit beim maschinellen Lernen ermöglicht ein besseres Verständnis. Es ist eine Funktion, die es den Anwendern leicht macht, eventuelle Fehler oder Irrtümer zu verbessern und für zukünftige Verbesserungen zu kompensieren.
Mit einer höheren Interpretierbarkeit können Sie ein maximales Verständnis dafür erreichen, wie ein maschinelles Lernmodell eine Entscheidung getroffen hat. Dies ermöglicht es Ihnen, Ihre Entscheidungen gegenüber anderen zu begründen, indem Sie ihnen anhand eines interpretierbaren Modells erklären.
Es ist eine berechtigte Annahme, dass Sie Ihr Wissen und Verständnis von Intelligenz verbessern können, wenn Sie wissen, wie eine Maschine arbeitet und sich selbst verbessert. Dies kann Ihnen helfen, automatisierte Modelle zu erstellen, die sich zu besseren Versionen weiterentwickeln können.