“Interpretabiliteit” verwijst naar de mate waarin je de redenering achter een beslissing kunt begrijpen. Anderzijds stelt Machine Learning een computer in staat zijn beslissingen te verbeteren op basis van de gegevens die hij verzamelt. Zo ontstaat een machine learning-model dat de code van patronen en algoritmen uit gegevens steeds verder verbetert. Interpretabiliteit in Machine Learning betekent echter iets anders.
Als een model voor machinaal leren een lage interpreteerbaarheid heeft, zult u niet in staat zijn te begrijpen waarom het model voor machinaal leren bepaalde beslissingen neemt en andere niet. Bij een hoge interpreteerbaarheid van het model daarentegen, kunt u gemakkelijk de redenen achter de beslissingen van een machine-leermodel bepalen.
Lineaire en logistische regressie, beslisboom, enz. zijn enkele technieken van een machine-leermodel.
Belang van interpreteerbaarheid
Waarom is het volgens u belangrijk dat een machine learning model interpreteerbaar is?
Machine learning-modellen hebben talrijke toepassingen in dit digitale tijdperk. De filmaanbevelingen op streamingapplicaties en suggesties voor social media pagina’s zijn slechts het topje van de ijsberg. Chatbots met kunstmatige intelligentie (AI) kunnen interviews afnemen, online klanten helpen een aankoopbeslissing te nemen en een slimme stofzuiger aandrijven die zichzelf oplaadt en werkt.
De verdere toepassing van machine learning breidt zich uit tot zeer complexe en risicodragende scenario’s. Dure zakelijke beslissingen, het voorspellen van de kredietwaardigheid van een kandidaat bij een bank, het voorschrijven van geneesmiddelen in een ziekenhuis, en zelfs misdaadafdelingen om bewijsmateriaal te analyseren, enz.
Maar hoe kunt u mazen ontdekken in de voorspellingen en beslissingen van een machine learning model? Misschien wilt u weten waarom een model een bepaald geneesmiddel voorschrijft aan een patiënt. Stel dat u ontdekt dat een bepaalde beslissing van het machine learning-model verkeerd of onnauwkeurig is. In dat geval zou u willen weten welke algoritmen en stappen de machine heeft gebruikt om tot zo’n resultaat te komen.
Dit is waar interpreteerbare modellen voor machinaal leren doeltreffend zijn. Met de juiste technieken en implementatie helpen ze u de redenering van een leermodel te begrijpen. In tegenstelling tot verklaarbare modellen maken verklaarbare modellen gebruik van verschillende technieken (lineaire regressie, logistische regressie, beslissingsboom, enz.) en zijn ze vrij gemakkelijk te begrijpen.
Laten we eens bespreken waarom interpreteerbare modellen voor machinaal leren zo belangrijk zijn.
Gemakkelijk te begrijpen
U hebt bijvoorbeeld een model gemaakt dat uitlegt hoe lang het duurt voor een bouwproject klaar is. Hetzelfde model zou ook kunnen schatten hoeveel inkomsten het zou opleveren tijdens de eerste paar jaar van de exploitatie. Het model maakt daarbij gebruik van de gegevens die u in het model hebt ingevoerd, naast de gegevens die het van het internet heeft gehaald (markttendensen, industriële capaciteit van het gebied, inkomsten- en investeringsstatistieken van het gebied, enz.)
En voordat u een dergelijk model in de praktijk brengt, moet u de goedkeuring krijgen van de hogere leidinggevenden. Vergeet niet dat zij een model alleen zullen goedkeuren als zij het begrijpen.
Dus legt u aan uw baas uit hoe het model werkt, in eenvoudige taal en niet in technisch gebrabbel.
Een model kan u bepaalde dingen leren
Misschien wist u niet dat uw werkproces een bepaalde formule of code toepast. Een interpreteerbaar model helpt u gemakkelijk te begrijpen waarom het is gebruikt en laat u ervan leren. Hoe groter dus de interpreteerbaarheid van het model, hoe meer u ervan begrijpt.
Niet-vooringenomen en rechtvaardige beslissingen
Het is duidelijk dat het model voor machinaal leren beslissingen zal nemen op basis van de gegevens die het verzamelt en de gegevens die u er aanvankelijk in stopt. Het is niet waar dat een model altijd een onbevooroordeelde beslissing zal produceren. Als gevolg van segregatie kan er bijvoorbeeld sprake zijn van raciale profilering bij de verwerking van de locaties van bepaalde individuen. Op grond van ras kan het model een bevooroordeelde beslissing nemen.
Met een interpreteerbaar model kunt u echter bepalen of uw model een eerlijke beslissing heeft genomen. Bovendien kunt u het gemakkelijk herstellen en dergelijke moeilijkheden in de toekomst vermijden.
Voorspelling van de toekomstige prestaties van een model
Naarmate de tijd verstrijkt, kunnen de prestaties van een machine learning-model verbeteren of verslechteren. De variabelen die het gebruikt in zijn berekeningen of de gegevens die het gebruikt, kunnen verouderd raken of niet langer levensvatbaar zijn voor zijn algoritmen. Zo kan een model dat het geslacht van een individu voorspelt op basis van de informatie over zijn of haar inkomens-/loonkloof nutteloos worden als de loonkloof in onze moderne samenleving ophoudt te bestaan.
Het model voorspelt bijvoorbeeld dat personen met een inkomen van 18.000 tot 20.000 dollar vrouwelijk zijn, en personen met een inkomen van 15.000 tot 17.000 dollar mannelijk. Bij verkleining van de loonkloof kan het voor het model echter moeilijk zijn een beslissing te nemen. Als het inkomensbereik voor mannen verschuift van 15.000-17.000 naar 16.000-19.000, zou een model in dit geval mannen als vrouwen kunnen voorstellen.
U kunt dus de toekomstige prestaties van een model voorspellen en compenseren.
Een nadeel van de Machine Learning Modellen
Machine Learning Modellen zijn vatbaar voor uitbuiting. Gebruikers kunnen gemakkelijk de resultaten manipuleren die een machine-leermodel produceert.
Laten we bijvoorbeeld eens kijken naar een model dat het risico en de geloofwaardigheid van kredietkandidaten berekent. Het weet dat kandidaten met meerdere creditcards moeten worden afgewezen omdat zij een hoog risico vormen voor de terugbetaling van de lening. Maar als een kandidaat hiervan op de hoogte is, kan hij of zij al zijn of haar creditcards opzeggen voordat hij of zij als kandidaat voor de lening verschijnt.
Op die manier manipuleren ze het model om hen als geschikte kandidaten voor de lening te tonen.
Conclusie
Interpretatie in Machine Learning zorgt voor een beter begrip. Het is een functie die het gebruikers gemakkelijk maakt om eventuele fouten of vergissingen te verbeteren en te compenseren voor toekomstige verbeteringen.
Met een hogere interpreteerbaarheid kunt u een maximaal begrip krijgen van hoe een machine learning model een beslissing heeft genomen. Dit zal u toelaten om uw beslissingen te onderbouwen naar anderen toe door hen uitleg te geven via een interpreteerbaar model.
Het is een geldige overtuiging dat door te weten hoe een machine werkt en zichzelf verbetert, u uw kennis en begrip van intelligentie kunt verbeteren. Dit kan u helpen geautomatiseerde modellen te maken, die verder kunnen evolueren naar betere versies.