“Interpretowalność” odnosi się do stopnia, w jakim można zrozumieć rozumowanie stojące za daną decyzją. Z drugiej strony, Machine Learning pozwala komputerowi poprawić swoje decyzje na podstawie danych, które gromadzi. W ten sposób tworzy model uczenia maszynowego, który ciągle ulepsza kod wzorców i algorytmów z danych. Interpretowalność w Machine Learning oznacza jednak coś innego.
Jeśli model uczenia maszynowego ma niską interpretowalność, nie będziesz w stanie zrozumieć, dlaczego model uczenia maszynowego podejmuje pewne decyzje, a nie inne. Przeciwnie, przy wysokiej interpretowalności modelu, można łatwo określić przyczyny decyzji podejmowanych przez model uczenia maszynowego.
Regresja liniowa i logistyczna, drzewo decyzyjne itp. to niektóre techniki modelu uczenia maszynowego.

Znaczenie interpretowalności

Jak myślisz, dlaczego ważne jest, aby model uczenia maszynowego był interpretowalny?
Modele uczenia maszynowego mają wiele zastosowań w obecnej erze cyfrowej. Rekomendacje filmów w aplikacjach streamingowych i sugestie stron w mediach społecznościowych to tylko wierzchołek góry lodowej. Chatboty sztucznej inteligencji (AI) mogą przeprowadzać wywiady, pomagać klientom online w podjęciu decyzji o zakupie, a także zasilać inteligentny odkurzacz, który ładuje się i działa samodzielnie.
Dalsze zastosowanie uczenia maszynowego rozszerza się na bardzo złożone i obarczone ryzykiem scenariusze. Drogie decyzje biznesowe, przewidywanie wiarygodności kredytowej kandydata w banku, recepty na leki w szpitalu, a nawet wydziały kryminalne do analizy dowodów itp.
Ale jak można wykryć luki w przewidywaniach i decyzjach modelu uczenia maszynowego? Możesz chcieć wiedzieć, dlaczego model przepisuje pacjentowi określony lek. Załóżmy, że dowiesz się, że pewna decyzja modelu uczenia maszynowego jest błędna lub niedokładna. W takim przypadku, chciałbyś znać algorytmy i kroki, które maszyna wykorzystała do uzyskania takiego wyniku.
To właśnie tutaj skuteczne są interpretowalne modele uczenia maszynowego. Dzięki odpowiednim technikom i implementacji, pomagają one zrozumieć rozumowanie modelu uczącego. W przeciwieństwie do modeli objaśnialnych, modele interpretowalne wykorzystują różne techniki (regresja liniowa, regresja logistyczna, drzewo decyzyjne, itd.) i są dość łatwe do zrozumienia.
Omówmy teraz, dlaczego interpretowalne modele uczenia maszynowego są tak ważne.

Łatwość zrozumienia

Na przykład, stworzyłeś model, który wyjaśnia, jak długo potrwa ukończenie projektu budowlanego. Ten sam model może również oszacować, jak duże przychody wygeneruje on w ciągu pierwszych kilku lat eksploatacji. W tym celu wykorzystuje dane, które umieściłeś w modelu, a także te, które pozyskuje z Internetu (trendy rynkowe, potencjał przemysłowy okolicy, statystyki dotyczące dochodów i inwestycji w okolicy itp.)
A zanim wdrożysz taki model do biznesu, potrzebujesz zgody kierownictwa wyższego szczebla. Pamiętaj, że jedynym sposobem, aby zatwierdzili oni model, jest jego zrozumienie.
Tak więc, interpretowalność wyjaśni Twojemu szefowi, jak działa model, używając prostego języka, a nie technicznego bełkotu.

Model może nauczyć Cię pewnych rzeczy

Być może nie wiedziałeś, że Twój proces roboczy stosuje pewną formułę lub kod. Interpretowalny model pomoże Ci łatwo zrozumieć, dlaczego został on użyty i pozwoli Ci wyciągnąć z niego wnioski. Dlatego też, im wyższa interpretowalność modelu, tym więcej zrozumiesz.

Brak uprzedzeń i sprawiedliwe decyzje

Oczywistym jest, że model uczenia maszynowego będzie podejmował decyzje na podstawie danych, które zbiera i tych, które początkowo do niego wprowadziłeś. Nie jest prawdą, że model zawsze będzie produkował bezstronną decyzję. Na przykład, ze względu na segregację, może wystąpić profilowanie rasowe w przetwarzaniu niektórych lokalizacji jednostki. Ze względu na rasę, model może podjąć stronniczą decyzję.
Jednak dzięki interpretowalnemu modelowi możesz określić, czy Twój model podjął sprawiedliwą decyzję. Co więcej, można ją łatwo naprawić i uniknąć takich problemów w przyszłości.

Prognozowanie przyszłej wydajności modelu

W miarę upływu czasu, wydajność modelu uczenia maszynowego może się poprawiać lub pogarszać. Zmienne, które wykorzystuje w swoich obliczeniach lub dane, które wykorzystuje mogą stać się przestarzałe lub nie być już opłacalne dla jego algorytmów. Na przykład model, który przewiduje płeć osoby na podstawie informacji o jej dochodach/różnicy w zarobkach, może stać się bezużyteczny, jeśli różnice w zarobkach w naszym nowoczesnym społeczeństwie przestaną istnieć.
Na przykład, model przewiduje, że osoby o dochodach 18 000$ – 20 000$ są kobietami, a osoby o dochodach 15 000$ – 17 000$ są mężczyznami. Jednak w przypadku zmniejszenia różnic w zarobkach model może mieć trudności z podjęciem decyzji. Jeśli przedział dochodów dla mężczyzn przesunie się z 15 000-17 000 do 16 000-19 000, w tym przypadku model może sugerować mężczyzn jako kobiety.
W ten sposób można przewidzieć przyszłą wydajność modelu i zrekompensować ją.

Wada modeli uczenia maszynowego

Modele uczenia maszynowego posiadają podatność na wykorzystanie. Użytkownicy mogą łatwo manipulować wynikami, które model uczenia maszynowego produkuje.
Na przykład, rozważmy model, który działa w celu obliczenia ryzyka i wiarygodności kandydatów do kredytu. Wie on, aby odrzucić kandydatów z wieloma kartami kredytowymi, ponieważ stanowią oni wysokie ryzyko dla spłaty pożyczki. Jednakże, jeśli kandydat jest tego świadomy, może anulować wszystkie swoje karty kredytowe przed pojawieniem się jako kandydat do pożyczki.
W ten sposób manipulują modelem, aby ten pokazał ich jako odpowiednich kandydatów do pożyczki.

Wnioski

Interpretowalność w uczeniu maszynowym pozwala na lepsze zrozumienie. Jest to cecha, która sprawia, że użytkownicy mogą łatwo poprawić wszelkie pomyłki lub błędy i zrekompensować je w przyszłości.
Dzięki wyższej interpretowalności można osiągnąć maksymalne zrozumienie tego, w jaki sposób model uczenia maszynowego podjął decyzję. Pozwoli Ci to poprzeć swoje decyzje przed innymi, wyjaśniając im to za pomocą interpretowalnego modelu.
Jest to uzasadnione przekonanie, że wiedząc, w jaki sposób maszyna działa i doskonali się, można poprawić swoją wiedzę i zrozumienie inteligencji. Może to pomóc w tworzeniu zautomatyzowanych modeli, które mogą dalej rozwijać się w lepsze wersje.