Ostatnio w komentarzach coraz częściej spotykam się z opinią, że nie sztuką jest stworzyć model, ale sztuką jest (powinno?) interpretacja uzyskanych wyników w kontekście problemu, który rozwiązujemy. Z drugiej strony, są też całe kursy od niesamowitych wymiataczy (np. course.fast.ai), których motto brzmi mniej więcej - zacznij jak najszybciej, a później będziemy się wgłębiać w detale. … Czytaj dalej shap.summary_plot, czyli kilka kolejnych słów o zaglądaniu do modelu
Tag: black box
Pakiet auditor – weryfikacja, walidacja i analiza błędów modelu w R
Jakiś czas temu pisałem o narzędziach Pythonowych służących do zaglądania do wnętrza modelu predykcyjnego. Poświęciłem temu tematowi trzy artykuły (ELI5 i czarne pudełka, Partial Dependence Plots, Co to jest SHapley Additive exPlanations (SHAP)?) i pewnie poświęcę jeszcze kilka. Ostatnio natrafiłem na podobne narzędzie, ale przygotowane dla języka R. Narzędzie to nazywa się auditor i chociaż … Czytaj dalej Pakiet auditor – weryfikacja, walidacja i analiza błędów modelu w R
Co to jest SHapley Additive exPlanations (SHAP)?
Drogi czytelniku, być może miałeś kiedyś do czynienia z Pythonowym modułem SHAP. Jeśli nie, to nic straconego, bo w tym artykule pokażę jak go użyć do wytłumaczenia wyniku predykcji. Nie musisz się też dziwić, jeśli o nim nie słyszałeś. Ja też dowiedziałem się o nim całkiem niedawno i to przypadkiem przy okazji oglądania jakiegoś video … Czytaj dalej Co to jest SHapley Additive exPlanations (SHAP)?
Partial Dependence Plots
Jakiś czas temu poznaliśmy ciekawy sposób na określanie ważności kolumn w ramce danych - permutation importance. Dzięki tej metodzie możemy określić ważność kolumn nawet w modelach należących do kategorii black box - czyli takich, które nie oferują przejrzystego dla człowieka procesu podejmowania decyzji. Jako efekt naszej pracy otrzymujemy wytrenowany model z jakimś wynikiem score. Jesteśmy … Czytaj dalej Partial Dependence Plots
ELI5 i czarne pudełka
Gdy tworzymy model, któremu jest bardzo blisko do typowego białego pudełka (np. drzewo decyzyjne), to bardzo łatwo jest nam zorientować się, które cechy naszych obserwacji są istotne. Nieco inaczej sprawa ma się w modelach, które bardziej przypominają czarne pudełka. Modele takie, mimo iż niczego nie ukrywają, nie są w stanie wskazać nam które informacje były dla … Czytaj dalej ELI5 i czarne pudełka