Sieć neuronowa jest czarną skrzynką w tym sensie, że chociaż może przybliżać dowolną funkcję, badanie jej struktury nie daje żadnego wglądu w przybliżoną strukturę funkcji.
Jako przykład, jednym z powszechnych zastosowań sieci neuronowych w działalności bankowej jest klasyfikacja kredytobiorców na „dobrych płatników” i „złych płatników”. Masz macierz cech wejściowych (płeć, wiek, dochód itp.) I wektor wyników („niewykonany”, „niewykonany” itp.). Kiedy modelujesz to za pomocą sieci neuronowej, zakładasz, że istnieje funkcja , w odpowiednim znaczeniu funkcji matematycznej. Ta funkcja f może być dowolnie złożona i może się zmieniać w zależności od rozwoju firmy, więc nie można jej uzyskać ręcznie.doRfa( C) = R
Następnie używasz sieci neuronowej do zbudowania aproksymacji która ma wskaźnik błędów akceptowalny dla twojej aplikacji. Działa to, a precyzja może być dowolnie mała - możesz rozbudować sieć, dostroić parametry szkolenia i uzyskać więcej danych, aż precyzja osiągnie twoje cele.fa
Problem czarnej skrzynki brzmi: przybliżenie podane przez sieć neuronową nie daje żadnego wglądu w formę f. Nie ma prostego związku między wagami a przybliżoną funkcją. Nawet analiza tego, która charakterystyka wejściowa jest nieistotna, stanowi otwarty problem (patrz ten link ).
Ponadto, z tradycyjnego punktu widzenia statystyki, sieć neuronowa jest modelem, którego nie można zidentyfikować: biorąc pod uwagę zestaw danych i topologię sieci, mogą istnieć dwie sieci neuronowe o różnych wagach i tym samym wyniku. To bardzo utrudnia analizę.
Jako przykład „modeli innych niż czarna skrzynka” lub „modeli interpretowalnych” masz równania regresji i drzewa decyzyjne. Pierwszy daje przybliżone przybliżenie formy f, w którym znaczenie każdego elementu jest wyraźne, drugi to graficzny opis niektórych względnych ilorazów ryzyka / szans.