Wyobraź sobie, że 100 razy pokazujesz sieci neuronowej zdjęcie lwa i oznaczysz je słowem „niebezpieczne”, dzięki czemu dowiadujesz się, że lwy są niebezpieczne.
Teraz wyobraź sobie, że wcześniej pokazałeś mu miliony zdjęć lwów i alternatywnie oznaczyłeś je jako „niebezpieczne” i „nie niebezpieczne”, tak że prawdopodobieństwo, że lew będzie niebezpieczny, wynosi 50%.
Ale te ostatnie 100 razy sprawiły, że sieć neuronowa bardzo pozytywnie oceniła lwa jako „niebezpiecznego”, ignorując w ten sposób ostatni milion lekcji.
Dlatego wydaje się, że istnieje wada w sieciach neuronowych, polegająca na tym, że mogą zbyt szybko zmienić zdanie w oparciu o najnowsze dowody. Zwłaszcza jeśli poprzednie dowody były w środku.
Czy istnieje model sieci neuronowej, który śledzi, ile dowodów widział? (Czy byłoby to równoznaczne z obniżeniem współczynnika uczenia się o gdzie jest liczbą prób?)