Tak więc, patrząc na sieci neuronowe z funkcjami radialnymi, zauważyłem, że ludzie zawsze zalecają użycie 1 ukrytej warstwy, podczas gdy w wielowarstwowych sieciach neuronowych perceptronów więcej warstw uważa się za lepsze.
Biorąc pod uwagę, że sieci RBF można trenować z wersją propagacji wstecznej, czy istnieją jakieś powody, dla których głębsze sieci RBF nie będą działać, lub że warstwa RBF nie może być używana jako przedostatnia lub pierwsza warstwa w głębokiej sieci MLP? (Myślałem o przedostatniej warstwie, aby można ją było zasadniczo wyszkolić w zakresie funkcji poznanych przez poprzednie warstwy MLP)