Odpowiedzi:
Perceptron jest zawsze przekazywany do przodu , to znaczy wszystkie strzałki idą w kierunku wyjścia. Sieci neuronowe ogólnie mogą mieć pętle, a jeśli tak, często nazywane są sieciami rekurencyjnymi . Sieć rekurencyjna jest o wiele trudniejsza do wyszkolenia niż sieć feedforward.
Ponadto zakłada się, że w perceptronie wszystkie strzałki przechodzą od warstwy do warstwy , i jest również zwykle (na początek mając), że wszystkie łuki z warstwy do są obecne.
Wreszcie posiadanie wielu warstw oznacza więcej niż dwie warstwy, co oznacza, że masz ukryte warstwy. Perceptron to sieć z dwiema warstwami, jedną wejściową i jedną wyjściową. Sieć wielowarstwowa oznacza, że masz co najmniej jedną ukrytą warstwę (nazywamy wszystkie warstwy między warstwami wejściową i wyjściową ukrytą).
Kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowym Perceptronem?
Sztuczna sieć neuronowa, która ma warstwę wejściową, warstwę wyjściową i dwie lub więcej trenowalnych warstw obciążeniowych (składających się z Perceptronów) nazywa się perceptronem wielowarstwowym lub MLP.
A kiedy mówimy, że sztuczna sieć neuronowa jest wielowarstwowa?
Można powiedzieć, że jest to sieć wielowarstwowa, jeśli ma dwie lub więcej warstw, które można trenować.
Czy termin perceptron jest powiązany z regułą uczenia się w celu aktualizacji wag?
Nie. Istnieje wiele różnych zasad uczenia się, które można zastosować do zmiany ciężarów w celu nauczenia perceptronu. Termin perceptron sam w sobie nie pociąga za sobą żadnej konkretnej reguły uczenia się.
Czy jest to związane z jednostkami neuronowymi?
Nie jestem pewien, co przez to rozumiesz.
Możesz przeczytać więcej w tej bezpłatnej książce http://www.dkriesel.com/_media/science/neuronalenetze-en-zeta2-2col-dkrieselcom.pdf
Z Wikipedii :
W kontekście sieci neuronowych perceptron jest sztucznym neuronem wykorzystującym funkcję kroku Heaviside jako funkcję aktywacji.
Zatem perceptron jest specjalnym typem jednostki lub neuronu. Stąd wielowarstwowy perceptron jest podzbiorem wielowarstwowych sieci neuronowych.