Jak rozumiem, sztuczna sieć neuronowa perceptron / jednowarstwowa z funkcją aktywacji logistycznej sigmoidu jest tym samym modelem co regresja logistyczna. Oba modele podano w równaniu:
Algorytm uczenia się perceptronu jest online i oparty na błędach, podczas gdy parametry regresji logistycznej można nauczyć przy użyciu różnych algorytmów wsadowych, w tym spadku gradientu i BFGS o ograniczonej pamięci, lub algorytmu online, takiego jak gradient gradientu stochastycznego. Czy są jakieś inne różnice między regresją logistyczną a sigmoidalnym perceptronem? Czy należy oczekiwać, że wyniki regresora logistycznego wyszkolonego ze stochastycznym spadkiem gradientu będą podobne do perceptronu?