Powszechne stwierdzenie, że sztuczne sieci neuronowe są inspirowane strukturą neuronową mózgu, jest tylko częściowo prawdziwe.
Prawdą jest, że Norbert Wiener, Claude Shannon, John von Neuman i inni rozpoczęli ścieżkę do praktycznej sztucznej inteligencji, rozwijając coś, co wtedy nazywali mózgiem elektronicznym. To także prawda
- Sztuczne sieci mają funkcje zwane aktywacjami,
- Są podłączone do relacji wiele do wielu, takich jak neurony biologiczne i
- Są zaprojektowane tak, aby nauczyć się optymalnego zachowania,
ale taki jest zakres podobieństwa. Komórki w sztucznych sieciach, takich jak MLP (wielowarstwowe perceptrony) lub RNN (rekurencyjne sieci neuronowe) nie są jak komórki w sieciach mózgowych.
Perceptron, pierwsze oprogramowanie dźgające w tablice rzeczy, które się aktywują, nie był szeregiem neuronów. Było to zastosowanie podstawowej informacji zwrotnej obejmującej gradienty, która była powszechnie stosowana w inżynierii, odkąd odśrodkowy gubernator Jamesa Watta był modelowany matematycznie przez Gaussa. Do stopniowej aktualizacji macierzy tłumienia zastosowano kolejne przybliżenie, które było stosowane od stuleci. Macierz została pomnożona przez wektor zasilający tablicę identycznych funkcji aktywacyjnych w celu uzyskania wyniku. Otóż to.
Rzutowanie w drugim wymiarze na wielowarstwową topologię było możliwe dzięki uświadomieniu sobie, że jakobian można wykorzystać do wytworzenia sygnału korygującego, który odpowiednio rozłożony jako ujemne sprzężenie zwrotne do warstw może dostroić macierz tłumienia sekwencji perceptrony i sieć jako całość zbiegałyby się po zadowalającym zachowaniu. W sekwencji perceptronów każdy element nazywa się warstwą. Mechanizm sprzężenia zwrotnego nazywa się teraz propagacją wsteczną.
Matematyka używana do korygowania sieci nazywa się opadaniem gradientu, ponieważ jest jak odwodniony ślepiec, który używa gradientu terenu w celu znalezienia wody, a problemy z tym związane są podobne. Może znaleźć lokalne minima (niski punkt), zanim znajdzie słodką wodę i zbiegnie się w chwili śmierci zamiast nawodnienia.
Nowsze topologie są dodatkiem do już istniejących prac związanych z konwolucją wykorzystywanych w cyfrowym przywracaniu obrazów, sortowaniu poczty i aplikacjach graficznych w celu stworzenia rodziny topologii CNN i genialnego wykorzystania czegoś, co przypomina równowagę chemiczną z chemii z pierwszego roku w celu połączenia kryteriów optymalizacji, tworząc rodzina topologii GAN.
Deep jest po prostu synonimem wielu w większości kontekstów AI. Czasami wnioskuje o złożoności w topologii wyższego poziomu (powyżej produktów macierzy wektorowej, aktywacji i zwojów).
Aktywne badania są prowadzone przez tych, którzy są świadomi, jak różne są te głębokie sieci od tego, co naukowcy neuronowi odkryli dziesiątki lat temu w tkance mózgowej ssaków. Obecnie odkrywa się coraz więcej czynników różnicujących, gdy bada się obwody uczenia się i neurochemię w mózgu z perspektywy genomowej.
- Plastyczność neuronów ... zmiana topologii obwodu z powodu wzrostu dendrytu i aksjomatu, śmierci, przekierowania i innych zmian kształtu
- Złożoność topologiczna ... duża liczba aksjomatów krzyżuje się bez interakcji i jest celowo chroniona przed przenikaniem (niezależnym) najprawdopodobniej, ponieważ byłoby niekorzystne, gdyby pozwalały im się połączyć [uwaga 1]
- Sygnalizacja chemiczna ... mózgi ssaków mają dziesiątki neuro-przekaźników i związków neuro-regulacji, które mają regionalne działanie na obwody [Uwaga 2]
- Organelle ... żywe komórki mają wiele podstruktur i wiadomo, że kilka typów ma złożone relacje z transmisją sygnału w neuronach
- Zupełnie inna forma aktywacji ... aktywacje we wspólnych sztucznych sieciach neuronowych są po prostu funkcjami skalarów porządkowych zarówno dla zasięgu, jak i dziedziny ... neurony ssaków działają w funkcji zarówno amplitudy, jak i względnej czasowej bliskości przychodzących sygnałów [Uwaga 3]
[1] Jak na ironię, topologia jest, jak na ironię, podzbiorem architektury (w dziedzinie projektowania budynków, udostępniania sieci, analizy WWW i sieci semantycznych), ale jednocześnie topologia jest, o wiele więcej niż architektura, w radykalnym centrum obu sztucznej inteligencji matematyka i skuteczna aktualizacja w systemach sterowania
[2] Rola chemii może być niezbędna do uczenia się zachowań społecznych i reprodukcyjnych, które są powiązane z propagacją informacji DNA, łącząc w złożony sposób uczenie się na poziomie ekosystemu i mózgu. Ponadto uczenie się w perspektywie krótko- i długoterminowej dzieli uczenie się mózgu na dwie odrębne możliwości.
[3] Wpływ synchronizacji sygnałów przychodzących na aktywację neuronu biologicznego jest do pewnego stopnia rozumiany, ale może mieć znacznie większy wpływ niż wyjście neuronu. Może to również wpływać na plaktyczność i chemię, a organelle mogą w tym odgrywać rolę.
streszczenie
Biblioteki uczenia maszynowego symulują ludzki mózg tak samo, jak lalki Barbie i Ken symulują prawdziwą parę.
Niemniej jednak w dziedzinie głębokiego uczenia się powstają niezwykłe rzeczy i nie zaskoczyłoby mnie, gdyby autonomiczne pojazdy stały się w pełni autonomiczne w ciągu naszego życia. Nie polecam też żadnym studentom, aby zostali programistami. Komputery prawdopodobnie kodują znacznie lepiej niż ludzie i rzędy wielkości szybciej, a być może wkrótce. Niektóre zadania nie są tego rodzaju, co ewolucja w biologii, a komputery mogą przekroczyć ludzkie możliwości po zaledwie kilku dekadach badań, ostatecznie przekraczając ludzkie możliwości o kilka rzędów wielkości.