Czy istnieją jakieś modele obliczeniowe neuronów lustrzanych?


17

Z Wikipedii:

Neuron lustrzany to neuron, który strzela zarówno wtedy, gdy zwierzę działa, jak i gdy zwierzę obserwuje to samo działanie, które wykonuje inny.

Lustrzane neurony są związane z uczeniem się imitacji, bardzo przydatną funkcją, której brakuje w obecnych rzeczywistych implementacjach AI. Zamiast uczyć się na przykładach nakładów-wyników (nauka nadzorowana) lub na nagrodach (nauka wzmacniająca), agent z neuronami lustrzanymi mógłby się uczyć po prostu obserwując innych agentów, przekładając ich ruchy na własny układ współrzędnych. Co mamy na ten temat na temat modeli obliczeniowych?

Odpowiedzi:


4

W tym artykule opisano neurony lustrzane w kontekście uczenia się w języku hebrajskim, mechanizmu powszechnie stosowanego w sztucznej inteligencji. Nie wiem, czy sformułowanie podane w tym artykule zostało kiedykolwiek wdrożone obliczeniowo.


0

Bez względu na to, czy „wezmę piłkę”, czy „on weźmie piłkę”, wszystkie zapisane przypadki „wzięcia” i „piłki” zostaną słabo aktywowane, a „zabranie [piłki] zostanie silnie aktywowane. Czy to nie kwalifikuje się jako „dublowanie”? Jeśli wiesz również, że „mam rękę” i „on ma rękę” itp., To kiedy „bierze kilka bloków”, nietrudno jest pomyśleć, że „mógłbym wziąć kilka bloków”.


0

W rzeczywistości mamy wiele rzeczy w tym zakresie, rejestrowanie ruchu w przypadku filmów 3D pojawia się niemal natychmiast. Problemem, jeśli o tym myślę, jest mniej sytuacja w obserwowaniu innego aktora, komputery są względnie dobre w robieniu tego już z ilością oprogramowania do rozpoznawania obrazów, jakie mamy, a raczej problemem jest zrozumienie, czy akcja przyniosła dobry wynik jako sieć, która jest czymś, czego komputery nie mogą zrobić, ponieważ nie jest to problem sieci z jednym węzłem. Na przykład zaprogramowaliśmy już komputer do rozumienia ludzkiego języka (prawdopodobnie Watson), ale nawet Watson nie rozumiał pojęcia, że ​​powiedzenie „f ***” jest złe. (Spójrz na to, to zabawna historia poboczna.)

Ale chodzi o to, że algorytmy uczenia się nie są prawdziwym uczeniem się w pewnym sensie, ponieważ komputer nie ma obecnie poczucia „dobrego wyniku”, dlatego na tym etapie uczenie się obserwacji jest bardzo ograniczone w pewnym sensie do „małpy widzą, małpy robią”.

Być może najbliższą rzeczą, o której kiedykolwiek czytałem w tym temacie, były boty poszukiwawczo-ratownicze, które znajdowały się w sieci i nadawały się nawzajem, gdy jeden z nich został zniszczony, ponieważ boty wiedziały, że obszar jest czymś, czego należy unikać.

W przeciwnym razie myślę, że to jest problem z nauką obserwacyjną. Osoba może zaobserwować, że uderzenie kogoś zwykle spowoduje, że zostaniesz trafiony, komputer będzie obserwował i papugował akcję, dobrą lub złą.

Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.