Ten post został bardzo zaktualizowany. Na górze możesz zobaczyć aktualizacje linków. Poniżej warianty wstępnej odpowiedzi. W przypadku krótkiej wersji: sukcesy splotowych sieci neuronowych i głębokiego uczenia się wyglądają jak rodzaj rewolucji galilejskiej. Z praktycznego punktu widzenia klasyczne przetwarzanie sygnału lub wizja komputerowa są martwe ... pod warunkiem, że masz wystarczającą ilość oznakowanych danych, nie przejmujesz się wyraźnymi błędami klasyfikacji ( głębokie wady ), masz nieskończoną energię do przeprowadzenia testów bez myślenia o śladzie węglowym , i nie zawracaj sobie głowy racjonalnymi wyjaśnieniami. W przypadku innych sprawiło to, że przemyśleć wszystko, co robiliśmy wcześniej: ekstrakcję funkcji, optymalizację (por. Mój kolega J.-C. Pesquet nad Deep Strukturami Sieci Neuronowych Rozwiązywanie Nierówności Wariacyjnych), niezmienność, kwantyfikacja itp. Z tego wynikają naprawdę interesujące badania, które, mam nadzieję, nadążają za mocno ugruntowanymi zasadami i podobnymi wynikami.
Zaktualizowane linki:
Przedstawiamy naturalne przykłady przeciwników - rzeczywiste, niezmodyfikowane i naturalnie występujące przykłady, które powodują znaczną degradację dokładności klasyfikatora. Wyszukujemy 7500 naturalnych przykładów przeciwników i publikujemy je w zestawie testowym klasyfikatora ImageNet, który nazywamy ImageNet-A. Ten zestaw danych służy jako nowy sposób pomiaru odporności klasyfikatora. Podobnie jak przykłady przeciwników l_p, przykłady ImageNet-A z powodzeniem przenoszą się do niewidzialnych lub czarnych skrzynek klasyfikujących. Na przykład w ImageNet-A DenseNet-121 uzyskuje około 2% dokładności, spadek dokładności około 90%. Odzyskanie tej dokładności nie jest proste, ponieważ przykłady ImageNet-A wykorzystują głębokie wady obecnych klasyfikatorów, w tym nadmierną zależność od kolorów, tekstur i wskazówek tła. Obserwujemy, że popularne techniki treningowe mające na celu poprawę odporności mają niewielki wpływ, ale pokazujemy, że niektóre zmiany architektoniczne mogą zwiększyć odporność na naturalne przykłady przeciwników. Konieczne są dalsze badania, aby umożliwić solidne uogólnienie tego twardego zestawu testowego ImageNet.
- 2019/05/03: Głębokie uczenie się: ostatnia granica przetwarzania sygnałów i analizy szeregów czasowych? „W tym artykule chcę pokazać kilka obszarów, w których sygnały lub szeregi czasowe są niezbędne”
- 2018/04/23: Właśnie wróciłem z corocznej międzynarodowej konferencji na temat akustyki, przetwarzania mowy i sygnałów, ICASSP 2018 . Byłem zdumiony ilością artykułów, które w pewnym stopniu opierają się na głębokim uczeniu się, głębokich sieciach itp. Dwa z czterech plebaniów (Alex Acero i Yann LeCun) poświęcone były temu tematowi. Jednocześnie większość badaczy, których spotkałam, żartowała sobie z tego powodu („Przepraszam, mój plakat jest na bankach filtrów, a nie na głębokim uczeniu się”, „Nie interesuje mnie to, mam małe zbiory danych”) lub zastanawiałem się nad uzyskaniem 0,5% na wielkie wyzwania i utratą zainteresowania modelowaniem fizyki lub statystycznych priorytetów.
- 2018/01/14: Czy Deep Net See A Cat? , od „abstrakcyjnego kota”, po „najlepszego kota” odwróconego, narysowanego itp. i jakoś zaskakujące wyniki na szkicach
- 2017/11/02: dodano odniesienia do rozpraszania transformacji / sieci
- 2017/10/21: Przegląd splotowych sieci neuronowych dla odwrotnych problemów w obrazowaniu
- Dogłębne uczenie się i jego zastosowania w przetwarzaniu sygnałów i informacji , IEEE Signal Processing Magazine, styczeń 2011 r
Informacje na temat głębokiego uczenia „krokowe” w standardowym przetwarzaniu sygnału / obrazu można znaleźć na dole. Michael Elad właśnie napisał Deep, Deep Trouble: Wpływ głębokiego uczenia się na przetwarzanie obrazu, matematykę i ludzkość (SIAM News, 2017/05), fragment:
Potem sieci neuronowe nagle wróciły z zemstą.
Ta trybuna jest interesująca, ponieważ pokazuje przejście od tradycyjnego „przetwarzania obrazu”, próbującego modelować / rozumieć dane, do dziedziny poprawności, bez tak dużego wglądu.
Ta domena ewoluuje dość szybko. Nie oznacza to, że ewoluuje w jakimś zamierzonym lub stałym kierunku. Ani dobrze, ani źle. Ale dziś rano usłyszałem następujące powiedzenie (czy to żart?):
zły algorytm z ogromnym zestawem danych może działać lepiej niż inteligentny algorytm z danymi pauce .
Oto moja bardzo krótka próba: głębokie uczenie się może zapewnić najnowocześniejsze wyniki, ale nie zawsze rozumie się dlaczego , a część naszej pracy naukowej polega na wyjaśnianiu, dlaczego rzeczy działają, jaka jest zawartość danych itd.
Dogłębne uczenie się wymaga (ogromnych) dobrze oznakowanych baz danych. Za każdym razem, gdy tworzysz obrazy na pojedynczych lub pojedynczych obrazach (tj. Bez ogromnej bazy danych z tyłu), szczególnie w miejscach, w których mało prawdopodobne jest uzyskanie „bezpłatnych oznaczonych obrazów użytkownika” (w uzupełniającym zestawie zestawu „ śmieszne koty grające w gry i twarze ”) , możesz trzymać się tradycyjnego przetwarzania obrazu przez pewien czas i dla zysku. Ostatni tweet podsumowuje, że:
(wiele) oznaczonych danych (bez brakujących zmiennych) stanowi przełom (i jest niepotrzebny) w wielu domenach
Jeśli zostaną zabici (co wątpię w krótkim terminie), jeszcze nie umarli. Tak więc wszelkie umiejętności zdobyte w przetwarzaniu sygnału, analizie obrazu i wizji komputerowej pomogą ci w przyszłości. Jest to na przykład omówione w poście na blogu: Czy zapomnieliśmy o geometrii w wizji komputerowej? autor: Alex Kendall:
Głębokie uczenie się zrewolucjonizowało wizję komputerową. Obecnie nie ma wielu problemów, w których najskuteczniejsze rozwiązanie nie jest oparte na kompleksowym modelu głębokiego uczenia się. W szczególności sieci neuronowe zwojowe są popularne, ponieważ zwykle działają dość dobrze po wyjęciu z pudełka. Jednak te modele są w dużej mierze dużymi czarnymi skrzynkami. Jest wiele rzeczy, których o nich nie rozumiemy.
Konkretnym przykładem może być: kilka bardzo ciemnych (np. Z nadzoru) obrazów z tej samej lokalizacji, wymagających oceny, czy jeden z nich zawiera konkretną zmianę, którą należy wykryć, jest potencjalnie kwestią tradycyjnego przetwarzania obrazu, więcej niż Głębokie uczenie się (na dzień dzisiejszy).
Z drugiej strony, tak samo jak Deep Learning na dużą skalę, może prowadzić do błędnej klasyfikacji małych zestawów danych, co może być nieszkodliwe „średnio” dla niektórych aplikacji. Dwa obrazy, które nieznacznie różnią się od ludzkiego oka, można sklasyfikować inaczej poprzez DL. Lub losowe obrazy można ustawić na określoną klasę. Zobacz na przykład Głębokie sieci neuronowe można łatwo oszukać: Prognozy o wysokim poziomie ufności dla nierozpoznawalnych obrazów (Nguyen A, Yosinski J, Clune J. Proc. Computer Vision and Pattern Recognition 2015) lub Czy głębokie uczenie ma głębokie wady? , w przypadku negatywnych negatywów:
Sieć może źle sklasyfikować obraz po tym, jak naukowcy zastosowali pewną niedostrzegalną perturbację. Zaburzenia można znaleźć, dostosowując wartości pikseli, aby zmaksymalizować błąd prognozowania.
Z całym szacunkiem dla „głębokiego uczenia się”, pomyśl o „masowej produkcji odpowiadającej zarejestrowanemu, znanemu, masowo uzasadnionemu lub spodziewanemu zachowaniu” w porównaniu z „pojedynczym dziełem”. Żadna nie jest lepsza (jeszcze) w jednej skali indeksu. Oba mogą przez jakiś czas współistnieć.
Jednak głębokie uczenie się przenika wiele nowych dziedzin, jak opisano w odnośnikach poniżej.
Na szczęście niektórzy ludzie próbują znaleźć matematyczne uzasadnienie głębokiego uczenia się, czego przykładem są sieci rozproszone lub transformacje zaproponowane przez Stéphane Mallata i współautorów, patrz strona ENS dotycząca rozpraszania . Analiza harmoniczna i operatory nieliniowe, funkcje Lipschitza, niezmienność translacji / rotacji, lepsze dla przeciętnego przetwarzającego sygnał. Zobacz na przykład Understanding Deep Convolutional Networks .