Masz pomysł na zastosowanie głębokiego snu?


9

Ostatnio Google opublikował interesujący głęboki sen. Czy oprócz generowania sztuki, takiego jak http://deepdreamgenerator.com/ , widzisz jakieś potencjalne zastosowania głębokiego snu w wizji komputerowej lub uczeniu maszynowym?

Odpowiedzi:


4

Istnieje już co najmniej jedna aplikacja, jeśli interpretujesz „aplikację” wystarczająco szeroko: Oddzielona głęboka sieć neuronowa do częściowo nadzorowanej segmentacji semantycznej według Honga, Noha i Hana . Używają go do segmentacji obrazu . Standardowe sieci rozpoznawania obrazów mogą dać ci obwiednię tylko dla każdego obiektu rozpoznanego na obrazie. Jeśli chcesz wiedzieć, które piksele stanowią ten obiekt, musisz dokonać segmentacji obrazu.

Zasadniczo, po znalezieniu psa na obrazie, architektura Hong et al propaguje wsteczność przez sieć neuronową aż do poziomu pikseli, aby znaleźć piksele, które były najbardziej odpowiedzialne za pojawienie się psa. (Następnie używają tej mapy cieplnej jako danych wejściowych do nadzorowanej sieci segmentacji, w tej części nie ma głębokich marzeń).

Jest to już rodzaj dowodu na istnienie, że pomysł Deep Dream może być przydatny poza manipulacją obrazem. Ale nie bagatelizowałbym też samej manipulacji obrazem. Wspominam o dwóch rzeczach, które nie są bezpośrednimi zastosowaniami Deep Dreaming i obecnie ich nie mamy, ale widzę pewną drogę z oryginalnego algorytmu Deep Dream w kierunku tych:

  • Upiększające zdjęcia oraz ludzkie twarze i ciała. (Automatyzacja działania retuszera programu Photoshop).
  • Skalowanie obrazu w stylu CSI z fałszywymi, ale wiarygodnymi interpolowanymi szczegółami.

2

Oto kolejna aplikacja, która jest bardzo nowa i właśnie pokazana w ciągu ostatnich kilku tygodni. komputery filtrują obrazy, aby wyglądały jak obrazy w charakterystycznym stylu różnych artystów, np. Van Gogha, Picassa itp. i wydaje się to możliwe, ponieważ technologia może obejmować różne style artystyczne, w niektórych przypadkach może być stosowana do wykrywania fałszerstw punkt. (historycznie w tym obszarze stosuje się wiele bardzo zaawansowanych technik analizy). zauważ, że metody filtrowania są bardzo popularne na Instagramie, więc wydaje się prawdopodobne, że będą one dostępne w handlu w pewnym momencie.


i jak zauważyłeś i wspomniałeś gdzie indziej, jest już dostępny filtr „z półki” na Iphone / Android Dreamify
vzn

inna aplikacja: generowanie symulowanych / wirtualnych środowisk dla gier lub filmów. podobny do generowania proceduralnego
vzn

Ponadto deepart.io wydaje się być przedsięwzięciem komercyjnym opartym na technice z pierwszego linku.
Neil Slater

1

Nie można udowodnić negatywu, ale poza tym, że ogólnie używa się tego samego systemu wykrywania wzorów do wykrywania kształtów / obrazów i zastępuje je innymi podobnymi obrazami, być może do zastosowania w automatycznej korekcji obrazu lub podobnym, nie sądzę, że ma prawdziwy potencjał poza modyfikowaniem zdjęć.

Być może będę musiał usunąć tę odpowiedź, jeśli okaże się, że jest niepoprawna.


1
Cóż, istnieje uzasadnione zastosowanie jako narzędzie do wizualizacji / introspekcji, aby znaleźć wzorce, których nauczyła się twoja sieć. W tym linku googleresearch.blogspot.ch/2015/06/… zobacz dyskusję na temat klasyfikatora hantli. Nie jestem pewien, czy liczy się to jako prawdziwy cel, ponieważ jest samowystarczalny
Neil Slater,

Myślę, że to właśnie sprawia, że ​​trudno jest odpowiedzieć na pytanie, są głębokie marzenia, które mają szerokie zastosowanie w zależności od tego, jak daleko się posuniesz, ale czy nadal uważa się je za „zastosowanie głębokiego snu”? Wydaje mi się, że głębokie marzenie polega na zastosowaniu tych technik - co można zastosować gdzie indziej. Ale obecnie nie mogę wyświetlić tego linku, więc może się mylę.
DoubleDouble


0

Filtr z wulgaryzmami z widocznym kontekstem.

W innych światach renderowanie realistycznych fizycznie i odpowiednich tematycznie / stylistycznie ubrań dla osób, które nie są wystarczająco ubrane, aby obraz był bezpieczniejszy dla rodziny.

Taki jest pomysł, jednak w tej chwili jest on zarówno zawodny, jak i niedokładny.

Jednak bardziej precyzyjne dostosowanie parametrów snu, niż mam do niego dostęp, lub być może po prostu użycie większej liczby iteracji i niższej wartości „oktawy” niż mogę określić, powinno sprawić, że wyniki będą znacznie bardziej wiarygodne.


Przykłady:

Przed: http://s22.postimg.org/5sjpqbzoh/image.jpg

Po: http://s22.postimg.org/wew6fb3vl/image.jpg

.

http://s13.postimg.org/c4urz139j/image.jpg


Czy możesz to zwiększyć, wyjaśniając, co masz na myśli w tym przykładzie? w przeciwnym razie to tylko linki.
Sean Owen

1
Myślę, że problem z tym pomysłem polega na tym, że tak naprawdę nie jest on zgodny z tym, jak działa Deep Dreaming. Trzeba by było wytrenować sieć rozpoznawania „odpowiedniej odzieży”, ale nie ubierałby wówczas odpowiednio ubranych postaci - zamiast tego wyświetlałby rzeczy przypominające draperię w miejscach, które już wyglądały trochę jak kawałki odpowiedniego stroju. Tzn. Bardziej prawdopodobne jest, że z pnia drzewa zrobi się nogawkę spodni, niż z sukienki na dziewczynę w bikini. Deep Dreaming nie wybiera celów do zastąpienia, jak silnik obrazów o regularnej ekspresji, halucynuje dopasowania w podobny sposób.
Neil Slater,

Zobacz cs.stackexchange.com/questions/47262/... Nie mogę wykazać ani udowodnić wiele, ponieważ są to głównie osobiste doświadczenia i obserwacje, a ja nie dawałem tego wielu nagim ludziom, ale myślę, że jest mądrzejszy niż dajesz zasługa, choć doceniam, że moje przykłady rzeczywiście wyglądają na dość poskładane :-P
alan2here

1
Zdjęcia są dobre - jedne z najciekawszych, jakie widziałem w Deep Dreaming. Myślę jednak, że poszukiwanie głębszego znaczenia i struktury wykraczającej poza sprytne dopasowanie wzorców przypomina szukanie ogólnej inteligencji w wyciętej siatkówce. . . istnieje poziom, do którego nie doprowadzą nas większe / szybsze / głębsze sieci wyszkolone na zdjęciach - potrzeba czegoś więcej.
Neil Slater,
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.