Pytania otagowane jako neural-network

4
Czy sieci neuronowe dogłębnego uczenia będą działać na komputerach kwantowych?
Dogłębne uczenie się (wiele warstw sztucznych sieci neuronowych wykorzystywanych w nadzorowanych i nadzorowanych zadaniach uczenia maszynowego) jest niezwykle potężnym narzędziem do wielu najtrudniejszych zadań uczenia maszynowego: rozpoznawania obrazów, rozpoznawania wideo, rozpoznawania mowy itp. Biorąc pod uwagę, że obecnie jest to jeden z najbardziej wydajnych algorytmów uczenia maszynowego, a obliczenia kwantowe …

1
Czy można przyspieszyć generowanie macierzy ważenia za pomocą algorytmu kwantowego?
W tym [1] artykule na stronie 2 wspominają, że generują macierz wag w następujący sposób: W=1Md[∑m=1m=Mx(m)(x(m))T]−IddW=1Md[∑m=1m=Mx(m)(x(m))T]−IddW = \frac{1}{Md}[\sum_{m=1}^{m=M} \mathbf{x}^{(m)}\left(\mathbf{x}^{(m)}\right)^{T}] - \frac{\Bbb I_d}{d} gdzie x(m)x(m)\mathbf{x}^{(m)}są ddd-wymiarowe próbki treningowe (tj x:={x1,x2,...,xd}Tx:={x1,x2,...,xd}T\mathbf{x} := \{x_1,x_2,...,x_d\}^{T} gdzie xi∈{1,−1} ∀ i∈{1,2,...,d}xi∈{1,−1} ∀ i∈{1,2,...,d}x_i \in \{1,-1\} \ \forall \ i\in \{1,2,...,d\}) i tu są MMMpróbki treningowe ogółem. …

1
Jałowe płaskowyże w krajobrazach treningowych sieci neuronowej
Tutaj autorzy twierdzą, że wysiłki stworzenia skalowalnej kwantowej sieci neuronowej przy użyciu zestawu sparametryzowanych bramek uznaje się za nieudane dla dużej liczby kubitów. Wynika to z faktu, że z powodu lematu Levy'ego gradient funkcji w przestrzeniach o dużych wymiarach jest wszędzie prawie zerowy. Zastanawiałem się, czy ten argument można zastosować …
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.