Pytania otagowane jako tensor

2
Objaśnienie danych wejściowych Keras: input_shape, jednostki, batch_size, dim itp
Dla każdej warstwy Keras ( Layerklasy), może ktoś wyjaśnić jak należy rozumieć różnicę między input_shape, units, dim, itd.? Na przykład dokument mówi, że unitsokreśl wyjściowy kształt warstwy. Na zdjęciu sieci neuronowej poniżej hidden layer1ma 4 jednostki. Czy to bezpośrednio przekłada się na unitsatrybut Layerobiektu? Czy unitsw Keras jest równy kształtowi …

21
Jak wydrukować wartość obiektu Tensor w TensorFlow?
Korzystam ze wstępnego przykładu mnożenia macierzy w TensorFlow. matrix1 = tf.constant([[3., 3.]]) matrix2 = tf.constant([[2.],[2.]]) product = tf.matmul(matrix1, matrix2) Kiedy drukuję produkt, wyświetla go jako Tensorobiekt: <tensorflow.python.framework.ops.Tensor object at 0x10470fcd0> Ale skąd mam poznać wartość product? Następujące nie pomaga: print product Tensor("MatMul:0", shape=TensorShape([Dimension(1), Dimension(1)]), dtype=float32) Wiem, że wykresy działają Sessions, …

8
Jak działa metoda „przeglądania” w PyTorch?
Nie jestem pewien co do tej metody view()w poniższym fragmencie kodu. class Net(nn.Module): def __init__(self): super(Net, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2,2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16*5*5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = …
205 python  memory  pytorch  torch  tensor 

5
Najlepszy sposób na zapisanie wytrenowanego modelu w PyTorch?
Szukałem alternatywnych sposobów zapisania wytrenowanego modelu w PyTorch. Jak dotąd znalazłem dwie alternatywy. torch.save (), aby zapisać model i torch.load (), aby załadować model. model.state_dict (), aby zapisać wytrenowany model i model.load_state_dict (), aby załadować zapisany model. Natknąłem się na tę dyskusję, w której podejście 2 jest zalecane zamiast podejścia …

5
dlaczego „pakujemy” sekwencje w pytorch?
Próbowałem powtórzyć Jak używać pakowania dla danych wejściowych sekwencji o zmiennej długości dla rnn, ale myślę, że najpierw muszę zrozumieć, dlaczego musimy „spakować” sekwencję. Rozumiem, dlaczego musimy je „wypełniać”, ale dlaczego konieczne jest „pakowanie” (przez pack_padded_sequence)? Wszelkie wyjaśnienia na wysokim poziomie będą mile widziane!
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.