O ile mogę stwierdzić, sieci neuronowe mają stałą liczbę neuronów w warstwie wejściowej.
Jeśli sieci neuronowe są używane w kontekście takim jak NLP, zdania lub bloki tekstu o różnych rozmiarach są podawane do sieci. W jaki sposób różny rozmiar wejściowy jest pogodzony ze stałym rozmiarem wejściowej warstwy sieci? Innymi słowy, w jaki sposób taka sieć jest wystarczająco elastyczna, aby poradzić sobie z danymi wejściowymi, które mogą znajdować się w dowolnym miejscu, od jednego słowa do wielu stron tekstu?
Jeśli moje założenie o stałej liczbie neuronów wejściowych jest błędne, a nowe neurony wejściowe są dodawane / usuwane z sieci w celu dopasowania do wielkości wejściowej, nie widzę, jak można je kiedykolwiek wytrenować.
Podaję przykład NLP, ale wiele problemów ma z natury nieprzewidywalny rozmiar wejściowy. Interesuje mnie ogólne podejście do tego problemu.
W przypadku obrazów jasne jest, że można próbkować w górę / w dół do ustalonego rozmiaru, ale w przypadku tekstu wydaje się to niemożliwe, ponieważ dodawanie / usuwanie tekstu zmienia znaczenie oryginalnego tekstu.