Tak. Używanie pojedynczych kabli do „kaskadowania” wielu przełączników Ethernet razem tworzy wąskie gardła. To, czy te wąskie gardła faktycznie powodują niską wydajność, można jednak ustalić jedynie poprzez monitorowanie ruchu na tych łączach. (Naprawdę powinieneś monitorować statystyki ruchu na port. To jeszcze jeden powód, dla którego to dobry pomysł).
Przełącznik Ethernet ma ograniczoną, ale zazwyczaj bardzo dużą, wewnętrzną szerokość pasma do wykonywania swojej pracy. Jest to określane mianem przepustowości sieci przełączającej i może być dość duże, nawet w przypadku bardzo niskich przełączników Gigabit Ethernet (na przykład Dell PowerConnect 6248 ma na przykład strukturę przełączającą 184 Gb / s). Utrzymywanie przepływu ruchu między portami na tym samym przełączniku zwykle oznacza (w przypadku nowoczesnych przełączników Ethernet z 24 i 48 portami), że sam przełącznik nie „blokuje” ramek przepływających z pełną prędkością między podłączonymi urządzeniami.
Niezmiennie jednak potrzebujesz więcej portów niż może zapewnić jeden przełącznik.
Kiedy kaskadujesz (lub, jak niektórzy powiedzieliby, „stosy”) przełączników za pomocą kabli krosowanych, nie przenosisz przełączników między sobą. Na pewno podłączasz przełączniki, a ruch będzie płynął, ale tylko na przepustowości zapewnianej przez porty łączące przełączniki. Jeśli jest więcej ruchu, który musi przepłynąć z jednego przełącznika na drugi, to pojedynczy kabel połączeniowy może obsługiwać ramki zostaną odrzucone.
Złącza do ustawiania w stos są zwykle używane do zapewnienia szybszych połączeń między przełącznikami. W ten sposób można podłączyć wiele przełączników przy znacznie mniej restrykcyjnym ograniczeniu przepustowości między przełącznikami. (Korzystając ponownie z serii Dell PowerConnect 6200 jako przykładu, ich połączenia w stosie mają ograniczoną długość do poniżej 0,5 metra, ale działają z prędkością 40 Gb / s). To wciąż nie rozszerza struktury przełączania, ale zazwyczaj oferuje znacznie lepszą wydajność w porównaniu do pojedynczego połączenia kaskadowego między przełącznikami.
Były pewne przełączniki (przychodzą na myśl przełączniki Intel 500 Series 10/100), które faktycznie rozszerzyły strukturę przełączania między przełącznikami za pomocą złączy stosowych, ale nie znam żadnych, które mają takie możliwości dzisiaj.
Jedną z opcji, o której wspominali inni plakaty, jest stosowanie mechanizmów agregacji łączy do „łączenia” wielu portów razem. Wykorzystuje to więcej portów na każdym przełączniku, ale może zwiększyć przepustowość między przełącznikami. Uważaj, że różne protokoły agregacji łączy używają różnych algorytmów do „równoważenia” ruchu między linkami w grupie agregacji, i musisz monitorować liczniki ruchu na poszczególnych interfejsach w grupie agregacji, aby upewnić się, że naprawdę występuje równoważenie. (Zazwyczaj pewien rodzaj skrótu adresów źródłowych / docelowych służy do uzyskania efektu „równoważenia”. Robi się to tak, aby ramki Ethernet docierały w tej samej kolejności, ponieważ ramki między jednym źródłem a miejscem docelowym zawsze będą się przemieszczać przez te same interfejsy,
Wszystkie te obawy związane z przepustowością przełączania między portami to jeden argument przemawiający za użyciem przełączników opartych na obudowie. Wszystkie karty liniowe, na przykład przełącznik Cisco Catalyst 6513, mają tę samą strukturę przełączania (chociaż niektóre karty liniowe mogą same mieć niezależną strukturę). Możesz zablokować wiele portów w tej obudowie i uzyskać większą przepustowość między portami niż w konfiguracji kaskadowej lub nawet skumulowanej dyskretnej konfiguracji przełącznika.