Jest tak, ponieważ łatwiej i taniej jest zwiększyć przepustowość pamięci DRAM niż zmniejszyć opóźnienie. Aby uzyskać dane z otwartego wiersza pamięci RAM, niezbędna jest nietrywialna ilość pracy.
Adres kolumny musi zostać zdekodowany, multipleksery wybierają, które linie dostępu muszą być sterowane, a dane muszą przejść przez układ do buforów wyjściowych. Zajmuje to trochę czasu, zwłaszcza biorąc pod uwagę, że układy SDRAM są wytwarzane w procesie dostosowanym do wysokich gęstości pamięci RAM i niezbyt wysokich prędkości logicznych. Aby zwiększyć przepustowość, powiedzmy za pomocą DDR (1,2,3 lub 4), większość logiki może być poszerzona lub potokowa i może działać z taką samą prędkością jak w poprzedniej generacji. Jedyne, co musi być szybsze, to sterownik I / O dla pinów DDR.
W przeciwieństwie do tego, aby zmniejszyć opóźnienie, należy przyspieszyć całą operację, co jest znacznie trudniejsze. Najprawdopodobniej część pamięci RAM musiałaby być wykonana w procesie podobnym do tego w przypadku szybkich procesorów, znacznie zwiększając koszty (proces o wysokiej prędkości jest droższy, a każdy procesor musi przejść 2 różne procesy).
Jeśli porównasz pamięci podręczne procesora z pamięcią RAM i dyskiem twardym / SSD, istnieje odwrotna zależność między pamięcią dużą a szybką pamięcią. L1 $ jest bardzo szybki, ale może pomieścić tylko od 32 do 256 kB danych. Jest tak szybki, ponieważ jest mały:
- Można go ustawić bardzo blisko procesora, co oznacza, że dane muszą przebyć krótszy dystans, aby się do niego dostać
- Przewody na nim można skrócić, co oznacza, że przesyłanie danych zajmuje mniej czasu
- Nie zajmuje dużo miejsca ani wielu tranzystorów, więc przejście na proces zoptymalizowany pod kątem prędkości i użycie dużej ilości energii na przechowywany bit nie jest tak drogie
W miarę przesuwania się w górę hierarchii każda opcja przechowywania staje się większa, ale także większa i oddalona od urządzenia, co oznacza, że urządzenie musi działać wolniej.