Dlaczego wszystkie procesory nie są „podkręcane” jako domyślne ustawienie fabryczne? [duplikować]


23

Możliwa duplikat:
dlaczego współczesne procesory są „podkręcone”?

Kiedy szukałem jakiegoś pulpitu, natknąłem się na wiele dyskusji, w których technicy rozmawiali o wzięciu np. Procesora 2,67 GHz i „przetaktowaniu” go tak, aby działał z częstotliwością 4 GHz. Jeśli procesor jest w stanie tak szybko osiągnąć, dlaczego nie wychodzi tak prosto z pudełka?


1
Sprawdź tolerancje produkcyjne i statystyki normalnej zmienności. Nic nie jest przeciętne. Zwłaszcza w gorszych przypadkach temperatur i zakresów napięcia.
hotpaw2

23
Mój samochód ma maksymalną prędkość 150 km / h. Dlaczego muszę prowadzić 65 lat?
Shinrai,

29
@Shinrai, która wydaje mi się kiepską analogią.
Mr.Wizard

4
na marginesie: jak dokładnie domyślnie „podkręcasz” coś? fabryka ustawia domyślnie na początek.
Sirex

1
@ Mr.Wizard - Wygląda na to, że jesteśmy związani, haha. Zgadzam się, że nie jest to najlepsza analogia, to raczej „To właśnie czytam, kiedy to widzę”
Shinrai

Odpowiedzi:


27

Przede wszystkim nie wszystkie procesory są w stanie przetaktować. Wiele z nich ma stałe lub ograniczone zakresy mnożników. Jest to zamierzone przez przemysł, dostawcy sprzętu chętnie sprzedają procesory i urządzenia peryferyjne z większą swobodą w wyższych cenach. Prawdziwi „overclockerzy” wydają się płacić wszystko, o ile pozwala im podwoić domyślne ustawienia fabryczne ...

Po drugie, jest to problem z chłodzeniem i wydajnością. Zużycie energii i częstotliwość nie są skalowane liniowo, podobnie jak rzeczywista wydajność (szczególnie biorąc pod uwagę, że przy szybszych procesorach inne elementy systemu szybko stają się wąskimi gardłami ...).

W przypadku podkręconych procesorów istnieje również duża zmienność w zakresie trwałości i żywotności, nawet w ramach serii produkcyjnej. Częstotliwość, z jaką są sprzedawane, to częstotliwość, przy której wszystkie jednostki z serii pracują stabilnie, niezależnie od możliwych różnic w szczegółach. Jeden procesor z serii może szybko ulec awarii podczas jego podkręcania, podczas gdy inny może działać stabilnie do 4+ Ghz.


5
Chciałbym tutaj przejść do tematu chłodzenia i wydajności. Znam ludzi, którzy zarządzają dużymi klastrami obliczeniowymi, aw miesiącach letnich czasami ich chłodzenie nie nadąża. Pracowali się sposób, aby pod zegarem swoich serwerach w oprogramowaniu, tak, że kiedy ich systemy nie mogą poradzić sobie z ciepła, mogą drastycznie zmniejszać moc wykorzystywane, a więc ciepło generowane, zamiast konieczności wyłączania maszyny, które są wykonywanie zadań, które nawet w przypadku nowoczesnych klastrów z wieloma rdzeniami mogą potrwać kilka miesięcy. Wzmacnianie procesorów w celu uzyskania dodatkowych cykli nie ma sensu.
Dave Jacoby

2
Podobnie, jestem teraz na netbooku, ponieważ do celów, które mu daję, nie potrzebuje całej prędkości proc, a chłodzenie działałoby lepiej, więc znów zwalnianie zegara, a nie zwiększanie, ma sens .
Dave Jacoby

4
@VarLogRant właśnie opisałeś dynamiczne skalowanie częstotliwości ( en.wikipedia.org/wiki/Dynamic_frequency_scaling ), które robi wiele współczesnych procesorów, szczególnie na urządzenia mobilne. Zużycie energii jest efektywnie funkcją prędkości zegara (ponieważ obwód CMOS zużywa bardzo mało energii w stanie statycznym), a zatem w przypadku układów mobilnych jest to nieocenione narzędzie do oszczędzania energii.
SplinterReality

20

Podział procesora jest tutaj istotny:

http://en.wikipedia.org/wiki/Product_binning

Produkcja półprzewodników jest procesem nieprecyzyjnym, z niektórymi szacunkami nawet na poziomie 30% dla wydajności. Wady produkcyjne nie zawsze są jednak śmiertelne. W wielu przypadkach możliwe jest uratowanie części poprzez zamianę charakterystyk wydajności, takich jak zmniejszenie częstotliwości zegara lub wyłączenie wadliwych części niekrytycznych. Zamiast po prostu pozbywać się tych produktów, ich poziom wydajności można odpowiednio obniżyć i sprzedać po niższej cenie, spełniając potrzeby segmentów rynku z niższej półki.

Praktyka ta występuje w całej branży półprzewodników, w tym także w procesorach centralnych, pamięciach komputerowych i procesorach graficznych.


2
Czytałem, że Intel robi to dla serii procesorów „Core”. Produkują procesory rdzeniowe jako dwa rdzenie na jednej matrycy. Jeśli jeden z żetonów przetestuje się źle, wyłącza go i sprzedaje kostkę jako Core Solo. Dwa realne układy Core Duo są zamknięte w tej samej obudowie, aby stworzyć Core Extreme. W ten sposób Intel ratuje swoje skądinąd wadliwe zasoby i zapewnia, że ​​wskaźnik defektów układów Core Extreme wynosi zero.
SplinterReality

1
@charles Nie jestem jednak pewien, czy dotyczy to najnowszych procesorów Intel. Seria Core 2 nie była prawdziwym wielordzeniowym, ale wieloma układami na tej samej matrycy. Natomiast Core i3, i5, i7 itd. Są prawdziwymi wielordzeniowymi konstrukcjami. Patrz extremetech.com/article2/0,2845,2049688,00.asp
Jeff Atwood

@Jeff Ahh, więc moja wiedza jest trochę przestarzała. Dzięki za aktualizację, jestem pewien, że inni czytelnicy również uznają ten smakołyk za przydatny.
SplinterReality

2
@Jeff - na pewno na temat serii Core 2? Myślałem, że to procesory Core (bez 2) były w zasadzie sklejonymi ze sobą dwoma P4, aw praktyce były zwykle wolniejsze i gorętsze niż jednordzeniowy P4. „2” w „Core 2” nie oznacza podwójnego rdzenia - to właśnie „Duo” oznacza w „Core 2 Duo”.
Steve314,

1
@Jeff - BTW - prawdopodobnie warto wspomnieć o ekonomicznym aspekcie binowania. Podczas testowania układów i obniżania niektórych z nich, prawdopodobnie nie kończysz na tyle, aby zadowolić rynek tanich procesorów niskiej klasy, i oczywiście nie chcesz nadmiaru energii na rynku wysokiej klasy, który napędza cenę na dół.
Steve314,

19

Oprócz opublikowanych przyczyn tolerancji i MTBF istnieje jeszcze jeden.

(Proszę o wyrozumiałość, ponieważ od dłuższego czasu nie nadążam ze sprzętem.)

Koszt wytworzenia przez firmę Intel zakładu produkcyjnego, w którym można stworzyć konkretny układ scalony, to bardzo duży koszt stały. Koszt wytworzenia jednego procesora po zbudowaniu zakładu jest bardzo, bardzo mały.

Zaletą ekonomiczną jest wykonanie tej samej matrycy dla szeregu żetonów, a następnie zablokowanie żetonów przy różnych mnożnikach w celu zróżnicowania produktu i wyceny. W ten sposób wszystkie żetony pochodzą z tej samej rośliny. Zamiast posiadania unikalnej instalacji dla każdej prędkości chipa. Jeśli chcesz kupić układ z niższej półki, ekonomicznym sposobem na to, by zrobić to za ciebie, jest często sprzedanie ci chipu z wyższej półki, który jest skonfigurowany do pracy z niższą częstotliwością.

Zobaczysz to również na innych rynkach, kiedy proces produkcyjny wymaga wysokiego początkowego kosztu stałego i bardzo niskiego kosztu krańcowego. Na przykład każdy aluminiowy rower ważnej marki jest wytwarzany w tej samej fabryce przez te same roboty.


To samo dzieje się także z silnikami. Kiedy silniki samochodowe są skrupulatnie dopracowane pod kątem ich projektu („blueprinting”), osiągają znacznie lepsze wyniki niż ten sam projekt wykonany na linii produkcyjnej z dużo większą tolerancją. W przeciwieństwie do silników samochodowych, procesory zwykle zbliżają się do swojej idealnej konstrukcji i dają więcej wydajnych procesorów, które mogą wytrzymać przetaktowywanie.
Konstruktor zabawek

Ciekawi mnie notatka rowerowa. Czy możesz podać więcej informacji?
Mr.Wizard

7

Ponieważ w wielu przypadkach przetaktowanie powoduje skrócenie żywotności (pod względem czasu) i znacznie więcej ciepła.

Niektóre procesory są sprzedawane jako przetaktowywalne - jak na przykład Black Edition AMD (z odblokowanym mnożnikiem) i Intels Extreme Edition.


6

Jest to różnica między zalecaną prędkością a możliwą prędkością.

Producenci nie mogą zmusić procesora do osiągnięcia maksymalnej prędkości dokładnie dla tego procesora; jest tworzony z większą zdolnością, ale nie wiesz, jaki jest górny zasięg, dopóki go nie przekroczysz.

Nie wspominając już o dodatkowym cieple, które może powstać, że system nie jest zbudowany do obsługi, a zatem potrzeba dodatkowych systemów chłodzenia przy zbyt dużym podkręcaniu.


4

Są tego powody:

  1. Nie można podkręcać tego samego procesora kodu z tą samą prędkością. Np .: E2400 z różnymi krokami będzie miał inny potencjał przetaktowywania.
  2. Twój procesor nie będzie stabilny przy podkręconej prędkości.
  3. Procesory są produkowane dla wielu krajów o różnych warunkach pogodowych i temperaturowych. Tak więc w oryginale są całkiem pewni, że jest stabilny.
  4. W jakiś sposób jest to interesujące dla overclockerów i maniaków, którzy chcą zdobyć mocniejszy komputer z lepszą wiedzą.

3

Nikt nie mówi, że obliczenia są gwarantowane poprawnie przy podkręconych prędkościach. :-)

To dokładność vs. szybkość ... to ryzyko, na które ludzie się narażają, czasami testując procesor, aby zobaczyć, kiedy zaczyna generować błędne wyniki.


1

Przetaktowywanie wytwarza więcej ciepła i sprawia, że ​​komputer jest mniej stabilny. Aby przetaktować, musisz mieć ulepszony wentylator i / lub system chłodzenia wodą.


1
Nie musisz mieć ulepszonego systemu chłodzenia. Ale to z pewnością pomaga.
Wuffers,

1

Aspekt różnicowania cen (który fianchetto dość dobrze opisuje) ostatnio zmienił nieco z częstotliwości zegara na liczbę rdzeni. Z wyjątkiem kilku bardzo tanich procesorów Intel ma cały asortyment w zakresie od 2,8 do 3,6 GHz, jest mniej więcej taki sam dla AMD.

Nie ma wątpliwości, że AMD obecnie przesuwa swoje najlepsze 4 i 6 rdzeniowe modele do granicy tego, co mogą rozsądnie sprzedawać jako stabilne.

Warto zwrócić uwagę na to, co Intel robi ze swoimi procesorami Sandy Bridge. Obecny najwyższy model tej linii to 4-rdzeniowy taktowany zegarem o częstotliwości 3,4 GHz, ale wyniki podkręcania mieszczą się w zakresie od 4,4 do 4,8 GHz z zapasowym chłodzeniem przy napięciu podstawowym model, który jest wyjątkowo wysokim przetaktowaniem. Sugeruje to, że mogliby wypuścić model 4 GHz przy bardzo małym wysiłku.

Jeśli jednak zapytasz, czy marketing firmy Intel Sandy Bridge nie jest ich najlepszą architekturą, to miejsce zajmuje starsze 6-rdzeniowe Gulftown. Problem polega na tym, że Sandy Bridge jest o tyle lepszy, że trudno jest uzasadnić 2 dodatkowe rdzenie bardziej niż nadrobić różnicę, ale zgodnie ze strategią marketingową muszą. Aby więc utrzymać to roszczenie w pewnym stopniu wiarygodne, sztucznie utrudniają Sandy Bridge.

Gdyby Intel nie był tak daleko przed AMD, jak oni, pchaliby mocniej swój sprzęt, ale ponieważ AMD nie ma nic do dopasowania do Sandy Bridges, ponieważ są Intelem, niech dziwactwa marketingu zdecydują, co sprzedać.


Bardzo interesująca informacja
Chris Marisic,

Dla mnie to brzmi jak spekulacja.
underscore_d

1

Oprócz przyczyn technicznych, o których tu wspomniałem, jest to także kwestia strategii marketingowej. W szczególności segmentacja rynku. Jeśli chcesz pobierać ceny premium z rynku premium, produkty dla tego rynku muszą mieć pewne różnice w stosunku do rynku z niższej półki. W przypadku procesorów osiąga się to poprzez wyłączenie rdzeni, wyłączenie części pamięci podręcznej i obniżenie prędkości w produktach przeznaczonych dla rynku niskiej klasy.


plus 1, chociaż wspomniane wyłączenie może wynikać z celowego wyboru lub po prostu z ograniczeń jakościowych (binning). tak naprawdę nie ma to znaczenia, o ile produkują wystarczająco dużo dla każdego segmentu rynku docelowego.
underscore_d
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.