Czy aplikacja może uszkodzić kartę graficzną?


15

Szybka uwaga: wiem, że jest to strona z pytaniami i odpowiedziami na temat tworzenia gier, ale myślę, że przede wszystkim wiecie i macie doświadczenie z kartami graficznymi, więc kieruję do was to pytanie. Jeśli uważasz, że to całkowicie nie na temat, odeślij mnie na odpowiednią stronę / forum. Edycja: W rzeczywistości jest to związane z gamedev: jeśli zły kod może spowodować przegrzanie lub uszkodzenie karty, twórcy gier powinni być tego świadomi i upewnić się, że ich aplikacje tego nie robią.

To może wydawać się dziwnym lub głupim pytaniem, ale czy rzeczywiście można napisać taką aplikację do renderowania grafiki, która może uszkodzić kartę graficzną (w jakikolwiek sposób)?

Bezpośrednim powodem, dla którego zadałem to pytanie, była (bez zaskoczenia) moja zepsuta karta graficzna. Po naprawie serwisant powiedział, że przetestował na nim różne aplikacje (gry) i działał dobrze. Ale kiedy uruchomiłem własną aplikację (demo odroczonego cieniowania), nagrzała ją do ponad 100 stopni Celsjusza. Więc moja karta nie okazała się w końcu naprawiona, ale ważne jest to, że problem zdawał się występować tylko podczas uruchamiania własnej aplikacji.

Grałem w różne gry wymagające GPU (takie jak Crysis) i często przesuwałem to do granic możliwości i więcej (miałem tak wysokie ustawienia, że ​​gry działały przy 5 FPS), a także niektóre testy porównawcze ... Więc dałem moja karta, wiele razy, tyle pracy, że nie mogła nadrobić zaległości (stąd niski FPS), ale nigdy nie osiągnęła niebezpiecznej temperatury. Ale moja własna aplikacja zdołała to osiągnąć (przynajmniej gdy synchronizacja v była wyłączona). : P Ponieważ była to tylko moja aplikacja, nie sądzę, żeby winowajcą był zły system chłodzenia.

Pytam więc - czy myślisz (a może wiesz), czy możliwe jest złamanie karty graficznej (w jakikolwiek sposób, nie tylko przez przegrzanie) jakimś błędnym kodem?

Aktualizacja:

Joe Swindell powiedział, że problemem może być przegrzanie (no cóż, zdecydowanie może złamać kartę). Ale czy odpowiedni system chłodzenia nie powinien temu zapobiec (pod żadnym pozorem)?

Boreal wskazał inny problem. Jeśli dobrze rozumiem, FPS jest związany zarówno przez procesor, jak i GPU (czy to prawda?). Tak niski FPS może sygnalizować albo duże obciążenie procesora, albo wysokie obciążenie GPU . Ale znowu - czy odpowiedni system chłodzenia nie powinien zapobiegać przegrzaniu GPU, nawet jeśli karta jest „używana przez cały czas w 100%”?


Większość gier nie wykorzysta twojego GPU w pełni - będą one pod wieloma względami związane z procesorem. Jednak twoja aplikacja może nic nie robić po stronie procesora, co doprowadzi do znacznie większego wykorzystania GPU. Mówiąc najprościej, procesory graficzne nie powinny być używane w 100% przez cały czas. Dlatego nie chcesz teraz kupować używanego procesora graficznego - prawdopodobnie został on wykorzystany do wydobywania bitcoinów.
jmegaffin

6
@Boreal Zdecydowanie się z tym nie zgadzam. Jeśli kupujesz procesor graficzny od wysokiej jakości producenta płyt, jest on przeznaczony do pracy przez cały czas w 100%, a ustawienia chłodzenia i prędkości zegara zostały ustawione tak, aby zapewnić stabilność w tych warunkach. Teraz, jeśli masz jakiś radiator na rynku wtórnym, który nie jest poprawnie zainstalowany, lub jeśli przetaktujesz kartę do niebezpiecznego poziomu, to inna historia.
Nathan Reed

„Ale czy odpowiedni system chłodzenia nie powinien temu zapobiegać (pod żadnym pozorem)?” - powiedz, że fani, radiatory i układy wydechowe twojego GPU są oblepione kurzem, ponieważ nie zajmowałeś się komputerem. Wtedy może się zdecydowanie przegrzać i złamać, nawet w przypadku wysokiej klasy części. Mamy nadzieję, że po prostu wykryje ciepło, wyłączy się i uruchomi ponownie, zanim ulegnie uszkodzeniu, ale tak naprawdę nie chcesz stawiać na to.
Sean Middleditch

Do twojej wiadomości, naprawdę komputer powinien się wyłączyć, gdy niebezpiecznie się przegrzeje. Czy to możliwe, że jest to wyłączone na twoim komputerze?
Richard Tingle

SeanMiddleditch, przez „właściwy” miałem na myśli między innymi czysty, w pełni funkcjonujący system chłodzenia. RichardTingle, przynajmniej sam tego nie wyłączyłem. Ale miałem na myśli moje pytanie jako ogólny problem, nie szukając rozwiązania mojej konkretnej sprawy.
NPS

Odpowiedzi:


32

Zadaniem aplikacji nie jest zagwarantowanie, że procesor graficzny się nie przegrzeje, i to nie wina aplikacji, jeśli się przegrzeje.

Jeśli GPU nie ma odpowiedniego chłodzenia, to tak, uruchomienie aplikacji 3D może podgrzać ją do niebezpiecznego poziomu. Nie wiem, dlaczego robi to Twoja aplikacja, a Crysis nie, ale oznacza to, że karta ma niewystarczające chłodzenie i / lub została zepsuta (podkręcone lub zmienione inne ustawienia fabryczne / sterowniki).

Poza przegrzaniem nie znam żadnego innego sposobu, w jaki oprogramowanie mogłoby fizycznie uszkodzić układ, na którym działa. To naprawdę nie powinno być możliwe; byłaby to bardzo poważna awaria projektu.


1
Więc w oparciu o to, co powiedziałeś, nie powinienem (jako programista) w ogóle dbać o to, ile obciążenia GPU (i ogrzewania) generuje moja aplikacja (o ile działa ona płynnie)?
NPS

11
@NPS Right. Dbasz o obciążenie procesora graficznego, o ile wpływa ono na szybkość klatek (a na urządzeniach mobilnych, na żywotność baterii), ale to nie twoja odpowiedzialność za to, jak wpływa na temperaturę - martwi to sterownik / system operacyjny. Jeśli aplikacja przegrzeje GPU, oznacza to, że nie jest odpowiednio chłodzona i / lub coś jest nie tak z dynamicznym skalowaniem częstotliwości sterownika.
Nathan Reed

4
+1, zadaniem użytkownika jest upewnienie się, że jego sprzęt spełnia wymagania (a „brak stopienia się podczas gry” liczy się jako wymóg), a zadaniem sprzętu / kierowcy jest jak najlepsze zabezpieczenie karty przed uszkodzeniem. Aplikacja powinna (i musi) polegać na tym, nic więcej nie może zrobić.
Thomas

Chcę napisać manifest etyki producenta: kiedy kupujesz sprzęt o danej specyfikacji, powinieneś mieć dostęp do tej specyfikacji we wszystkich warunkach podanych na opakowaniu (zwykle podaje się 0 do 40 stopni C). I nie cierpię głupiego ograniczania temperatury, w przeciwnym razie dobry proces powinien wykazać, że zostałem okradziony z moich fałszywych roszczeń na opakowaniu.
v.oddou

@NPS „Więc w oparciu o to, co powiedziałeś, powinienem (jako programista) nie przejmować się, ile obciążenia GPU (i ogrzewania) generuje moja aplikacja (o ile działa ona płynnie)?” - Tak, powinieneś dbać o ładunek, ale nie o przegrzanie. Tylko upewnij się, że niższe ustawienia generują niższe obciążenie, a tym samym mniej hałasu podczas chłodzenia. Ponieważ czasami gram na baterii, głosuję na gry Steam, które spalają 100% procesora i procesora graficznego, nie robiąc nic, i nie jestem jedyny.
Peter

24

Stało się to na wolności.

Starcraft II w 2010 r. Miał problem polegający na tym, że miał nielimitowaną szybkość klatek na ekranach menu, powodując dziwne obciążenie kart graficznych, niszcząc karty niektórych dostawców o niewystarczającej ochronie termicznej.

Błędy projektowe i produkcyjne w samym GPU mogą również prowadzić do demontażu karty pod obciążeniem. Mobilne procesory graficzne G84 / G86 miały złącza lutowane, które pękały przy dopuszczalnych obciążeniach temperaturowych i ostatecznie pękały. Mamy również niesławny Czerwony Pierścień Śmierci XBox 360, który ma podobne problemy termiczne z lutem i ekspansją.

Wszystkie powyższe są mieszaniną wad sprzętowych i niewystarczających projektów termicznych, wzmocnionych obciążeniem oprogramowania.


6
Starcraft był przykładem, o którym od razu pomyślałem. Chociaż prawdopodobnie StarCraft ujawnił błąd związany z wieloma kartami graficznymi, a następnie zapewnił obejście tego błędu, a nie fakt, że Starcraft faktycznie jest winny. Nie żeby ktoś ze zniszczoną kartą zbytnio dbał o to rozróżnienie
Richard Tingle

1
Dawno, dawno temu generacja nie inteligentnych monitorów mogła zostać zniszczona przez transformatory typu flyback przez oprogramowanie wprowadzające złe wartości do rejestrów CRTC. Trzecim powodem niepowodzenia dodawania jest to, że wyścig prędkości sprawił, że wielu producentów skróciło rogi, wiele razy karty nie były wystarczająco wytrzymałe na 100%
Patrick Hughes

9

Twoje pytanie jest znacznie bardziej złożone niż to, co napisałeś. Powiedziałbym, że ogólne pytanie brzmi: „czy oprogramowanie może zepsuć sprzęt?”, A odpowiedź brzmi zdecydowanie tak.

Pamiętaj, że nie cały sprzęt można teoretycznie złamać za pomocą poleceń programowych, ale ostatecznie to, co robi oprogramowanie, wysyła sygnały elektryczne do bardzo delikatnych elementów sprzętowych. Zwykle im bardziej delikatny jest element sprzętowy, tym bardziej prawdopodobne jest, że ulegnie on uszkodzeniu, gdy zostanie potraktowany w sposób, w jaki nie został zaprojektowany.

Sprzęt może się zepsuć na wiele fajnych sposobów, ale zastanówmy się nad przegrzaniem: praca z przetwarzaniem generuje ciepło, a ono musi gdzieś iść. W zależności od charakterystyki rozpraszania karty, przepływu powietrza w obudowie i ogólnej temperatury w pomieszczeniu ilość ciepła usuwanego z systemu może być większa lub mniejsza niż ilość wytwarzana przez system.

Jeśli poprosisz kartę graficzną o wykonanie pracy, która generuje więcej ciepła, niż można ją skutecznie rozproszyć, temperatura układu wzrośnie. Jeśli będziesz go kontynuować, temperatura wzrośnie powyżej bezpiecznego poziomu operacyjnego, a chip pęknie, straci magiczny dym, a prawdopodobnie nawet spowoduje zagrożenie pożarem. Właśnie zepsułeś kartę wideo, mam nadzieję, że jesteś szczęśliwy.

Czy możesz teraz napisać oprogramowanie, które to robi? Powiedziałbym, że najprawdopodobniej nie. Żaden program (na poziomie użytkownika), który piszesz, nie będzie rozmawiać bezpośrednio z kartą wideo. Istnieje wiele zabezpieczeń zaprojektowanych, aby zapobiec tej sytuacji, i wszystkie one muszą zawieść, aby Twój program renderujący ostatecznie spalił dom.

  1. Ogólnie rzecz biorąc, rozpraszacze ciepła i wentylatory są zaprojektowane w taki sposób, aby mogły wygodnie usuwać maksymalną ilość ciepła generowaną przez kartę, nawet w słabo wentylowanych obudowach w gorącym klimacie (w zakresie roboczym określonym przez producenta)

  2. Jeśli wytwarzanie ciepła jest większe niż rozpraszanie ciepła, pierwszą linią obrony byłby kierowca. Większość sterowników będzie sprawdzać temperaturę rdzenia GPU, a jeśli idzie w górę, sterownik może ograniczyć liczbę instrukcji wysyłanych do GPU, aby zapobiec generowaniu większej ilości ciepła.

  3. Jeśli to się nie powiedzie, oprogramowanie układowe na karcie graficznej powinno wykryć, że ciepło niebezpiecznie się gromadzi, i dlatego zmniejszy prędkość zegara, próbując zmniejszyć wytwarzanie ciepła.

  4. Jeśli po tym wszystkim ciepło nadal się gromadzi, dioda termiczna dostępna w większości nowoczesnych procesorów i procesorów graficznych całkowicie wyłączy kartę graficzną, a wytwarzanie ciepła zatrzyma się.

Tak więc, jeśli chcesz zerwać kosztowną kartę graficzną z aplikacji na poziomie użytkownika poprzez przegrzanie, oprócz zbudowania oprogramowania, które maksymalnie obciąża system, potrzebujesz:

  1. Wadliwy lub uszkodzony system rozpraszający ciepło. Wystarczy wsunąć palec w wentylator (zawsze w środku, a nie w łopatki). Trudność: łatwa

  2. Niestandardowy (lub błędny) sterownik z wyłączonymi lub uszkodzonymi funkcjami dławienia. Trudność: normalna

  3. Niestandardowe oprogramowanie wewnętrzne z wyłączonymi lub uszkodzonymi funkcjami zmniejszania zegara. Trudność: trudna

  4. Złamana dioda termiczna. Jeśli stale uruchamiasz diodę termiczną, może ulec uszkodzeniu. Trudność: bardzo trudna

... ale nie niemożliwe! Wypróbuj *, ale pamiętaj, aby mieć pod ręką telefon straży pożarnej.

*: To jest sarkazm. W żaden sposób nie popieram stworzenia zagrożenia pożarowego ani żadnych działań, które mogą w jakikolwiek sposób zaszkodzić Tobie, Twojej rodzinie, psu lub społeczności. Czytając ten post, całkowicie zwalniasz mnie od wszelkiej odpowiedzialności, jaką mogą ponieść twoje działania.


1
+1 za wiele rzeczy, ale szczególnie za myślenie o psie. :)
Andrew Thompson

2

Nawet przy wyłączonym VSYNC, wiele gier może nie osiągnąć nawet 98% wykorzystania GPU. Im bardziej rzeczywista rozgrywka zostanie zaimplementowana, tym mniej klatek uda się wyreżyserować i tym bardziej prawdopodobne jest, że procesor graficzny nie zostanie w pełni wykorzystany. Dobre gry zoptymalizowane pod kątem wielu rdzeni mogą znacznie zbliżyć się do 100% wykorzystania GPU, ale ogólnie logika rozgrywki utrzymuje procesor na tyle zajęty innymi zadaniami, że nie jest w stanie nasycić GPU pełnym obciążeniem. Aplikacje do czystego renderowania mogą z łatwością osiągnąć 100% obciążenia GPU, ale gry robią znacznie więcej niż renderowanie.

Na marginesie, na mojej domowej maszynie mój GPU generuje znaczące EMI pod dużym obciążeniem i zakłóca tanie zintegrowane audio na mojej płycie głównej. Słyszę marudzenie wysokiego tonu nad analogowym dźwiękiem, którego częstotliwość zmienia się w zależności od obciążenia. Uwielbiam to i uważam, że jest to funkcja, a nie wada projektowa, sprawia, że ​​profilowanie jest interesujące, ponieważ faktycznie słyszę poziom obciążenia bez konieczności próbkowania licznika wydajności GPU. Jednak przypuszczam, że jeśli masz jakieś urządzenie, które jest bardzo wrażliwe na zakłócenia elektromagnetyczne i nie jest odpowiednio ekranowane, może to stanowić problem ... wysokie obciążenie karty graficznej może spowodować awarię innego urządzenia.


0

Przegrzanie JEST uszkodzeniem karty graficznej. Rzucanie ogromnej pętli danych, z którymi nie może sobie poradzić, z pewnością, jak widzieliście, spowoduje awarię i możliwe uszkodzenie karty na stałe.


4
Ale każda aplikacja może dać karcie więcej, niż może przeżuć (prawie każda gra kilka lat młodsza od samej karty). Odpowiedni system chłodzenia powinno zapobiec temu (bez względu na to, co aplikacja robi), nie powinna?
NPS

Masz rację, że jakakolwiek gra MOGŁA to zrobić ... ale większość kodu nie dusi GPU na 100%, a jeśli tak, zazwyczaj nie jest to 100% przez dłuższy czas. Chociaż zgodziłbym się w 100% z tobą, że odpowiedni system chłodzenia powinien temu zapobiec.
Joe Swindell

2
To wygląda jak szaleństwo. Szybkość zegara należy ustawić na bezpiecznym poziomie, podobnie jak procesor
Richard Tingle

0

Tak, może.

  • Przegrzanie jako oczywisty przykład może być spowodowane ekstremalnymi obciążeniami. Zwykle osiągane przez podkręcanie. Byłoby to najłatwiejsze do celowego spowodowania.

Można tego uniknąć dzięki dobrym systemom chłodzenia. Włączenie synchronizacji pionowej jest również dobrym sposobem na uniknięcie tego. Synchronizacja w pionie uniemożliwia procesorowi GPU wysyłanie klatek z większą szybkością, niż monitor może obsłużyć, czyli klatkami, które normalnie są upuszczane i nigdy nie są widoczne.

Mniej ramek = mniejsze przetwarzanie = mniejsze ekstremalne obciążenie pracą.

Ważne jest również śledzenie możliwości GPU. Wyobrażam sobie, że programiści z Crytek napisali kod, który jest gotowy, aby ktoś przecenił swoje możliwości kart graficznych. Jeśli tak, jestem pewien, że jest to funkcja, która uratowała wiele procesorów graficznych i uratowała wielu nieświadomych właścicieli GPU przed frustracją.

  • Trochę uszkodzonych (lub niepoprawnie zakodowanych) danych może spowodować, że wskaźnik ostatecznie wskaże miejsce, w którym nie powinien, co może zniszczyć wszystkie rzeczy. Chociaż prawdopodobnie nie jest trwały, może powodować różne stopnie awarii w działaniu. Taka usterka procesora jest zwykle wychwytywana przez system operacyjny i unikana lub, jeśli nie można jej uniknąć, wywoła BSOD (niebieski ekran śmierci).

Można tego uniknąć poprzez staranne kodowanie i podwójne sprawdzanie w czasie wykonywania. (Ale zawsze są błędy. Jeśli nie, to dlatego, że się z tobą bawią.)

  • Karta graficzna będzie również mieć sterownik, który dodaje kolejne miejsce, w którym może się nie udać. Niektóre dane mogą tam zostać uszkodzone lub może wystąpić błąd itp. Itd. Aby dodać do tego sterowniki, generalnie istnieje ryzyko spowodowania BSOD. System awaryjny systemu operacyjnego, gdy coś dzieje się bardzo źle, i musi uruchomić operację awaryjnego wyłączenia, aby spróbować zminimalizować lub zapobiec szkodom. Starannie zakodowany sterownik tego nie zrobi (miejmy nadzieję), ale zawsze istnieje szansa na błędy. W tym w procedurach wyłączania awaryjnego.

Można tego uniknąć poprzez staranne kodowanie i podwójne sprawdzanie w czasie wykonywania.


3
Na szczęście sterowniki ekranu nie były znaczącym źródłem BSOD. Microsoft całkowicie przerobił model sterownika w systemie Windows NT 6.0 (Vista) i wprowadził dużą część sterownika do trybu użytkownika; BSOD są powodowane wyłącznie przez awarie rzeczy w trybie jądra. Kiedy sterownik ekranu trybu użytkownika ulega awarii, najgorsze, co się dzieje, to to, że sterownik sam się resetuje - w grze D3D możesz mieć do czynienia z utratą kontekstu i spędzić trochę czasu na przeładowywaniu zasobów, ale w GL czasami możesz całkowicie całkowicie zresetować się po tym . Uzyskanie BSOD wymaga poważnego niepowodzenia.
Andon M. Coleman

0

Odpowiedź na jedno słowo: TAK.

Szczegółowa odpowiedź: tak. Może (w niektórych sytuacjach). Wyobraź sobie, że piszesz program, który drastycznie przesyła dane do twojego GPU do nieskończonej pętli. Jest pewne, że się przegrzeje. Czyż nie jest to obowiązkiem jego systemu chłodzenia, aby się tym zająć? Oczywiście, że jest. Ale należy również pamiętać, że układ chłodzenia ma również pewne poziomy progowe. Jeśli wytwarzane ciepło wykracza poza zakres działania twojego układu chłodzenia, wtedy twój układ chłodzenia jest mało przydatny. Nie wiem, co robi twoja aplikacja, ale rozmawiając z perspektywy programistów, możesz pisać takie programy, które prowadzą do tego rodzaju sytuacji.


O ile wiem, wszystko to zostało już powiedziane. Czy o to ci chodziło?
Anko

0
  1. Zainstalowanie niezgodnego sterownika z faktyczną kartą może łatwo doprowadzić do trwałych uszkodzeń. Mój przyjaciel jakoś zdołał to zrobić poprzez powtarzalną ponowną instalację systemu operacyjnego i fizyczną zmianę dysku twardego.

  2. Spraw, aby Twój komputer włączał się i wyłączał wiele razy. Nie jestem pewien, czy może to spowodować awarię, ale jest to bardzo możliwe. W każdym razie nie brzmi to jak najlepszy softwaresposób na zrobienie tego.

  3. Manipuluj poziomem mocy w systemie, włączając i wyłączając energochłonne urządzenia USB (przykład: zewnętrzny dysk twardy, który nie wykorzystuje własnej mocy). W ten sposób moja klawiatura i mysz są bezużyteczne do następnego restartu i (przez 2 lata codziennego podłączania i wyjmowania 3 dysków twardych) wypaliło kilka komórek w jednym z moich układów pamięci RAM, co powodowało BSOD co 10-20 minut.


1
Czy mówisz o rzeczach, które można wykonać za pomocą oprogramowania, ponieważ nie jestem pewien?
NPS

WRT # 3, szyna 5 V używana przez USB jest regulowana przez zasilacz niezależnie od szyny (linii) 12V, które są / są dodatkowo regulowane na płycie głównej i karcie graficznej w celu zasilania procesora, karty graficznej i pamięci systemowej. Płyty główne często używają polyfuse do ograniczenia prądu przez porty USB, co może wyjaśnić problemy z klawiaturą / myszą, gdy dyski twarde są podłączone, jeśli mają ten sam polyfuse. Prąd rozruchowy powodujący rozkręcenie talerza może spowodować spadek napięcia na szynie zasilającej USB, prowadząc do brązowienia mikrokontrolera klawiatury. Jednak zepsuta pamięć RAM jest prawie na pewno przypadkiem.
bcrist

0

Moje osobiste doświadczenie:

Kiedyś miałem Lenovo Thinkpad T61p z Quadro FX570M zbudowanym około sierpnia 2008 roku, ta partia była znana z wadliwych układów GPU, które pewnego dnia lub innego zawiodłyby (lutowanie nie było optymalne na niektórych pinach GPU).

Wszystko działało dobrze przez około 5 lat, dopóki nie uruchomiłem na nim XCOM The Bureau (gra znana z tego, że tak naprawdę nie jest zoptymalizowana), laptop był gorący, fani z pełną prędkością i przez około 1 godzinę grania zamarzł, ale nie był to zwykły zamrożenie .

Zgadnij co ? Wyłączyłem laptopa i włączyłem go ponownie, był martwy z odpowiednimi kodami dźwiękowymi BIOS wskazującymi na awarię wideo.

Aby odpowiedzieć na twoje pytanie : tak (jak zauważyli inni), oprogramowanie może zdecydowanie zepsuć sprzęt, jeśli ten pierwszy nie jest w jakiś sposób chroniony ; jeśli na przykład wentylator GPU jest wyłączony, to na pewno wysadzi ze 100% szansą na sukces: D


Moje pytanie dotyczy sprzętu z odpowiednim i działającym układem chłodzenia oraz wbudowanymi systemami bezpieczeństwa. W przeciwnym razie mówimy tylko o wadliwym sprzęcie, który z pewnością zawiedzie w przypadku jakiegokolwiek oprogramowania.
NPS

0

Kiedyś miałem kartę graficzną GeForce 4 MX 440 i chciałem grać w Prince of Persia: piaski czasu. Ale gra się nie uruchomiła, ponieważ nie mogła znaleźć oczekiwanej obsługi Pixel Shader. Było to dla mnie trochę nieoczekiwane, ponieważ późniejszy Prince of Persia: Warrior Within działał dobrze.

W końcu znalazłem analizator 3d ( http://www.tommti-systems.com/main-Dateien/files.html ) i zmusiłem grę do uruchomienia i grania w nią przez kilka dni. Po kilku dniach moja karta wideo się zepsuła - nic już nie wyświetlałem. Miałem nowy komputer przez około 5-6 miesięcy, więc myślę, że zmuszenie gry do działania w ten sposób spowodowało uszkodzenie mojej karty graficznej :(


-1

Tak, zepsułem kilka. Nie uruchamiam już aplikacji obliczających grid GPU. Niektóre aplikacje zwykle psują się, szczególnie gdy maszyna przechodzi w tryb uśpienia, ale w normalnych sytuacjach, gdy pracują dmuchawy / krąży ciecz chłodząca, nie powinno być problemów, chyba że chłodzenie jest zbyt małe.


Co masz na myśli mówiąc „tryb spania”? „Tryb uśpienia” zwykle oznacza zawieszenie do pamięci RAM , stan zasilania komputera, w którym tylko pamięć o dostępie swobodnym pozostaje zasilona. Jak by to zepsuło kartę graficzną?
Anko

@Anko, zabierz to stąd. en.wikipedia.org/wiki/Sleep_mode
Anssi

OK, tak myślałem, że miałeś na myśli. Jestem jednak zdezorientowany: dlaczego zawieszenie aplikacji w trybie uśpienia może spowodować uszkodzenie?
Anko

-2

Może to spowodować zwarcie obwodu karty, jednak jest to bardzo mało prawdopodobne, ponieważ system jest izolowany do pewnej wysokiej temperatury. W niektórych przypadkach układ termodynamiczny karty może zostać zakłócony, jeśli jest on naprawdę blisko innego układu lub jeśli nawet dotyka innego materiału, który nie jest układem.


3
W jaki sposób taki scenariusz byłby spowodowany przez aplikację? Wydaje się, że to nie dotyczy pytania.
Seth Battin

Uważam, że nie znasz bramek logicznych AND, OR, NOT
Orenrocco

5
I wydaje mi się, że po raz drugi bardzo nie doceniłeś tej kwestii.
Seth Battin

1
Nie ma polecenia programowego sendShortCircuit, ponieważ takie zwarcie byłoby defektem karty graficznej. Oprogramowanie nie ponosi za to odpowiedzialności. To pytanie dotyczy tego, czy na przykład karty graficzne mają ocenę „100% użycia do 1 s, 90% długoterminowa średnia użytkowania”, a oprogramowanie było zobowiązane do nieprzekraczania tej oceny
Richard Tingle

3
@ user3643191, nie atakujemy cię; wskazujemy miejsca, w których można poprawić i wyjaśnić swój post. Wszystkie te komentarze zostaną ostatecznie usunięte (zgodnie z projektem); Twój post pozostanie. Możesz edytować i ulepszać swój post w dowolnym momencie, więc skorzystaj z okazji, aby uzyskać lepszą odpowiedź. Gdy to zrobisz, prawdopodobnie zdobędziesz trochę głosów pozytywnych (lub ktoś może usunąć głos negatywny), te komentarze w końcu znikną, a twoja oświecająca odpowiedź będzie kształcić przez wiele lat.
PotatoEngineer
Korzystając z naszej strony potwierdzasz, że przeczytałeś(-aś) i rozumiesz nasze zasady używania plików cookie i zasady ochrony prywatności.
Licensed under cc by-sa 3.0 with attribution required.