Zgłaszając złożoność algorytmu algorytmu, zakłada się, że obliczenia leżące u jego podstaw są wykonywane na jakiejś abstrakcyjnej maszynie (np. RAM), która przybliża nowoczesny procesor. Takie modele pozwalają nam raportować złożoność algorytmów w czasie i przestrzeni. Teraz, przy rozproszeniu GPGPU , zastanawia się, czy istnieją dobrze znane modele, w których można również wziąć pod uwagę zużycie energii.
Znane są procesory graficzne, które zużywają znaczną ilość energii, a niektóre instrukcje dzielą się na różne kategorie zużycia energii w zależności od ich złożoności i położenia w wyrafinowanym układzie scalonym. Stąd instrukcje, z energii widzenia, nie mają kosztu jednostkowego (ani nawet stałego). Trywialnym rozszerzeniem byłoby przypisywanie wag do kosztów operacyjnych, ale szukam silnego modelu, w którym operacja / instrukcja może kosztować niestałe jednostki energii, np. Wielkość wielomianową (lub nawet bardziej złożoną np .: funkcję czasu, który upłynął od początku algorytmu; lub biorąc pod uwagę prawdopodobieństwo awarii układu chłodzenia, która nagrzeje układy i spowolni częstotliwość taktowania itp.)
Czy istnieją takie modele, w których można uwzględnić nietrywialne koszty i usterki?