Właśnie coś zauważyłem i zastanawiam się, czy jest jakiś powód tego. Z wyjątkiem C ++ (std :: priorytet_queue jest stertą maksymalną), nie znam żadnego innego języka, który oferuje stertę maksymalną.
Moduł heapq Pythona implementuje binarną mini-stertę na szczycie listy.
Biblioteka Java zawiera klasę PriorityQueue, która implementuje kolejkę o minimalnym priorytecie.
Biblioteka Go zawiera moduł kontenera / sterty, który implementuje minimalną stertę nad dowolną kompatybilną strukturą danych.
Podstawa Apple Core Foundation zawiera strukturę CFBinaryHeap, która implementuje mini-stertę.
Uważam, że maksymalny stos jest bardziej intuicyjny niż minimalny stos i uważam, że technicznie różnica w implementacji jest tylko kwestią zmiany operatora porównania. Czy jest jakiś prawdziwy powód? Większość aplikacji potrzebuje min zamiast maksymalnej sterty? Z góry dziękuję