Twierdziłbym, że nie tyle wygrane, co przestały mieć znaczenie. ARM, który składa się w zasadzie na cały rynek mobilny, jest bi-endian (och, herezja!). W tym sensie, że x86 po prostu „wygrał” rynek komputerów stacjonarnych. Przypuszczam, że można powiedzieć, że wygrał mały Endian, ale myślę, że biorąc pod uwagę ogólną głębokość kodu (płytkość) i abstrakcję (wiele) wielu dzisiejszych aplikacji, jest to o wiele mniejszy problem niż to kiedyś było. Nie przypominam sobie, by Endianness pojawił się naprawdę na mojej lekcji architektury komputerowej.
Podejrzewam, że wielu programistów nie zdaje sobie nawet sprawy z endianizmu ani dlaczego jest to ważne. Ponieważ dla ogromnej (i mam na myśli ogromną ) większości jest to całkowicie nieistotne dla ich codziennego środowiska pracy. Inaczej było 30 lat temu, kiedy wszyscy kodowali znacznie bliżej metalu, w przeciwieństwie do manipulowania plikami tekstowymi na ekranie w fantazyjny i dramatyczny sposób.
Moje ogólne podejrzenie jest takie, że programowanie obiektowe było początkiem końca dbania o endianizm, ponieważ warstwy dostępu i abstrakcji w dobrym systemie OO ukrywają szczegóły implementacji przed użytkownikiem. Ponieważ wdrożenie obejmuje endianizm, ludzie przyzwyczaili się, że nie jest to wyraźny czynnik.
Dodatek: zxcdw wspomniał o możliwości przenoszenia. Co jednak zemściło się w ciągu ostatnich 20 lat? Języki programowania zbudowane na maszynach wirtualnych. Oczywiście endianność maszyny wirtualnej może mieć znaczenie, ale można ją uczynić bardzo spójną dla tego jednego języka do tego stopnia, że zasadniczo nie jest to problemem. Tylko implementatorzy maszyn wirtualnych musieliby się martwić o endianowość z punktu widzenia przenośności.