Czy istnieje sposób, aby programowo uzyskać podwójną wartość najbliższą 1,0, ale w rzeczywistości nie jest to 1,0?
Jednym z hackerskich sposobów byłoby zapamiętanie podwójnej liczby całkowitej do tej samej wielkości, a następnie odjęcie jednej. Sposób działania formatów zmiennoprzecinkowych IEEE754 skutkowałby zmniejszeniem wykładnika o jeden podczas zmiany części ułamkowej ze wszystkich zer (1,000000000000) na jedynki (1,111111111111). Istnieją jednak maszyny, w których liczby całkowite są przechowywane w postaci little-endian, podczas gdy zmiennoprzecinkowe są przechowywane w postaci big-endian, więc to nie zawsze będzie działać.