Mam system cyfrowego przetwarzania sygnałów, który działa na szybkiej maszynie x86 przy użyciu liczb zmiennoprzecinkowych o podwójnej precyzji . Przyszło mi do głowy, że tak naprawdę nie używam ogromnego zakresu dynamicznego reprezentacji zmiennoprzecinkowej - wszystkie wielkości mieszczą się w zakresie ± 32768.
Moje pytanie: czy jest możliwe, że przejście na obliczenia o stałym punkcie przyniosłoby korzyści w zakresie dokładności numerycznej (wysoki priorytet) lub czasu obliczeń (niski priorytet)?
Oczywiście odpowiedź zależy od liczby bitów dostępnych do obliczenia punktu stałego. Ile bitów precyzji wykorzystuje typowe systemy stałoprzecinkowe? Czy jest możliwe wydajne wykonywanie obliczeń w punkcie stałym z, powiedzmy, 64-bitową ( 16-bitową częścią całkowitą, 48-bitową częścią ułamkową ) na x86-64?
Zawsze myślałem, że obliczenia w punkcie stałym były wykorzystywane tylko w sytuacjach, w których moc procesora jest ograniczona - czy warto stosować obliczenia w punkcie stałym, gdy moc procesora nie ma znaczenia?