Poniższy fragment kodu:
struct timespec ts;
for (int x = 0; x < 100000000; x++) {
timespec_get(&ts, TIME_UTC);
long cTime = (long) time(NULL);
if (cTime != ts.tv_sec && ts.tv_nsec < 3000000) {
printf("cTime: %ld\n", cTime);
printf("ts.tv_sec: %ld\n", ts.tv_sec);
printf("ts.tv_nsec: %ld\n", ts.tv_nsec);
}
}
tworzy ten wynik:
...
cTime: 1579268059
ts.tv_sec: 1579268060
ts.tv_nsec: 2527419
cTime: 1579268059
ts.tv_sec: 1579268060
ts.tv_nsec: 2534036
cTime: 1579268059
ts.tv_sec: 1579268060
ts.tv_nsec: 2540359
cTime: 1579268059
ts.tv_sec: 1579268060
ts.tv_nsec: 2547039
...
Dlaczego rozbieżność między cTime
i ts.tv_sec
? Zauważ, że problem nie występuje, jeśli zmienna warunkowa zostanie zmieniona na ts.tv_nsec >= 3000000
. Problem polega na tym, że nanosekundy są mniejsze niż 3000000.
timespec_get()
? Czy to C czy C ++? Wygląda std::timespec_get
. Proszę użyć odpowiedniego tagu.
man
wpisu timespec_get
w moim systemie, więc doszedłem do wniosków. Ma sens.