Poniższy kod ma na celu wygenerowanie listy pięciu liczb pseudolosowych w przedziale [1100]. Zaszczepiam default_random_engine
z time(0)
, co zwraca czas systemowy w czasie uniksowym . Kiedy kompiluję i uruchamiam ten program w systemie Windows 7 przy użyciu Microsoft Visual Studio 2013, działa zgodnie z oczekiwaniami (patrz poniżej). Kiedy robię to w Arch Linuxie z kompilatorem g ++, zachowuje się jednak dziwnie.
W Linuksie za każdym razem będzie generowanych 5 liczb. Ostatnie 4 liczby będą różne przy każdym wykonaniu (jak to często bywa), ale pierwsza liczba pozostanie taka sama.
Przykładowe dane wyjściowe z 5 wykonań w systemie Windows i Linux:
| Windows: | Linux:
---------------------------------------
Run 1 | 54,01,91,73,68 | 25,38,40,42,21
Run 2 | 46,24,16,93,82 | 25,78,66,80,81
Run 3 | 86,36,33,63,05 | 25,17,93,17,40
Run 4 | 75,79,66,23,84 | 25,70,95,01,54
Run 5 | 64,36,32,44,85 | 25,09,22,38,13
Dodając do tajemnicy, ta pierwsza liczba okresowo zwiększa się o jeden w systemie Linux. Po uzyskaniu powyższych wyników odczekałem około 30 minut i ponownie próbowałem stwierdzić, że pierwsza liczba uległa zmianie i teraz była zawsze generowana jako 26. Ciągle zwiększała się okresowo o 1 i wynosi teraz 32. Wydaje się, że odpowiada ze zmieniającą się wartością time(0)
.
Dlaczego pierwsza liczba rzadko zmienia się we wszystkich przebiegach, a kiedy tak się dzieje, zwiększa się o 1?
Kod. Dokładnie wypisuje 5 liczb i czas systemowy:
#include <iostream>
#include <random>
#include <time.h>
using namespace std;
int main()
{
const int upper_bound = 100;
const int lower_bound = 1;
time_t system_time = time(0);
default_random_engine e(system_time);
uniform_int_distribution<int> u(lower_bound, upper_bound);
cout << '#' << '\t' << "system time" << endl
<< "-------------------" << endl;
for (int counter = 1; counter <= 5; counter++)
{
int secret = u(e);
cout << secret << '\t' << system_time << endl;
}
system("pause");
return 0;
}
sizeof(time_t)
vs.sizeof(default_random_engine::result_type)
?