R ma wiele bibliotek, które są przeznaczone do analizy danych (np. JAGS, BŁĘDY, ARULES itp.) I jest wspomniany w popularnych podręcznikach, takich jak: J.Krusche, Doing Bayesian Data Analysis; B.Lantz, „Uczenie maszynowe z R”.
Widziałem wytyczną 5 TB, aby zestaw danych uważać za Big Data.
Moje pytanie brzmi: czy R jest odpowiedni dla ilości danych zwykle występujących w problemach z Big Data? Czy istnieją strategie, które należy zastosować, używając R z tym zestawem danych?