R ha molte librerie che si rivolgono all'analisi dei dati (ad esempio JAGS, BUGS, ARULES ecc.), Ed è menzionata in libri di testo popolari come: J.Krusche, Doing Bayesian Data Analysis; B.Lantz, "Apprendimento automatico con R".
Ho visto una linea guida di 5 TB per un set di dati da considerare come Big Data.
La mia domanda è: R è adatto per la quantità di dati normalmente riscontrata nei problemi dei Big Data? Ci sono strategie da utilizzare quando si utilizza R con questo set di dati di queste dimensioni?