Se i tuoi pesi cambiano più lentamente di quanto vengono disegnati, C ++ 11 discrete_distribution
sarà il più semplice:
#include <random>
#include <vector>
std::vector<double> weights{90,56,4};
std::discrete_distribution<int> dist(std::begin(weights), std::end(weights));
std::mt19937 gen;
gen.seed(time(0));//if you want different results from different runs
int N = 100000;
std::vector<int> samples(N);
for(auto & i: samples)
i = dist(gen);
//do something with your samples...
Si noti, tuttavia, che c ++ 11 discrete_distribution
calcola tutte le somme cumulative durante l'inizializzazione. Di solito lo desideri perché accelera il tempo di campionamento per un costo O (N) una tantum. Ma per una distribuzione in rapida evoluzione, comporterà un pesante costo di calcolo (e memoria). Ad esempio, se i pesi rappresentavano quanti elementi ci sono e ogni volta che ne disegni uno, lo rimuovi, probabilmente vorrai un algoritmo personalizzato.
La risposta di Will https://stackoverflow.com/a/1761646/837451 evita questo sovraccarico ma sarà più lento da cui attingere rispetto a C ++ 11 perché non può utilizzare la ricerca binaria.
Per vedere che lo fa, puoi vedere le righe pertinenti ( /usr/include/c++/5/bits/random.tcc
sulla mia installazione di Ubuntu 16.04 + GCC 5.3):
template<typename _IntType>
void
discrete_distribution<_IntType>::param_type::
_M_initialize()
{
if (_M_prob.size() < 2)
{
_M_prob.clear();
return;
}
const double __sum = std::accumulate(_M_prob.begin(),
_M_prob.end(), 0.0);
// Now normalize the probabilites.
__detail::__normalize(_M_prob.begin(), _M_prob.end(), _M_prob.begin(),
__sum);
// Accumulate partial sums.
_M_cp.reserve(_M_prob.size());
std::partial_sum(_M_prob.begin(), _M_prob.end(),
std::back_inserter(_M_cp));
// Make sure the last cumulative probability is one.
_M_cp[_M_cp.size() - 1] = 1.0;
}