Dai commenti sopra, sembra che questo sia pianificato da pandas
tempo (c'è anche un rosetta
progetto dall'aspetto interessante che ho appena notato).
Tuttavia, fino a quando non viene incorporata ogni funzionalità parallela pandas
, ho notato che è molto facile scrivere aumenti paralleli efficienti e non copianti in memoria pandas
utilizzando direttamente cython
+ OpenMP e C ++.
Ecco un breve esempio di scrittura di un groupby-sum parallelo, il cui utilizzo è qualcosa del genere:
import pandas as pd
import para_group_demo
df = pd.DataFrame({'a': [1, 2, 1, 2, 1, 1, 0], 'b': range(7)})
print para_group_demo.sum(df.a, df.b)
e l'output è:
sum
key
0 6
1 11
2 4
Nota Senza dubbio, la funzionalità di questo semplice esempio finirà per far parte di pandas
. Alcune cose, tuttavia, saranno più naturali da parallelizzare in C ++ per qualche tempo ed è importante essere consapevoli di quanto sia facile combinarle in pandas
.
Per fare questo, ho scritto una semplice estensione di file a sorgente singola il cui codice segue.
Inizia con alcune importazioni e definizioni di tipo
from libc.stdint cimport int64_t, uint64_t
from libcpp.vector cimport vector
from libcpp.unordered_map cimport unordered_map
cimport cython
from cython.operator cimport dereference as deref, preincrement as inc
from cython.parallel import prange
import pandas as pd
ctypedef unordered_map[int64_t, uint64_t] counts_t
ctypedef unordered_map[int64_t, uint64_t].iterator counts_it_t
ctypedef vector[counts_t] counts_vec_t
Il unordered_map
tipo C ++ è per la somma da un singolo thread e vector
per la somma da tutti i thread.
Ora alla funzione sum
. Inizia con le visualizzazioni della memoria digitata per un accesso rapido:
def sum(crit, vals):
cdef int64_t[:] crit_view = crit.values
cdef int64_t[:] vals_view = vals.values
La funzione continua dividendo il semi-equamente per i thread (qui hardcoded a 4) e facendo in modo che ogni thread somma le voci nel suo intervallo:
cdef uint64_t num_threads = 4
cdef uint64_t l = len(crit)
cdef uint64_t s = l / num_threads + 1
cdef uint64_t i, j, e
cdef counts_vec_t counts
counts = counts_vec_t(num_threads)
counts.resize(num_threads)
with cython.boundscheck(False):
for i in prange(num_threads, nogil=True):
j = i * s
e = j + s
if e > l:
e = l
while j < e:
counts[i][crit_view[j]] += vals_view[j]
inc(j)
Quando i thread sono stati completati, la funzione unisce tutti i risultati (dai diversi intervalli) in un unico unordered_map
:
cdef counts_t total
cdef counts_it_t it, e_it
for i in range(num_threads):
it = counts[i].begin()
e_it = counts[i].end()
while it != e_it:
total[deref(it).first] += deref(it).second
inc(it)
Non resta che creare un DataFrame
e restituire i risultati:
key, sum_ = [], []
it = total.begin()
e_it = total.end()
while it != e_it:
key.append(deref(it).first)
sum_.append(deref(it).second)
inc(it)
df = pd.DataFrame({'key': key, 'sum': sum_})
df.set_index('key', inplace=True)
return df