Tabella delle frequenze per una singola variabile


97

Un'ultima domanda sui panda per principianti del giorno: come faccio a generare una tabella per una singola serie?

Per esempio:

my_series = pandas.Series([1,2,2,3,3,3])
pandas.magical_frequency_function( my_series )

>> {
     1 : 1,
     2 : 2, 
     3 : 3
   }

Un sacco di ricerche su Google mi hanno portato a Series.describe () e pandas.crosstabs, ma nessuno di questi fa proprio quello che mi serve: una variabile, conta per categorie. Oh, e sarebbe bello se funzionasse per diversi tipi di dati: stringhe, int, ecc.

Risposte:


153

Forse .value_counts()?

>>> import pandas
>>> my_series = pandas.Series([1,2,2,3,3,3, "fred", 1.8, 1.8])
>>> my_series
0       1
1       2
2       2
3       3
4       3
5       3
6    fred
7     1.8
8     1.8
>>> counts = my_series.value_counts()
>>> counts
3       3
2       2
1.8     2
fred    1
1       1
>>> len(counts)
5
>>> sum(counts)
9
>>> counts["fred"]
1
>>> dict(counts)
{1.8: 2, 2: 2, 3: 3, 1: 1, 'fred': 1}

5
.value_counts().sort_index(1), per evitare che la prima colonna
diventi

9
C'è un equivalente per DataFrame, piuttosto che per le serie? Ho provato a eseguire .value_counts () su un df e ho ottenutoAttributeError: 'DataFrame' object has no attribute 'value_counts'
Mittenchops

1
C'è un modo semplice per convertire questi conteggi in proporzioni?
dsaxton

7
@dsaxton puoi usare .value_counts (normalize = True) per convertire i risultati in proporzioni
Max Power

2
Per usarlo su un dataframe, invece, converti nella sua rappresentazione di array numpy 1-D equivalente, come - pd.value_counts(df.values.ravel())che restituisce una serie i cui attributi indexe valuescontengono rispettivamente gli elementi univoci e il loro conteggio.
Nickil Maveli

11

È possibile utilizzare la comprensione dell'elenco su un dataframe per contare le frequenze delle colonne in quanto tali

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)]

Abbattersi:

my_series.select_dtypes(include=['O']) 

Seleziona solo i dati categoriali

list(my_series.select_dtypes(include=['O']).columns) 

Trasforma le colonne dall'alto in un elenco

[my_series[c].value_counts() for c in list(my_series.select_dtypes(include=['O']).columns)] 

Scorre l'elenco sopra e applica value_counts () a ciascuna delle colonne


5

La risposta fornita da @DSM è semplice e diretta, ma ho pensato di aggiungere il mio contributo a questa domanda. Se guardi il codice per pandas.value_counts , vedrai che stanno succedendo molte cose.

Se è necessario calcolare la frequenza di molte serie, l'operazione potrebbe richiedere del tempo. Un'implementazione più veloce sarebbe usare numpy.unique conreturn_counts = True

Ecco un esempio:

import pandas as pd
import numpy as np

my_series = pd.Series([1,2,2,3,3,3])

print(my_series.value_counts())
3    3
2    2
1    1
dtype: int64

Notare qui che l'articolo restituito è un panda

In confronto, numpy.uniquerestituisce una tupla con due elementi, i valori univoci e i conteggi.

vals, counts = np.unique(my_series, return_counts=True)
print(vals, counts)
[1 2 3] [1 2 3]

Puoi quindi combinarli in un dizionario:

results = dict(zip(vals, counts))
print(results)
{1: 1, 2: 2, 3: 3}

E poi in un file pandas.Series

print(pd.Series(results))
1    1
2    2
3    3
dtype: int64

0

per la distribuzione di frequenza di una variabile con valori eccessivi puoi comprimere i valori in classi,

Qui ho valori eccessivi per la employratevariabile e non c'è significato della sua distribuzione di frequenza con directvalues_count(normalize=True)

                country  employrate alcconsumption
0           Afghanistan   55.700001            .03
1               Albania   11.000000           7.29
2               Algeria   11.000000            .69
3               Andorra         nan          10.17
4                Angola   75.699997           5.57
..                  ...         ...            ...
208             Vietnam   71.000000           3.91
209  West Bank and Gaza   32.000000               
210         Yemen, Rep.   39.000000             .2
211              Zambia   61.000000           3.56
212            Zimbabwe   66.800003           4.96

[213 rows x 3 columns]

distribuzione di frequenza values_count(normalize=True)senza classificazione, la lunghezza del risultato qui è 139 (sembra priva di significato come distribuzione di frequenza):

print(gm["employrate"].value_counts(sort=False,normalize=True))

50.500000   0.005618
61.500000   0.016854
46.000000   0.011236
64.500000   0.005618
63.500000   0.005618

58.599998   0.005618
63.799999   0.011236
63.200001   0.005618
65.599998   0.005618
68.300003   0.005618
Name: employrate, Length: 139, dtype: float64

mettendo la classificazione mettiamo tutti i valori con un certo intervallo es.

0-10 come 1,
11-20 come 2  
21-30 come 3 e così via.
gm["employrate"]=gm["employrate"].str.strip().dropna()  
gm["employrate"]=pd.to_numeric(gm["employrate"])
gm['employrate'] = np.where(
   (gm['employrate'] <=10) & (gm['employrate'] > 0) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=20) & (gm['employrate'] > 10) , 1, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=30) & (gm['employrate'] > 20) , 2, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=40) & (gm['employrate'] > 30) , 3, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=50) & (gm['employrate'] > 40) , 4, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=60) & (gm['employrate'] > 50) , 5, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=70) & (gm['employrate'] > 60) , 6, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=80) & (gm['employrate'] > 70) , 7, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=90) & (gm['employrate'] > 80) , 8, gm['employrate']
   )
gm['employrate'] = np.where(
   (gm['employrate'] <=100) & (gm['employrate'] > 90) , 9, gm['employrate']
   )
print(gm["employrate"].value_counts(sort=False,normalize=True))

dopo la classificazione abbiamo una chiara distribuzione delle frequenze. qui possiamo facilmente vedere che 37.64%dei paesi hanno un tasso di occupazione compreso tra 51-60% e 11.79%dei paesi hanno un tasso di occupazione compreso tra71-80%

5.000000   0.376404
7.000000   0.117978
4.000000   0.179775
6.000000   0.264045
8.000000   0.033708
3.000000   0.028090
Name: employrate, dtype: float64
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.