Domande taggate «series»




6
Condizionale Sostituisci Panda
Ho un DataFrame e voglio sostituire i valori in una particolare colonna che superano un valore con zero. Avevo pensato che questo fosse un modo per raggiungere questo obiettivo: df[df.my_channel > 20000].my_channel = 0 Se copio il canale in un nuovo frame di dati è semplice: df2 = df.my_channel df2[df2 …

11
Combina le colonne Data e Ora usando i panda python
Ho un dataframe panda con le seguenti colonne; Date Time 01-06-2013 23:00:00 02-06-2013 01:00:00 02-06-2013 21:00:00 02-06-2013 22:00:00 02-06-2013 23:00:00 03-06-2013 01:00:00 03-06-2013 21:00:00 03-06-2013 22:00:00 03-06-2013 23:00:00 04-06-2013 01:00:00 Come combino i dati ["Data"] e i dati ["Ora"] per ottenere quanto segue? C'è un modo per farlo usando pd.to_datetime? …

6
Converti frame di dati panda in serie
Sono un po 'nuovo per i panda. Ho un frame di dati panda che è 1 riga per 23 colonne. Voglio convertirlo in una serie? Mi chiedo qual è il modo più pitonico per farlo? Ho provato pd.Series(myResults)ma si lamentaValueError: cannot copy sequence with size 23 to array axis with …


4
Stringhe in un DataFrame, ma dtype è un oggetto
Perché i Panda mi dicono che ho oggetti, sebbene ogni elemento nella colonna selezionata sia una stringa, anche dopo una conversione esplicita. Questo è il mio DataFrame: <class 'pandas.core.frame.DataFrame'> Int64Index: 56992 entries, 0 to 56991 Data columns (total 7 columns): id 56992 non-null values attr1 56992 non-null values attr2 56992 …
96 python  pandas  numpy  types  series 

6
Converti le serie di panda in DataFrame
Ho una serie di panda sf: email email1@email.com [1.0, 0.0, 0.0] email2@email.com [2.0, 0.0, 0.0] email3@email.com [1.0, 0.0, 0.0] email4@email.com [4.0, 0.0, 0.0] email5@email.com [1.0, 0.0, 3.0] email6@email.com [1.0, 5.0, 0.0] E vorrei trasformarlo nel seguente DataFrame: index | email | list _____________________________________________ 0 | email1@email.com | [1.0, 0.0, 0.0] …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.