Domande taggate «scikit-learn»

Una libreria di apprendimento automatico per Python. Usa questo tag per qualsiasi domanda sull'argomento che (a) coinvolga scikit-learn come parte critica della domanda o risposta prevista, e (b) non riguarda solo come usare scikit-learn.

1
Come dividere il set di dati per la validazione incrociata, la curva di apprendimento e la valutazione finale?
Qual è una strategia appropriata per suddividere il set di dati? Chiedo feedback sul seguente approccio (non sui singoli parametri come test_sizeo n_iter, ma se usato X, y, X_train, y_train, X_test, e y_testin modo appropriato e se la sequenza senso): (estendendo questo esempio dalla documentazione di scikit-learn) 1. Caricare il …


5
Come si interpretano i pesi delle funzioni SVM?
Sto cercando di interpretare i pesi variabili dati montando un SVM lineare. (Sto usando Scikit-Learn ): from sklearn import svm svm = svm.SVC(kernel='linear') svm.fit(features, labels) svm.coef_ Non riesco a trovare nulla nella documentazione che specifichi specificamente come questi pesi vengono calcolati o interpretati. Il segno del peso ha qualcosa a …

2
Panda / Statsmodel / Scikit-learn
I panda, i modelli statistici e lo Scikit apprendono diverse implementazioni delle operazioni di apprendimento automatico / statistiche o sono complementari tra loro? Quale di questi ha la funzionalità più completa? Quale è attivamente sviluppato e / o supportato? Devo implementare la regressione logistica. Qualche suggerimento su quale di questi …




1
I gradi di libertà possono essere un numero non intero?
Quando uso GAM, mi dà DF residuo è (ultima riga nel codice). Cosa significa? Andando oltre l'esempio GAM, in generale, il numero di gradi di libertà può essere un numero non intero?26.626.626.6 > library(gam) > summary(gam(mpg~lo(wt),data=mtcars)) Call: gam(formula = mpg ~ lo(wt), data = mtcars) Deviance Residuals: Min 1Q Median …
27 r  degrees-of-freedom  gam  machine-learning  pca  lasso  probability  self-study  bootstrap  expected-value  regression  machine-learning  linear-model  probability  simulation  random-generation  machine-learning  distributions  svm  libsvm  classification  pca  multivariate-analysis  feature-selection  archaeology  r  regression  dataset  simulation  r  regression  time-series  forecasting  predictive-models  r  mean  sem  lavaan  machine-learning  regularization  regression  conv-neural-network  convolution  classification  deep-learning  conv-neural-network  regression  categorical-data  econometrics  r  confirmatory-factor  scale-invariance  self-study  unbiased-estimator  mse  regression  residuals  sampling  random-variable  sample  probability  random-variable  convergence  r  survival  weibull  references  autocorrelation  hypothesis-testing  distributions  correlation  regression  statistical-significance  regression-coefficients  univariate  categorical-data  chi-squared  regression  machine-learning  multiple-regression  categorical-data  linear-model  pca  factor-analysis  factor-rotation  classification  scikit-learn  logistic  p-value  regression  panel-data  multilevel-analysis  variance  bootstrap  bias  probability  r  distributions  interquartile  time-series  hypothesis-testing  normal-distribution  normality-assumption  kurtosis  arima  panel-data  stata  clustered-standard-errors  machine-learning  optimization  lasso  multivariate-analysis  ancova  machine-learning  cross-validation 



2
Perché l'LDA di Python-scikit-learning non funziona correttamente e come calcola l'LDA tramite SVD?
Stavo usando Linear Discriminant Analysis (LDA) dalla scikit-learnlibreria di machine learning (Python) per la riduzione della dimensionalità ed ero un po 'curioso dei risultati. Mi chiedo ora cosa scikit-learnstia facendo l'ADL in modo che i risultati appaiano diversi, ad esempio, da un approccio manuale o da un ADL fatto in …



2
PCA in numpy e sklearn produce risultati diversi
Sto fraintendendo qualcosa. Questo è il mio codice usando sklearn import numpy as np import matplotlib.pyplot as plt from mpl_toolkits.mplot3d import Axes3D from sklearn import decomposition from sklearn import datasets from sklearn.preprocessing import StandardScaler pca = decomposition.PCA(n_components=3) x = np.array([ [0.387,4878, 5.42], [0.723,12104,5.25], [1,12756,5.52], [1.524,6787,3.94], ]) pca.fit_transform(x) Produzione: array([[ -4.25324997e+03, …

2
Come utilizzare le funzioni di validazione incrociata di scikit-learn su classificatori multi-etichetta
Sto testando diversi classificatori su un set di dati in cui ci sono 5 classi e ogni istanza può appartenere a una o più di queste classi, quindi sto usando i classificatori multi-etichetta di scikit-learn, in particolare sklearn.multiclass.OneVsRestClassifier. Ora voglio eseguire la validazione incrociata usando il sklearn.cross_validation.StratifiedKFold. Questo produce il …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.