Scikit-learn è un modulo Python composto da uno strumento semplice ed efficiente per l'apprendimento automatico, il data mining e l'analisi dei dati. È basato su NumPy, SciPy e matplotlib. È distribuito sotto la licenza BSD a 3 clausole.
Ho letto la spiegazione della convoluzione e la capisco fino a un certo punto. Qualcuno può aiutarmi a capire come questa operazione si collega alla convoluzione nelle reti neurali convoluzionali? È una funzione simile a un filtro gche applica peso?
Ho due tensori a:[batch_size, dim] b:[batch_size, dim]. Voglio fare un prodotto interno per ogni coppia nel lotto, generando c:[batch_size, 1], dove c[i,0]=a[i,:].T*b[i,:]. Come?
I miei dati includono risposte al sondaggio che sono binarie (numeriche) e nominali / categoriche. Tutte le risposte sono discrete e a livello individuale. I dati sono di forma (n = 7219, p = 105). Cose di coppia: Sto cercando di identificare una tecnica di clustering con una misura di …
Sto lavorando alla classificazione del testo in cui ho 39 categorie / classi e 8,5 milioni di record. (In futuro aumenteranno i dati e le categorie). La struttura o il formato dei miei dati è il seguente. ---------------------------------------------------------------------------------------- | product_title | Key_value_pairs | taxonomy_id | ---------------------------------------------------------------------------------------- Samsung S7 Edge | …
Sto cercando di capire come comprendere appieno il processo decisionale di un modello di classificazione dell'albero decisionale creato con sklearn. I 2 aspetti principali che sto guardando sono una rappresentazione grafica dell'albero e l'elenco delle importazioni delle funzionalità. Quello che non capisco è come viene determinata l'importanza della funzione nel …
Ho addestrato un modello di previsione con Scikit Learn in Python (Random Forest Regressor) e voglio estrarre in qualche modo i pesi di ogni funzione per creare uno strumento eccellente per la previsione manuale. L'unica cosa che ho trovato è il model.feature_importances_ma non aiuta. C'è un modo per raggiungerlo? def …
La mia domanda è triplice Nel contesto di macchine vettoriali di supporto "Kernelized" È desiderabile la selezione di variabili / funzionalità, soprattutto perché regolarizziamo il parametro C per evitare un eccesso di adattamento e il motivo principale dietro l'introduzione di kernel in un SVM è quello di aumentare la dimensionalità …
Sono nuovo nel campo dell'apprendimento automatico, ma ho fatto la mia parte di elaborazione del segnale. Per favore fatemi sapere se questa domanda è stata etichettata erroneamente. Ho dati bidimensionali che sono definiti da almeno tre variabili, con un modello altamente non lineare troppo complicato per simulare. Ho avuto vari …
Ho dei dati di allenamento che sono etichettati con valori binari. Ho anche raccolto la fiducia di ciascuna di queste etichette, ovvero 0,8 di fiducia significherebbe che l'80% delle etichettatrici umane è d'accordo su tale etichetta. È possibile utilizzare questi dati di confidenza per migliorare l'accuratezza del mio classificatore? Il …
Gli esperti nel mio campo sono in grado di prevedere la probabilità che un evento (picco binario in giallo) 30 minuti prima che si verifichi . La frequenza qui è di 1 secondo, questa vista rappresenta alcune ore di dati, ho cerchiato in nero dove dovrebbe essere il modello "malizioso" …
Mentre aumenta il numero di alberi in scikit imparare s' GradientBoostingRegressor, ho previsioni più negative, anche se non ci sono valori negativi nella mia formazione e testing set. Ho circa 10 funzioni, la maggior parte delle quali binarie. Alcuni dei parametri che stavo sintonizzando erano: il numero di alberi / …
Se ho capito bene, il CV nidificato può aiutarmi a valutare quale modello e processo di ottimizzazione dell'iperparametro sono i migliori. Il ciclo interno ( GridSearchCV) trova i migliori iperparametri e il ciclo esterno ( cross_val_score) valuta l'algoritmo di ottimizzazione dell'iperparametro. Scelgo quindi quale combinazione di tuning / modello dal …
Sto cercando consigli sul modo migliore per affrontare il mio attuale problema di apprendimento automatico Lo schema del problema e quello che ho fatto è il seguente: Ho oltre 900 prove di dati EEG, in cui ogni prova dura 1 secondo. La verità fondamentale è nota per ciascuno e classifica …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.