Domande taggate «multidimensional-scaling»

Tecnica che rende le (dis) somiglianze osservate o calcolate tra oggetti in distanze in uno spazio a bassa dimensione (solitamente euclideo). Costruisce così le dimensioni per i dati; gli oggetti possono essere tracciati e concettualizzati in quelle dimensioni


3
Eseguire la normalizzazione delle funzioni prima o all'interno della convalida del modello?
Una buona pratica comune in Machine Learning è quella di caratterizzare la normalizzazione o la standardizzazione dei dati delle variabili del predittore, tutto qui, centrare i dati sottraendo la media e normalizzarli dividendoli per la varianza (o anche la deviazione standard). Per l'autocontenimento e per la mia comprensione facciamo questo …

7
Normalizzazione e standardizzazione dei dati nelle reti neurali
Sto cercando di prevedere il risultato di un sistema complesso che utilizza reti neurali (ANN). I valori di risultato (dipendenti) vanno da 0 a 10.000. Le diverse variabili di input hanno intervalli diversi. Tutte le variabili hanno distribuzioni approssimativamente normali. Considero diverse opzioni per ridimensionare i dati prima dell'allenamento. Un'opzione …

3
se ridimensionare indicatore / binario / predittori fittizi per LASSO
Per LASSO (e altre procedure di selezione dei modelli) è fondamentale ridimensionare i predittori. La raccomandazione generale che seguo è semplicemente quella di utilizzare una media di 0, 1 normalizzazione di deviazione standard per variabili continue. Ma cosa c'è da fare con i manichini? Ad esempio alcuni esempi applicati della …



3
Qual è il ruolo dell'MDS nelle statistiche moderne?
Di recente mi sono imbattuto in un ridimensionamento multidimensionale. Sto cercando di capire meglio questo strumento e il suo ruolo nelle statistiche moderne. Quindi, ecco alcune domande guida: A quali domande risponde? Quali ricercatori sono spesso interessati a usarlo? Esistono altre tecniche statistiche che svolgono funzioni simili? Quale teoria si …





2
Riduzione dimensionale scalabile
Considerando il numero di funzionalità costante, Barnes-Hut t-SNE ha una complessità di , proiezioni casuali e PCA hanno una complessità di che le rende "convenienti" per insiemi di dati molto grandi.O ( n )O(nlogn)O(nlog⁡n)O(n\log n)O(n)O(n)O(n) D'altra parte, i metodi basati sul ridimensionamento multidimensionale hanno una complessità .O ( n2)O(n2)O(n^2) Esistono …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.