Domande taggate «high-dimensional»

Riguarda un gran numero di caratteristiche o dimensioni (variabili) per i dati. (Per un numero elevato di punti dati, utilizzare il tag [large-data]; se il problema è un numero maggiore di variabili rispetto ai dati, utilizzare il tag [underdetermined].)

8
Perché la distanza euclidea non è una buona metrica in dimensioni elevate?
Ho letto che "la distanza euclidea non è una buona distanza in dimensioni elevate". Immagino che questa affermazione abbia qualcosa a che fare con la maledizione della dimensionalità, ma cosa esattamente? Inoltre, che cosa sono le "alte dimensioni"? Ho applicato il clustering gerarchico usando la distanza euclidea con 100 funzioni. …




3
La riduzione della dimensionalità per la visualizzazione dovrebbe essere considerata un problema "chiuso", risolto da t-SNE?
Ho letto molto sull'algoritmo -sne per la riduzione della dimensionalità. Sono rimasto molto colpito dalle prestazioni su set di dati "classici", come MNIST, in cui raggiunge una chiara separazione delle cifre ( vedi articolo originale ):ttt L'ho anche usato per visualizzare le funzionalità apprese da una rete neurale che mi …




1
Regressione ad alta dimensione: perché il
Sto cercando di approfondire la ricerca nell'area della regressione ad alta dimensione; quando ppp è maggiore di nnn , cioè, p>>np>>np >> n . Sembra che il termine logp/nlog⁡p/n\log p/n appaia spesso in termini di tasso di convergenza per gli stimatori della regressione. β^β^\hat{\beta}1n∥Xβ^−Xβ∥22=OP(σlogpn−−−−−√∥β∥1).1n‖Xβ^-Xβ‖22=OP(σlog⁡pn‖β‖1). \dfrac{1}{n}\|X\hat{\beta} - X \beta\|_2^2 = O_P …




2
La regressione lineare multipla in 3 dimensioni è un piano di adattamento ottimale o una linea di adattamento ottimale?
Il nostro prof non sta entrando nella matematica o nella rappresentazione geometrica della regressione lineare multipla e questo mi ha leggermente confuso. Da un lato si chiama ancora regressione lineare multipla, anche in dimensioni superiori. D'altra parte, se abbiamo ad esempio e possiamo inserire tutti i valori che vorremmo per …


1
È il teorema del contrasto relativo di Beyer et al. articolo: "Sul comportamento sorprendente delle metriche di distanza nello spazio ad alta dimensione" fuorviante?
Questo è citato molto spesso quando si parla della maledizione della dimensionalità e va (formula a destra chiamata contrasto relativo) limd→∞var(||Xd||kE[||Xd||k])=0,then:Dmaxkd−DminkdDminkd→0limd→∞var(||Xd||kE[||Xd||k])=0,then:Dmaxdk−DmindkDmindk→0 \lim_{d\rightarrow \infty} \text{var} \left(\frac{||X_d||_k}{E[||X_d||_k]} \right) = 0, \text{then}: \frac{D_{\max^{k}_{d}} - D_{\min^{k}_{d}}}{D_{\min^{k}_{d}}} \rightarrow 0 Il risultato del teorema mostra che la differenza tra le distanze massima e minima rispetto a …

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.