I modelli di apprendimento profondo sono parametrici? O non parametrico?


12

Non penso che ci possa essere una risposta a tutti i modelli di apprendimento profondo. Quali dei modelli di apprendimento profondo sono parametrici e quali non parametrici e perché?


2
Ponetevi una domanda: il numero di parametri sta aumentando mentre elaborate nuovi esempi di allenamento durante l'allenamento? In tal caso, il metodo non è parametrico.
Vladislavs Dovgalecs

3
Data la tua prima frase, la tua seconda frase non sarebbe un titolo migliore?
Glen_b

Potresti definire cosa intendi per parametrico e non parametrico? Non è così chiaro come alcuni potrebbero supporre, vedi questo wiki: en.wikipedia.org/wiki/Nonparametric_statistics per un esempio dell'ambiguità
Repmat

Risposte:


10

I modelli di apprendimento profondo sono generalmente parametrici - in realtà hanno un numero enorme di parametri, uno per ogni peso che viene sintonizzato durante l'allenamento.

Poiché il numero di pesi generalmente rimane costante, tecnicamente hanno gradi di libertà fissi. Tuttavia, poiché in genere ci sono così tanti parametri che possono essere visti per emulare non parametrici.

I processi gaussiani (ad esempio) usano ogni osservazione come un nuovo peso e poiché il numero di punti va all'infinito, lo stesso vale per il numero di pesi (da non confondere con gli iperparametri).

Dico in generale perché ci sono tanti gusti diversi per ogni modello. Ad esempio, i GP di basso rango hanno un numero limitato di parametri che sono dedotti dai dati e sono sicuro che qualcuno abbia fatto qualche tipo di dnn non parametrico in qualche gruppo di ricerca!


la maggior parte delle persone è confusa dal fatto che in genere gli NN sono modelli non para perché fanno una sorta di selezione delle caratteristiche man mano che aumentano i punti dati, esilaranti !, quindi la regressione lineare con L1- la regolarizzazione è anche non parametrica, che disastro ..!. Grazie, @j__ per aver risposto chiaramente. Finora non ho trovato una risposta chiara e concisa. Se vedi link web / ricerche su questo argomento, ti preghiamo di pubblicarlo qui, sarebbe fantastico leggere di più.
Anu,

3

Una rete neurale profonda standard (DNN) è, tecnicamente parlando, parametrica poiché ha un numero fisso di parametri. Tuttavia, la maggior parte DNNS hanno tanti parametri che essi potrebbero essere interpretati come non parametrica ; è stato dimostrato che nel limite della larghezza infinita, una rete neurale profonda può essere vista come un processo gaussiano (GP), che è un modello non parametrico [Lee et al., 2018].

Tuttavia, interpretiamo rigorosamente i DNN come parametrici per il resto di questa risposta.

Alcuni esempi di modelli parametrici di deep learning sono:

  • Rete autoregressiva profonda (DARN)
  • Sigmoid credo network (SBN)
  • Rete neurale ricorrente (RNN), Pixel CNN / RNN
  • Autoencoder variabile (VAE), altri modelli gaussiani latenti profondi, ad es. DRAW

Alcuni esempi di modelli di apprendimento profondo non parametrici sono:

  • Deep Gaussian process (GPs)
  • GP ricorrente
  • GP dello spazio degli stati
  • Processo gerarchico di Dirichlet
  • Processo a buffet indiano in cascata

spettro di modelli variabili latenti

Immagine dal tutorial di Shakir Mohamed sui modelli generativi profondi .

Riferimenti:


1

Deutsch and Journel (1997, pagg. 16-17) hanno espresso l'opinione sulla natura fuorviante del termine "non parametrico". Hanno suggerito che ≪ ... il modello terminologico "ricco di parametri" dovrebbe essere mantenuto per i modelli basati su indicatori anziché il qualificatore tradizionale ma fuorviante "non parametrico" .≫

"Parameter rich" può essere una descrizione accurata, ma "rich" ha un carico emotivo che offre una visione positiva che potrebbe non essere sempre giustificata (!).

Alcuni professori possono ancora persistere e si riferiscono collettivamente a reti neurali, foreste casuali e simili come tutti "non parametrici". La maggiore opacità e tratti natura delle reti neurali (in particolare con la diffusione delle funzioni di attivazione Relu) li rende non parameteric- esque .


0

I modelli di apprendimento profondo non devono essere considerati parametrici. I modelli parametrici sono definiti come modelli basati su un'ipotesi a priori sulle distribuzioni che generano i dati. Le reti profonde non fanno ipotesi sul processo di generazione dei dati, ma usano grandi quantità di dati per apprendere una funzione che mappa gli input agli output. L'apprendimento profondo non è parametrico secondo una definizione ragionevole.

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.