Qual è il presupposto molteplice dell'apprendimento semi-supervisionato?


20

Sto cercando di capire cosa significhi l'assunzione multiforme nell'apprendimento semi-supervisionato. Qualcuno può spiegare in modo semplice? Non riesco a capire l'intuizione.

Dice che i tuoi dati si trovano su una varietà a bassa dimensione incorporata in uno spazio di dimensione superiore. Non ho capito cosa significhi.


Risposte:


38

Immagina di avere un mucchio di semi fissati su una lastra di vetro, che poggia orizzontalmente su un tavolo. A causa del modo in cui pensiamo tipicamente allo spazio, sarebbe sicuro dire che questi semi vivono in uno spazio bidimensionale, più o meno, perché ogni seme può essere identificato dai due numeri che danno le coordinate di quel seme sulla superficie di il vetro.

Ora immagina di prendere il piatto e inclinarlo in diagonale verso l'alto, in modo che la superficie del vetro non sia più orizzontale rispetto al terreno. Ora, se volessi localizzare uno dei semi, hai un paio di opzioni. Se decidi di ignorare il vetro, ogni seme sembrerebbe fluttuare nello spazio tridimensionale sopra il tavolo, e quindi dovresti descrivere la posizione di ogni seme usando tre numeri, uno per ogni direzione spaziale. Ma solo inclinando il vetro, non hai cambiato il fatto che i semi vivono ancora su una superficie bidimensionale. Quindi potresti descrivere come la superficie del vetro si trova nello spazio tridimensionale, e quindi potresti descrivere le posizioni dei semi sul vetro usando le tue due dimensioni originali.

In questo esperimento mentale, la superficie del vetro è simile a una varietà a bassa dimensione che esiste in uno spazio di dimensione superiore: indipendentemente dal modo in cui si ruota la piastra in tre dimensioni, i semi vivono ancora lungo la superficie di un piano bidimensionale.

Esempi

Più in generale, una varietà a bassa dimensione incorporata in uno spazio di dimensione superiore è solo un insieme di punti che, per qualsiasi motivo, sono considerati collegati o parte dello stesso insieme. In particolare, il collettore potrebbe essere contorto in qualche modo nello spazio di dimensione superiore (ad esempio, forse la superficie del vetro è deformata in una forma a tazza anziché in una forma a piastra), ma il collettore è ancora sostanzialmente a bassa dimensione. Soprattutto nello spazio ad alta dimensione, questa varietà potrebbe assumere molte forme e forme diverse, ma poiché viviamo in un mondo tridimensionale, è difficile immaginare esempi che abbiano più di tre dimensioni. Proprio come un esempio, considera questi esempi:

  • un pezzo di vetro (planare, bidimensionale) nello spazio fisico (tridimensionale)
  • un singolo filo (monodimensionale) in un pezzo di tessuto (bidimensionale)
  • un pezzo di tessuto (bidimensionale) accartocciato nella lavatrice (tridimensionale)

Esempi comuni di varietà nell'apprendimento automatico (o almeno in serie che si ipotizza possano vivere lungo varietà a bassa dimensione) includono:

  • immagini di scene naturali (in genere non si vedono immagini di rumore bianco, ad esempio, il che significa che le immagini "naturali" non occupano l'intero spazio di possibili configurazioni di pixel)
  • suoni naturali (argomento simile)
  • movimenti umani (il corpo umano ha centinaia di gradi di libertà, ma i movimenti sembrano vivere in uno spazio che può essere rappresentato efficacemente usando ~ 10 dimensioni)

Imparare le molteplici

L'ipotesi multipla nell'apprendimento automatico è che, invece di supporre che i dati nel mondo possano provenire da ogni parte dello spazio possibile (ad esempio, lo spazio di tutte le possibili immagini da 1 megapixel, incluso il rumore bianco), ha più senso assumere che i dati di allenamento provengono da varietà relativamente a bassa dimensione (come la lastra di vetro con i semi). Quindi l'apprendimento della struttura della varietà diventa un compito importante; inoltre, questo compito di apprendimento sembra essere possibile senza l'uso di dati di addestramento etichettati.

Esistono molti, molti modi diversi di apprendere la struttura di una varietà a bassa dimensione. Uno degli approcci più utilizzati è il PCA, che presuppone che il collettore sia costituito da un singolo "blob" ellissoidale come una forma di pancake o sigaro, incorporato in uno spazio di dimensioni superiori. Tecniche più complicate come isomap, ICA o codifica sparsa rilassano alcune di queste ipotesi in vari modi.

Apprendimento semi supervisionato

La ragione per cui la presunta varietà è importante nell'apprendimento semi-supervisionato è duplice. Per molte attività realistiche (ad esempio, determinare se i pixel in un'immagine mostrano un 4 o un 5), ci sono molti più dati disponibili nel mondo senza etichette (ad esempio, immagini che potrebbero contenere cifre) rispetto alle etichette (ad esempio, immagini che sono esplicitamente etichettate "4" o "5"). Inoltre, ci sono molti ordini di grandezza più informazioni disponibili nei pixel delle immagini rispetto alle etichette delle immagini che hanno etichette. Ma, come ho descritto sopra, le immagini naturali non sono effettivamente campionate dalla distribuzione uniforme su configurazioni di pixel, quindi sembra probabile che ci sia una varietà che cattura la struttura delle immagini naturali.molteplice, mentre le immagini contenenti 5s si trovano allo stesso modo su una varietà diversa ma vicina, quindi possiamo provare a sviluppare rappresentazioni per ciascuna di queste varietà utilizzando solo i dati pixel, sperando che le diverse varietà vengano rappresentate utilizzando diverse funzionalità apprese dei dati. Successivamente, quando avremo a disposizione alcuni bit di dati relativi alle etichette, possiamo usare quei bit per applicare semplicemente le etichette ai collettori già identificati.

Gran parte di questa spiegazione proviene dal lavoro in profondità e dalla letteratura sull'apprendimento delle caratteristiche. Yoshua Bengio e Yann LeCun - vedere il tutorial sull'apprendimento basato sull'energia hanno argomenti particolarmente accessibili in questo settore.


1
Questo non risponde alla domanda: non stai spiegando perché le varietà sono necessarie, stai sostanzialmente spiegando perché non sono necessari incorporamenti di dimensioni superiori (un sottoinsieme di un incorporamento di dimensioni superiori non deve essere una varietà per adattarsi ai tuoi esempi).
inviato il

5

Innanzitutto, assicurati di capire cos'è un incorporamento. È preso in prestito dalla matematica . In parole povere, si tratta di una mappatura dei dati in un altro spazio (spesso chiamato spazio di incorporamento o spazio delle funzioni ), preservando alcune strutture o proprietà dei dati. Si noti che la sua dimensionalità può essere maggiore o minore dello spazio di input. In pratica, la mappatura è complessa e altamente non lineare. Alcuni esempi:

  • Un "vettore di parole" con valore reale per rappresentare una parola, come word2vec
  • Le attivazioni di uno strato di una convnet, come lo strato FCNet AlexNet (FC7 è il settimo strato a connessione completa)

Per illustrare, prenderò un esempio di questo articolo di Josh Tenenbaum:

La Fig. 1 illustra il problema di rilevamento delle caratteristiche con un esempio di percezione visiva. L'insieme di viste di una faccia da tutti i possibili punti di vista è un insieme di dati di dimensioni estremamente elevate quando rappresentato come array di immagini in un computer o su una retina; ad esempio, le immagini in scala di grigi 32 x 32 pixel possono essere pensate come punti in uno spazio di osservazione di 1.024 dimensioni [spazio di input] . La struttura percettivamente significativa di queste immagini [spazio caratteristica] , tuttavia, ha una dimensionalità molto più bassa; tutte le immagini in Fig. 1 giacciono su una varietà bidimensionale parametrizzata dall'angolo di visione

inserisci qui la descrizione dell'immagine

Josh Tenenbaum discute quindi delle difficoltà di apprendimento di tale mappatura dall'input allo spazio delle funzionalità. Ma torniamo alla domanda: siamo interessati a come sono collegati gli spazi di input e feature.

  • La 32*32 array of grey pixel valuesè lo spazio di ingresso
  • Lo [x1=elevation, x2=azimuth]spazio è lo spazio delle caratteristiche (sebbene semplicistico, può essere pensato come uno spazio di incorporamento valido).

Ribadendo l'ipotesi multipla (citando questo grande articolo ):

L'ipotesi multipla è che i dati naturali formano varietà di dimensioni inferiori nel suo spazio di incorporamento

Con questo esempio, è chiaro che la dimensionalità dello spazio di incorporamento è molto inferiore allo spazio di input: 2 vs 1024. (Questa distinzione si terrà anche per le scelte di spazi di incorporamento di dimensioni superiori, meno semplicistiche).

Per convincerti che l'incorporamento costituisce una varietà, ti invito a leggere il resto della carta di Tenenbaum o l'articolo di Colah .

Nota: questo è solo un esempio di ciò che significa l'ipotesi multipla, non un argomento sul perché ciò accada .

Correlati: Spiegazione dei vettori di parole , carta di word2vec

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.