Domande taggate «lg.learning»

Teoria dell'apprendimento automatico e dell'apprendimento: apprendimento PAC, teoria dell'apprendimento algoritmico e aspetti computazionali dell'inferenza bayesiana e modelli grafici.






1
Dato
Ecco un problema con un sapore simile all'apprendimento delle juntas: Input: una funzione , rappresentato da un oracolo di appartenenza, ovvero un oracolo che ha dato x , restituisce f ( x ) .f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxf(x)f(x)f(x) Obiettivo: trovare un sottocubo di { 0 , 1 } n con volume …

1
Risultati di limiti / durezza inferiori di Noisy Parity (LWE)
Alcuni retroscena: Sono interessato a trovare limiti inferiori (o risultati di durezza) "meno noti" per il problema di apprendimento con errori (LWE) e generalizzazioni come l'apprendimento con errori su anelli. Per definizioni specifiche, ecc., Ecco un bel sondaggio di Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Il tipo standard di ipotesi in stile (R) LWE …

1
Limiti inferiori per l'apprendimento nella query di appartenenza e nel modello di controesempio
Dana Angluin ( 1987 ; pdf ) definisce un modello di apprendimento con domande di appartenenza e domande di teoria (controesempi a una funzione proposta). Mostra che un linguaggio regolare che è rappresentato da un DFA minimo di stati è apprendibile in tempi polinomiali (dove le funzioni proposte sono DFA) …

2
Qualche classe di ipotesi diversa dalla parità nel PAC rumoroso ma non in SQ?
Angluin e Laird ('88) hanno formalizzato l' apprendimento con dati corrotti in modo casuale nel modello "PAC con rumore di classificazione casuale" (o PAC rumoroso). Questo modello è simile all'apprendimento del PAC , ad eccezione delle etichette degli esempi forniti allo studente che sono corrotte (capovolte), indipendentemente a caso, con …


3
Imparare con gli oracoli "taciturni"
La mia domanda è un po 'generica, quindi sto inventando una bella storia per giustificarla. Abbi pazienza se non è realistico ;-) Storia Il signor X, capo del dipartimento di sicurezza informatica di una grande azienda, è un po 'paranoico: richiede che tutti i dipendenti cambino le loro password una …

1
Apprendimento agnostico su distribuzioni arbitrarie
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in CO P T ( C , D ) = min f ∈ C e r r ( f , D )err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Supponiamo che un algoritmo AAA apprenda agnosticamente CCC su qualsiasi distribuzione, se per …

3
Limiti dimensionali VC di apprendimento PAC corretti
È noto che per un concetto di classe CC\mathcal{C} con dimensione VC ddd , è sufficiente ottenere O ( dεlog1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)esempi etichettati per PAC learn. Non mi è chiaro se l'algoritmo di apprendimento PAC (che utilizza questi numerosi campioni) sia corretto o improprio? Nei libri di testo di Kearns e Vazirani, …

1
Una domanda di apprendimento di parità
Definiamo una classe di funzioni su un insieme di bit. Correggi due distribuzioni p , q che sono "ragionevolmente" diverse l'una dall'altra (se vuoi, la loro distanza variazionale è almeno ϵ , o qualcosa di simile).nnnp,qp,qp, qϵϵ\epsilon Ora ogni funzione in questa classe è definita da una raccolta di k …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.