Teoria dell'apprendimento automatico e dell'apprendimento: apprendimento PAC, teoria dell'apprendimento algoritmico e aspetti computazionali dell'inferenza bayesiana e modelli grafici.
Gli automi a stati finiti residui (RFSA, definiti in [DLT02]) sono NFA che hanno alcune belle caratteristiche in comune con i DFA. In particolare, esiste sempre una RFSA canonica di dimensioni minime per ogni lingua regolare e la lingua riconosciuta da ogni stato nella RFSA è un residuo, proprio come …
Ispirato da questa domanda , sono curioso di sapere quanto segue: Qual è la complessità peggiore nel verificare se un determinato DFA accetta la stessa lingua di una determinata espressione regolare? Questo è noto? La speranza è che questo problema sia in P - che esista un algoritmo polinomiale delle …
Cosa si sa del seguente problema? Data una raccolta di funzioni f : { 0 , 1 } n → { 0 , 1 } , trova una sottocollection più grande S ⊆ C soggetta al vincolo che VC-Dimensione ( S ) ≤ k per un numero intero k .CCCf: …
ho un set di dati di migliaia di punti e un mezzo per misurare la distanza tra due punti qualsiasi, ma i punti di dati non hanno dimensionalità. Voglio un algoritmo per trovare centri di cluster in questo set di dati. immagino che, poiché i dati non hanno dimensioni, un …
È noto che per l'apprendimento PAC, esistono classi concettuali naturali (ad esempio sottoinsiemi di elenchi di decisioni) per le quali vi sono lacune polinomiali tra la complessità del campione necessaria per l'apprendimento teorico delle informazioni da parte di uno studente computazionalmente illimitato e la complessità del campione richiesta da un …
Ecco un problema con un sapore simile all'apprendimento delle juntas: Input: una funzione , rappresentato da un oracolo di appartenenza, ovvero un oracolo che ha dato x , restituisce f ( x ) .f:{0,1}n→{−1,1}f:{0,1}n→{−1,1}f: \{0,1\}^n \rightarrow \{-1,1\}xxxf(x)f(x)f(x) Obiettivo: trovare un sottocubo di { 0 , 1 } n con volume …
Alcuni retroscena: Sono interessato a trovare limiti inferiori (o risultati di durezza) "meno noti" per il problema di apprendimento con errori (LWE) e generalizzazioni come l'apprendimento con errori su anelli. Per definizioni specifiche, ecc., Ecco un bel sondaggio di Regev: http://www.cims.nyu.edu/~regev/papers/lwesurvey.pdf Il tipo standard di ipotesi in stile (R) LWE …
Dana Angluin ( 1987 ; pdf ) definisce un modello di apprendimento con domande di appartenenza e domande di teoria (controesempi a una funzione proposta). Mostra che un linguaggio regolare che è rappresentato da un DFA minimo di stati è apprendibile in tempi polinomiali (dove le funzioni proposte sono DFA) …
Angluin e Laird ('88) hanno formalizzato l' apprendimento con dati corrotti in modo casuale nel modello "PAC con rumore di classificazione casuale" (o PAC rumoroso). Questo modello è simile all'apprendimento del PAC , ad eccezione delle etichette degli esempi forniti allo studente che sono corrotte (capovolte), indipendentemente a caso, con …
I dati del mondo reale a volte hanno un numero naturale di cluster (il tentativo di raggrupparli in un numero di cluster inferiore a qualche k magico causerà un drammatico aumento del costo del clustering). Oggi ho partecipato a una conferenza del Dr. Adam Meyerson e ha indicato quel tipo …
La mia domanda è un po 'generica, quindi sto inventando una bella storia per giustificarla. Abbi pazienza se non è realistico ;-) Storia Il signor X, capo del dipartimento di sicurezza informatica di una grande azienda, è un po 'paranoico: richiede che tutti i dipendenti cambino le loro password una …
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in CO P T ( C , D ) = min f ∈ C e r r ( f , D )err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Supponiamo che un algoritmo AAA apprenda agnosticamente CCC su qualsiasi distribuzione, se per …
È noto che per un concetto di classe CC\mathcal{C} con dimensione VC ddd , è sufficiente ottenere O ( dεlog1ε)O(dεlog1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)esempi etichettati per PAC learn. Non mi è chiaro se l'algoritmo di apprendimento PAC (che utilizza questi numerosi campioni) sia corretto o improprio? Nei libri di testo di Kearns e Vazirani, …
Definiamo una classe di funzioni su un insieme di bit. Correggi due distribuzioni p , q che sono "ragionevolmente" diverse l'una dall'altra (se vuoi, la loro distanza variazionale è almeno ϵ , o qualcosa di simile).nnnp,qp,qp, qϵϵ\epsilon Ora ogni funzione in questa classe è definita da una raccolta di k …
Recentemente ho letto un numero decente di articoli CoLT. Anche se non faccio fatica con i singoli documenti (almeno non più di quanto di solito combatti con altri documenti teorici), non mi sento di avere una buona conoscenza del campo nel suo insieme. Esiste un testo standard, sondaggi o appunti …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.