Domande teoriche sull'apprendimento automatico, in particolare sulla teoria dell'apprendimento computazionale, tra cui la teoria dell'apprendimento algoritmico, l'apprendimento PAC e l'inferenza bayesiana
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in CO P T ( C , D ) = min f ∈ C e r r ( f , D )err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Supponiamo che un algoritmo AAA apprenda agnosticamente CCC su qualsiasi distribuzione, se per …
È noto che per un concetto di classe CC\mathcal{C} con dimensione VC ddd , è sufficiente ottenere O ( dεlog1ε)O(dεlog1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)esempi etichettati per PAC learn. Non mi è chiaro se l'algoritmo di apprendimento PAC (che utilizza questi numerosi campioni) sia corretto o improprio? Nei libri di testo di Kearns e Vazirani, …
Recentemente ho letto un numero decente di articoli CoLT. Anche se non faccio fatica con i singoli documenti (almeno non più di quanto di solito combatti con altri documenti teorici), non mi sento di avere una buona conoscenza del campo nel suo insieme. Esiste un testo standard, sondaggi o appunti …
Conosco abbastanza bene la teoria alla base di VC-Dimension, ma ora sto esaminando i recenti (ultimi 10 anni) progressi nella teoria dell'apprendimento statistico: medie (locali) di Rademacher, Lemma di classe finita di Massart, Covering Numbers, Chaining, Dudley's Teorema, pseudodimensionalità, dimensione grassa, numeri di imballaggio, composizione di Rademacher e forse altri …
È noto che per l'apprendimento PAC classico, sono necessari esempi per ottenere un limite di errore di ε whp, dove d è la dimensione VC della classe del concetto.Ω ( d/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd È noto che nel caso agnostico sono necessari esempi ?Ω ( d/ ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)
Quali classificatori di machine learning sono i più parallelizzabili? Se avessi un problema di classificazione difficile, tempo limitato, ma una discreta LAN di computer con cui lavorare, quali classificatori proveresti? Per contro mi sembra che alcuni classificatori standard che conosco impilino come segue ma potrei sbagliarmi totalmente: Foreste casuali: molto …
In particolare, sto chiedendo risorse per conoscere i sistemi di apprendimento automatico che possono aggiornare le rispettive reti di credenze (o equivalenti) durante il funzionamento. Ne ho anche incontrati alcuni, anche se non sono riuscito a segnalarli. Come puoi immaginare, è un argomento piuttosto impegnativo da cercare su Internet.
Dopo i successi sempre più recenti delle reti neurali nei giochi da tavolo, si sente che il prossimo obiettivo che ci prefiggiamo potrebbe essere qualcosa di più utile di battere gli umani in Starcraft. Più precisamente, mi chiedevo se Le reti neurali possono essere addestrate per risolvere i classici problemi …
Le foreste casuali hanno una reputazione tra i professionisti di essere tra le tecniche di classificazione più efficaci. Eppure non li incontriamo molto nella letteratura teorica dell'apprendimento, da cui suppongo un'assenza di profondi risultati teorici. Se si volesse approfondire questa teoria, da dove iniziare?
Supponiamo di avere punti in . Questi inducono un diagramma di Voronoi. Se assegno a ciascuno dei punti un'etichetta , questi inducono una funzione binaria su . Domanda: qual è la dimensione VC di tutte queste possibili funzioni binarie indotte da alcuni punti e un'etichettatura di questi punti?KkkRdRd\mathbb{R}^d± R d …
Background––––––––––––––Background_\underline{\bf Background} Nel 2005, Regev [1] ha introdotto il problema di apprendimento con errori (LWE), una generalizzazione del problema della parità di apprendimento con errore. L'ipotesi della durezza di questo problema per alcune scelte di parametri è alla base delle prove di sicurezza per una serie di sistemi di crittografia …
Sto cercando la dimensione VC del seguente sistema di set. Universo tale che U ⊆ R 3 . Nel sistema dell'insieme R ogni insieme S ∈ R corrisponde a una sfera in R 3 in modo tale che l'insieme S contenga un elemento in U se e solo se la …
Intendo specificamente famiglie linguistiche che ammettono stringhe arbitrariamente lunghe, non congiunzioni su n bit o elenchi di decisioni o qualsiasi altro linguaggio "semplice" contenuto in {0,1} ^ n. Sto chiedendo dei linguaggi regolari "teorici degli automi" rispetto a quelli "teorici della logica": qualcosa come i linguaggi testabili a tratti, i …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.