Domande taggate «machine-learning»

Domande teoriche sull'apprendimento automatico, in particolare sulla teoria dell'apprendimento computazionale, tra cui la teoria dell'apprendimento algoritmico, l'apprendimento PAC e l'inferenza bayesiana

1
Apprendimento agnostico su distribuzioni arbitrarie
DDD{0,1}d×{0,1}{0,1}d×{0,1}\{0,1\}^d\times \{0,1\}CCCf:{0,1}d→{0,1}f:{0,1}d→{0,1}f:\{0,1\}^d\rightarrow\{0,1\}f∈Cf∈Cf \in CO P T ( C , D ) = min f ∈ C e r r ( f , D )err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D)=Pr(x,y)∼D[f(x)≠y]err(f,D) = \Pr_{(x,y) \sim D}[f(x) \neq y]OPT(C,D)=minf∈C err(f,D)OPT(C,D)=minf∈C err(f,D)OPT(C,D) = \min_{f \in C}\ err(f,D) Supponiamo che un algoritmo AAA apprenda agnosticamente CCC su qualsiasi distribuzione, se per …

3
Limiti dimensionali VC di apprendimento PAC corretti
È noto che per un concetto di classe CC\mathcal{C} con dimensione VC ddd , è sufficiente ottenere O ( dεlog1ε)O(dεlog⁡1ε)O\left(\frac{d}{\varepsilon}\log\frac{1}{\varepsilon}\right)esempi etichettati per PAC learn. Non mi è chiaro se l'algoritmo di apprendimento PAC (che utilizza questi numerosi campioni) sia corretto o improprio? Nei libri di testo di Kearns e Vazirani, …


3
Risorsa / libro per i recenti progressi nella teoria dell'apprendimento statistico
Conosco abbastanza bene la teoria alla base di VC-Dimension, ma ora sto esaminando i recenti (ultimi 10 anni) progressi nella teoria dell'apprendimento statistico: medie (locali) di Rademacher, Lemma di classe finita di Massart, Covering Numbers, Chaining, Dudley's Teorema, pseudodimensionalità, dimensione grassa, numeri di imballaggio, composizione di Rademacher e forse altri …

1
Limite inferiore del campionamento agnostico PAC
È noto che per l'apprendimento PAC classico, sono necessari esempi per ottenere un limite di errore di ε whp, dove d è la dimensione VC della classe del concetto.Ω ( d/ ε)Ω(d/ε)\Omega(d/\varepsilon)εε\varepsilonddd È noto che nel caso agnostico sono necessari esempi ?Ω ( d/ ε2)Ω(d/ε2)\Omega(d/\varepsilon^2)


5
Quali sono buoni riferimenti sulla comprensione dell'apprendimento online?
In particolare, sto chiedendo risorse per conoscere i sistemi di apprendimento automatico che possono aggiornare le rispettive reti di credenze (o equivalenti) durante il funzionamento. Ne ho anche incontrati alcuni, anche se non sono riuscito a segnalarli. Come puoi immaginare, è un argomento piuttosto impegnativo da cercare su Internet.


2
Risultati teorici per foreste casuali?
Le foreste casuali hanno una reputazione tra i professionisti di essere tra le tecniche di classificazione più efficaci. Eppure non li incontriamo molto nella letteratura teorica dell'apprendimento, da cui suppongo un'assenza di profondi risultati teorici. Se si volesse approfondire questa teoria, da dove iniziare?


1
Apprendimento con errori (firmati)
Background––––––––––––––Background_\underline{\bf Background} Nel 2005, Regev [1] ha introdotto il problema di apprendimento con errori (LWE), una generalizzazione del problema della parità di apprendimento con errore. L'ipotesi della durezza di questo problema per alcune scelte di parametri è alla base delle prove di sicurezza per una serie di sistemi di crittografia …


Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.