L'elaborazione del linguaggio naturale è un insieme di tecniche di linguistica, intelligenza artificiale, apprendimento automatico e statistica che mirano a elaborare e comprendere le lingue umane.
Esistono reti neurali ricorrenti e reti neurali ricorsive. Entrambi sono generalmente indicati con lo stesso acronimo: RNN. Secondo Wikipedia , le NN ricorrenti sono in realtà NN ricorsive, ma non capisco davvero la spiegazione. Inoltre, non riesco a trovare quale sia meglio (con esempi o giù di lì) per l'elaborazione …
Voglio imparare le reti neurali. Sono un linguista computazionale. Conosco approcci statistici di machine learning e posso programmare in Python. Sto cercando di iniziare con i suoi concetti e conoscere uno o due modelli popolari che possono essere utili dal punto di vista della linguistica computazionale. Ho navigato sul web …
Sto cercando di capire cos'è la somiglianza tra Allocazione latente di Dirichlet e word2vec per calcolare la somiglianza delle parole. A quanto ho capito, LDA associa le parole a un vettore di probabilità di argomenti latenti , mentre word2vec le associa a un vettore di numeri reali (relativi alla scomposizione …
Come si usa l'incorporamento di parole per mappare un documento su un vettore di caratteristiche, adatto per l'uso con l'apprendimento supervisionato? Una parola che incorpora mappa ogni parola su un vettore , dove è un numero non troppo grande (ad esempio, 500). Gli incorporamenti di parole popolari includono word2vec e …
Dopo aver addestrato i vettori di parole con word2vec, è meglio normalizzarli prima di usarli per alcune applicazioni a valle? Vale a dire quali sono i pro / contro di normalizzarli?
Comprendo che gli HMM (Hidden Markov Models) sono modelli generativi e CRF sono modelli discriminatori. Comprendo anche come vengono progettati e utilizzati i CRF (Conditional Random Fields). Quello che non capisco è come sono diversi dagli HMM? Ho letto che nel caso di HMM, possiamo solo modellare il nostro stato …
Chiuso. Questa domanda è fuori tema . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che sia in argomento per Cross Validated. Chiuso 2 anni fa . Sto usando il cursore per eseguire una foresta casuale convalidata in modo incrociato su un set di …
Identico significato, che produrrà risultati identici per una somiglianza Classifica tra un vettore u e un insieme di vettori V . Ho un modello di spazio vettoriale che ha come parametro la misura della distanza (distanza euclidea, somiglianza del coseno) e la tecnica di normalizzazione (nessuna, l1, l2). Da quanto …
I modelli di argomenti popolari come LDA di solito raggruppano parole che tendono a ricorrere nello stesso argomento (cluster). Qual è la differenza principale tra tali modelli di argomenti e altri semplici approcci di clustering basati sulla ricorrenza come PMI? (PMI è l'acronimo di Pointwise Mutual Information, e viene utilizzato …
Sono rimasto impressionato dai risultati del documento ICML 2014 " Rappresentazioni distribuite di frasi e documenti " di Le e Mikolov. La tecnica che descrivono, chiamata "vettori di paragrafo", apprende rappresentazioni senza supervisione di paragrafi / documenti arbitrariamente lunghi, basati su un'estensione del modello word2vec. Il documento riporta prestazioni all'avanguardia …
Allo stato attuale, questa domanda non è adatta al nostro formato di domande e risposte. Ci aspettiamo che le risposte siano supportate da fatti, riferimenti o competenze, ma questa domanda probabilmente solleciterà dibattiti, argomenti, sondaggi o discussioni estese. Se ritieni che questa domanda possa essere migliorata e possibilmente riaperta, visita …
Da quello che ho visto, la formula di lisciatura di Kneser-Ney (di secondo ordine) è in qualche modo data come P2KN(wn| wn - 1)= max {C( wn - 1,wn) - D , 0 }Σw'C( wn - 1, w')+ λ ( wn - 1) × Pc o n t( wn)PKN2(wn|wn-1)=max{C(wn-1,wn)-D,0}Σw'C(wn-1,w')+λ(wn-1)×Pcont(wn) \begin{align} …
Ispirato da questa domanda , mi chiedo se sia stato fatto qualche lavoro su modelli di argomenti per grandi raccolte di testi estremamente brevi. La mia intuizione è che Twitter dovrebbe essere un'ispirazione naturale per tali modelli. Tuttavia, da una sperimentazione limitata, sembra che i modelli di argomenti standard (LDA, …
Quando si esegue l'elaborazione del linguaggio naturale, si può prendere un corpus e valutare la probabilità che la parola successiva si verifichi in una sequenza di n. n viene solitamente scelto come 2 o 3 (bigrammi e trigrammi). Esiste un punto noto in cui il rilevamento dei dati per l'ennesima …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.