Hadoop è un progetto open source Apache che fornisce software per l'elaborazione distribuita affidabile e scalabile. Il progetto stesso include una varietà di altre aggiunte complementari.
Un aspirante scienziato di dati qui. Non so nulla di Hadoop, ma mentre leggo di Data Science e Big Data, vedo molto parlare di Hadoop. È assolutamente necessario imparare Hadoop come scienziato dei dati?
Con Hadoop 2.0 e YARN Hadoop presumibilmente non è più legato solo a soluzioni di riduzione delle mappe. Con questo progresso, quali sono i casi d'uso di Apache Spark vs Hadoop considerando entrambi in cima a HDFS? Ho letto la documentazione introduttiva di Spark, ma sono curioso di sapere se …
Creo un corr()df da un df originale. Il corr()df è venuto fuori 70 X 70 ed è impossibile visualizzare il heatmap ... sns.heatmap(df). Se provo a visualizzare il corr = df.corr(), la tabella non si adatta allo schermo e posso vedere tutte le correlazioni. È un modo per stampare l'intero …
Ho sentito parlare di molti strumenti / framework per aiutare le persone a elaborare i propri dati (ambiente big data). Uno si chiama Hadoop e l'altro è il concetto noSQL. Qual è la differenza nel punto di elaborazione? Sono complementari?
C'è molto clamore intorno a Hadoop e al suo ecosistema. Tuttavia, in pratica, dove molti set di dati si trovano nell'intervallo di terabyte, non è più ragionevole utilizzare Amazon RedShift per eseguire query su set di dati di grandi dimensioni, piuttosto che impiegare tempo e fatica a costruire un cluster …
Qualcuno può gentilmente parlarmi dei compromessi coinvolti nella scelta tra Storm e MapReduce in Hadoop Cluster per l'elaborazione dei dati? Naturalmente, a parte quello ovvio, Hadoop (elaborazione tramite MapReduce in un cluster Hadoop) è un sistema di elaborazione batch e Storm è un sistema di elaborazione in tempo reale. Ho …
Sto prototipando un'applicazione e ho bisogno di un modello linguistico per calcolare la perplessità su alcune frasi generate. Esiste un modello di linguaggio addestrato in Python che posso usare facilmente? Qualcosa di semplice come model = LanguageModel('en') p1 = model.perplexity('This is a well constructed sentence') p2 = model.perplexity('Bunny lamp robert …
Nella nostra azienda, abbiamo un database MongoDB che contiene molti dati non strutturati, sui quali dobbiamo eseguire algoritmi di riduzione delle mappe per generare report e altre analisi. Abbiamo due approcci tra cui scegliere per l'implementazione delle analisi richieste: Un approccio consiste nell'estrarre i dati da MongoDB in un cluster …
Chiuso . Questa domanda deve essere più focalizzata . Al momento non accetta risposte. Vuoi migliorare questa domanda? Aggiorna la domanda in modo che si concentri su un problema solo modificando questo post . Chiuso 5 anni fa . Sembra che la maggior parte delle lingue abbia un certo numero …
Nel rivedere la " Modellazione predittiva applicata " un revisore afferma : Una critica che ho della pedagogia dell'apprendimento statistico (SL) è l'assenza di considerazioni sulle prestazioni di calcolo nella valutazione delle diverse tecniche di modellizzazione. Con la sua enfasi sul bootstrap e la validazione incrociata per mettere a punto …
Ho due tensori a:[batch_size, dim] b:[batch_size, dim]. Voglio fare un prodotto interno per ogni coppia nel lotto, generando c:[batch_size, 1], dove c[i,0]=a[i,:].T*b[i,:]. Come?
Durante la presentazione e il materiale di Summingbird da parte di Twitter, uno dei motivi menzionati per l'utilizzo dei cluster Storm e Hadoop insieme in Summingbird è che l'elaborazione attraverso Storm si traduce in una cascata di errori. Al fine di evitare questa cascata di errori e accumulo, il cluster …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.