Quando il big O è stato usato per la prima volta in informatica e quando è diventato standard? La pagina Wikipedia su questo cita Knuth, Big Omicron e Big Omega e Big Theta , SIGACT aprile-giugno 1976, ma l'inizio di quel documento recita Molti di noi si sono abituati all'idea …
Il teorema del Maestro è un bellissimo strumento per risolvere determinati tipi di recidive . Tuttavia, spesso applichiamo una parte integrante durante l'applicazione. Ad esempio, durante l'analisi di Mergesort andiamo felicemente T(n)=T(⌊n2⌋)+T(⌈n2⌉)+f(n)T(n)=T(⌊n2⌋)+T(⌈n2⌉)+f(n)\qquad T(n) = T\left(\left\lfloor \frac{n}{2} \right\rfloor\right) + T\left(\left\lceil \frac{n}{2} \right\rceil\right) + f(n) per T′(n)=2T′(n2)+f(n)T′(n)=2T′(n2)+f(n)\qquad T'(n) = 2 T'\left(\frac{n}{2}\right) + …
Attualmente sto studiando autonomamente Intro to Algorithms (CLRS) e c'è un metodo particolare che descrivono nel libro per risolvere le relazioni di ricorrenza. Il seguente metodo può essere illustrato con questo esempio. Supponiamo di avere la ricorrenza T( n ) = 2 T( n--√) + registronT(n)=2T(n)+lognT(n) = 2T(\sqrt n) + …
Molte volte se le complessità hanno costanti come 3n, trascuriamo questa costante e diciamo O (n) e non O (3n). Non riesco a capire come possiamo trascurare questo cambiamento di tre volte? Alcune cose variano 3 volte più rapidamente di altre! Perché trascuriamo questo fatto?
Costruisci due funzioni soddisfacente:f, g: R+→ R+f,g:R+→R+ f,g: R^+ → R^+ f, gf,gf, g sono continui; f, gf,gf, g stanno aumentando monotonicamente; f≠ O ( g)f≠O(g)f \ne O(g) e .g≠ O ( f)g≠O(f)g \ne O(f)
Considera la ricorrenza T(n)=n−−√⋅T(n−−√)+cnT(n)=n⋅T(n)+cn\qquad\displaystyle T(n) = \sqrt{n} \cdot T\bigl(\sqrt{n}\bigr) + c\,n per con qualche costante positiva e .c T ( 2 ) = 1n>2n>2n \gt 2cccT(2)=1T(2)=1T(2) = 1 Conosco il teorema del Maestro per risolvere le ricorrenze, ma non sono sicuro di come potremmo risolvere questa relazione utilizzandola. Come approcci …
Un limite inferiore asintotico come la durezza esponenziale è generalmente pensato per implicare che un problema è "intrinsecamente difficile". Si ritiene che la crittografia "intrinsecamente difficile" da infrangere sia sicura. Tuttavia, un limite inferiore asintotico non esclude la possibilità che una classe enorme ma finita di istanze problematiche sia facile …
Cosa significa ?logO(1)nlogO(1)n\log^{O(1)}n Sono consapevole della notazione big-O, ma questa notazione non ha senso per me. Non riesco a trovare nulla al riguardo, perché non c'è modo che un motore di ricerca lo interpreti correttamente. Per un po 'di contesto, la frase in cui l'ho trovata recita "[...] chiamiamo una …
Ho letto Introduzione agli algoritmi di Cormen et al. e sto leggendo la dichiarazione del teorema del Maestro a partire da pagina 73 . Nel caso 3 esiste anche una condizione di regolarità che deve essere soddisfatta per usare il teorema: ... 3. Se f(n)=Ω(nlogba+ε)f(n)=Ω(nlogba+ε)\qquad \displaystyle f(n) = \Omega(n^{\log_b a …
Quando confrontiamo la complessità di due algoritmi, di solito accade che f( n ) = O ( g( n ) )f(n)=O(g(n))f(n) = O(g(n)) o g( n ) = O ( f( n ) )g(n)=O(f(n))g(n) = O(f(n)) (possibilmente entrambi), dove fff e ggg sono i tempi di esecuzione (ad esempio) dei …
Sto cercando di trovare un limite per la seguente equazione di ricorrenza:ΘΘ\Theta T(n)=2T(n/2)+T(n/3)+2n2+5n+42T(n)=2T(n/2)+T(n/3)+2n2+5n+42 T(n) = 2 T(n/2) + T(n/3) + 2n^2+ 5n + 42 Immagino che il Teorema del Maestro sia inappropriato a causa della diversa quantità di sottoproblemi e divisioni. Inoltre, gli alberi di ricorsione non funzionano poiché non …
Da quello che ho imparato asintoticamente il limite stretto significa che è legato dall'alto e dal basso come nella notazione theta. Ma cosa significa limite superiore asintoticamente stretto per la notazione Big-O?
Supponiamo stiamo dato due numeri lll e e che vogliamo trovare per l \ le i, \, j \ le r .rrrmax(i⊕j)max(i⊕j)\max{(i\oplus j)}l≤i,j≤rl≤i,j≤rl\le i,\,j\le r L'algoritmo ingenuo controlla semplicemente tutte le coppie possibili; ad esempio in ruby avremmo: def max_xor(l, r) max = 0 (l..r).each do |i| (i..r).each do |j| …
scrissi ∑i=1n1i=∑i=1nO(1)=O(n)∑i=1n1i=∑i=1nO(1)=O(n)\qquad \displaystyle \sum\limits_{i=1}^n \frac{1}{i} = \sum\limits_{i=1}^n \cal{O}(1) = \cal{O}(n) ma il mio amico dice che questo è sbagliato. Dal cheat sheet TCS so che la somma è anche chiamata che ha una crescita logaritmica in . Quindi il mio limite non è molto nitido, ma è sufficiente per l'analisi …
Comprendo che è più veloce di Θ ( n log n ) e più lento di Θ ( n / log n ) . Ciò che è difficile per me capire è come confrontare effettivamente Θ ( n log n ) e Θ ( n / log n ) con …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.