A volte durante l'ottimizzazione del codice è necessario cronometrare alcune parti del codice, sto usando il seguente da anni ma mi chiedevo se esiste un modo più semplice / migliore per farlo? call system_clock(count_rate=clock_rate) !Find the time rate call system_clock(count=clock_start) !Start Timer call do_something_subroutine !This is what gets timed call …
Ho un set di dati e voglio trovare il parametro modo tale da ridurre al minimo la somma questo èx1,x2,…,xkx1,x2,…,xkx_{1}, x_{2}, \ldots, x_{k}mmm∑i=1k∣∣m−xi∣∣.∑i=1k|m−xi|.\sum_{i=1}^{k}\big|m-x_i\big|. minm∑i=1k∣∣m−xi∣∣.minm∑i=1k|m−xi|.\min_{m}\sum_{i=1}^{k}\big|m-x_i\big|.
L'algoritmo di Remez è una routine iterativa ben nota per approssimare una funzione con un polinomio nella norma minimax. Ma, come dice Nick Trefethen [1] al riguardo: La maggior parte di queste [implementazioni] risale a molti anni fa e, di fatto, la maggior parte di esse non risolve il problema …
Ho un problema di programmazione con numeri interi misti. E attualmente sto usando GLPK come mio risolutore. Ma ho scoperto che GLPK è buono per il problema della programmazione lineare, ma per la programmazione di numeri interi misti, richiede molto più tempo, quindi non soddisfa i nostri requisiti. Sto cercando …
Ho letto alcuni riferimenti tra cui questo . Sono un po 'confuso su quale problema di ottimizzazione compresso costruisce e cerca di risolvere. È minimizesubject to∥x∥1Ax=bminimize‖x‖1subject toAx=b\begin{array}{ll} \text{minimize} & \|x\|_1\\ \text{subject to} & Ax=b\end{array} o / e minimizesubject to∥x∥0Ax=bminimize‖x‖0subject toAx=b\begin{array}{ll} \text{minimize} & \|x\|_0\\ \text{subject to} & Ax=b\end{array} o / e …
Ho questa confusione sulla regola di Armijo usata nella ricerca di linee. Stavo leggendo indietro la ricerca della linea di tracciamento ma non ho capito di cosa tratta questa regola di Armijo. Qualcuno può elaborare quale sia la regola dell'Armijo? La Wikipedia non sembra spiegare bene. Grazie
Nelle incomprimibili equazioni di Navier-Stokes, il termine pressione viene spesso indicato come un moltiplicatore di Lagrange che impone il condizione di incomprimibilità.ρ(ut+(u⋅∇)u)∇⋅u=−∇p+μΔu+f=0ρ(ut+(u⋅∇)u)=−∇p+μΔu+f∇⋅u=0\begin{align*} \rho\left(\mathbf{u}_t + (\mathbf{u} \cdot \nabla)\mathbf{u}\right) &= - \nabla p + \mu\Delta\mathbf{u} + \mathbf{f}\\ \nabla\cdot\mathbf{u} &= 0 \end{align*} In che senso è vero? Esiste una formulazione delle equazioni incomprimibili …
Sto cercando di risolvere il seguente sistema di equazioni per le variabili e (tutte le altre sono costanti):P,x1P,x1P,x_1x2x2x_2 A(1−P)2−k1x1=0AP2−k2x2=0(1−P)(r1+x1)4L1−P(r1+x2)4L2=0A(1−P)2−k1x1=0AP2−k2x2=0(1−P)(r1+x1)4L1−P(r1+x2)4L2=0\frac{A(1-P)}{2}-k_1x_1=0 \\ \frac{AP}{2}-k_2x_2=0 \\ \frac{(1-P)(r_1+x_1)^4}{L_1}-\frac{P(r_1+x_2)^4}{L_2}=0 Vedo che posso trasformare questo sistema di equazioni in una singola equazione di una singola variabile risolvendo le equazioni 1 e 2 rispettivamente per e e sostituendole …
Secondo Nocedal & Wright's Book Numerical Optimization (2006), le condizioni di Wolfe per una ricerca inesatta della linea sono, per una direzione di discesa ,ppp Riduzione sufficiente: Condizione di curvatura: per∇ f ( x + α p ) T p ≥ c 2 ∇ f ( x ) T p …
Ho il seguente problema di ottimizzazione in cui ho un valore assoluto nei miei vincoli: Sia e f 0 , f 1 , … , f m essere vettori di colonna di dimensione n ciascuno. Vorremmo risolvere quanto segue: min f T 0 x s.t.x∈Rnx∈Rn\mathbf{x} \in \mathbb{R}^nf0,f1,…,fmf0,f1,…,fm\mathbf{f}_0, \mathbf{f}_1, \ldots, \mathbf{f}_mnnnmins.t.fT0x|fT1x|≤|fT2x|≤…≤|fTmx|minf0Txs.t.|f1Tx|≤|f2Tx|≤…≤|fmTx|\begin{align} …
Ho bisogno di risolvere s.t.minx∥Ax−b∥22,∑ixi=1,xi≥0,∀i.minx‖Ax−b‖22,s.t.∑ixi=1,xi≥0,∀i.\begin{alignat}{1} & \min_{x}\|Ax - b\|^2_{2}, \\ \mathrm{s.t.} & \quad\sum_{i}x_{i} = 1, \\ & \quad x_{i} \geq 0, \quad \forall{i}. \end{alignat} Io penso che sia un problema di secondo grado che dovrebbe essere risolvibile con CVXOPT , ma non riesco a capire come.
Mi chiedevo se qualcuno avesse qualche suggerimento per testi o articoli di indagine sui metodi di decomposizione (ad esempio decomposizioni primarie, doppie, di Dantzig-Wolfe) per risolvere grandi problemi di programmazione matematica. Mi sono piaciute le "Note sui metodi di decomposizione" di Stephen Boyd , e sarebbe bello trovare ad esempio …
Ho chiesto chiarimenti su una recente domanda su minpack e ho ottenuto il seguente commento: Qualsiasi sistema di equazioni equivale a un problema di ottimizzazione, motivo per cui i metodi di ottimizzazione basati su Newton assomigliano molto ai metodi basati su Newton per risolvere i sistemi di equazioni non lineari. …
Molti problemi importanti possono essere espressi come un programma lineare intero misto . Purtroppo calcolare la soluzione ottimale a questa classe di problemi è NP-Complete. Fortunatamente ci sono algoritmi di approssimazione che a volte possono fornire soluzioni di qualità con quantità moderate di calcolo. Come devo analizzare un particolare programma …
Sono interessato a massimizzare a livello globale una funzione di molti ( ) parametri reali (risultato di una simulazione complessa). Tuttavia, la funzione in questione è relativamente costosa da valutare e richiede circa 2 giorni per ciascun set di parametri. Sto confrontando diverse opzioni e mi chiedevo se qualcuno avesse …
We use cookies and other tracking technologies to improve your browsing experience on our website,
to show you personalized content and targeted ads, to analyze our website traffic,
and to understand where our visitors are coming from.
By continuing, you consent to our use of cookies and other tracking technologies and
affirm you're at least 16 years old or have consent from a parent or guardian.