Domande taggate «cost-maximization»

2
funzione di attivazione tanh vs funzione di attivazione sigmoid
La funzione di attivazione tanh è: tanh(x)=2⋅σ(2x)−1tanh(x)=2⋅σ(2x)−1tanh \left( x \right) = 2 \cdot \sigma \left( 2 x \right) - 1 Dove σ(x)σ(x)\sigma(x) , la funzione sigmoide, è definita come: σ(x)=ex1+exσ(x)=ex1+ex\sigma(x) = \frac{e^x}{1 + e^x} . Domande: Importa davvero tra l'uso di queste due funzioni di attivazione (tanh vs. sigma)? Quale …

5
Perché la regressione lineare utilizza una funzione di costo basata sulla distanza verticale tra l'ipotesi e il punto dati di input?
Diciamo che abbiamo i punti di dati di input (predittore) e output (risposta) A, B, C, D, E e vogliamo adattare una linea attraverso i punti. Questo è un semplice problema per illustrare la domanda, ma può essere esteso anche a dimensioni più elevate. Dichiarazione problema L'attuale miglior adattamento o …
Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.