Stavo leggendo dei test di carico e degli alternatori full fielding in alcuni libri diversi che ho avuto, e uno dei punti che tutti hanno sottolineato è che per testare l'uscita massima di un alternatore (o vicino ad esso) i giri al minuto devono essere aumentati a circa Da 2000 a 2500 poiché gli alternatori non possono fornire piena corrente a regime minimo.
Questo mi sembra un po 'intuitivo in quanto penso che, in base alla progettazione, un alternatore debba logicamente essere in grado di fornire corrente sufficiente al minimo per alimentare tutti gli accessori e mantenere la batteria carica.
Come esempio pratico, ho preso alcune misure sulla mia 99 Nissan Almera 1.6L (che presumo sia in buone condizioni.) Ho acceso le luci, l'aria condizionata e la radio.
Al minimo (circa 850 giri / min a causa del minimo) ho misurato una corrente CC di 59 ampere sul cavo dell'alternatore B + e 11 ampere che entrano nel cavo positivo della batteria.
Ho quindi aumentato i giri / min a 2500 e misurato di nuovo, ottenendo una corrente continua di 69,2 ampere sull'alternatore e una corrente continua di 14,5 ampere sulla batteria. Secondo quello che ho letto, normalmente sono necessari solo circa 5 ampere per mantenere carica la batteria, ma avevo eseguito alcuni carichi senza il motore acceso per alcuni minuti prima di fare questi test, quindi probabilmente la batteria aveva bisogno di un po 'di più ricarica del solito.
Così chiaramente, anche con il minimo in moto, l'alternatore non è in grado di fornire tutta la corrente di cui il sistema ha effettivamente bisogno, ma allo stesso tempo fornisce corrente sufficiente per far funzionare il sistema senza assorbire la batteria.
Quindi quali sono i motivi alla base che i sistemi di ricarica sono impostati in questo modo?