Dopo aver visto alcuni studenti ieri che hanno cercato di utilizzare un divisore di tensione anziché un regolatore per fornire un sensore con un alimentatore inferiore, con risultati prevedibili, ho iniziato a chiedermi su questa domanda.
Quando si sceglie un regolatore, sembra che molti guardino alla caduta di tensione richiesta e alla dissipazione di potenza richiesta. Efficienza a parte per il momento, se un regolatore lineare può far cadere quella potenza entro i limiti termici, i regolatori lineari sono un'opzione e, se non possono, passare ai regolatori di commutazione.
Se si potesse capire la gamma di assorbimenti di corrente e calcolare un partitore di tensione che manterrebbe contemporaneamente l'ingresso in un regolatore lineare abbastanza alto da mantenere la regolazione e abbastanza basso in modo tale che il regolatore non bruci troppo energia attraverso la corrente disegnare range, è un approccio praticabile?
Posso pensare a una serie di ragioni per cui questo potrebbe non essere l'approccio migliore: il rapporto di reiezione dell'alimentazione potrebbe non essere abbastanza buono sul regolatore; la gamma di assorbimenti di corrente che rendono possibile questo approccio potrebbe essere molto piccola, a meno che non si utilizzino resistori di piccole dimensioni che potrebbero superare le proprie potenze nominali; è solo più efficiente utilizzare un regolatore di commutazione; eccetera.
Inoltre, potrebbe essere che le persone lo facciano sempre, e non me ne sono accorto, o forse viene usato uno zener al posto del divisore. Sembra che quando la caduta di potenza sia troppo grande, le persone corrono principalmente verso i regolatori di commutazione.
Qualcosa che mi manca?