Questa è una domanda relativa al mio progetto su un trasmettitore audio ottico.
Ho collegato un dispositivo molto semplice in cui utilizzo un trasformatore di segnale audio (EI14) per modulare l'intensità di un raggio laser (un diodo economico da 650 nm, 5 mW) in base all'uscita audio del mio telefono. Il laser viene quindi ricevuto da un fotoresistore (G5528 A205) collegato alla presa del microfono del mio laptop. Con questa configurazione posso trasmettere l'audio tra i due dispositivi.
Ho quindi aggiornato la configurazione, sostituendo il resistore fotografico con un transistor fotografico per migliorare il tempo di risposta al cambiamento dell'intensità della luce (12us anziché 20ms).
La qualità è migliorata in modo significativo; non è ancora eccezionale e non mi sarei mai aspettato che ci fosse molto da migliorare. Ma c'è una proprietà particolarmente sconcertante di questa configurazione. Trasmette bene l'audio, ma non è in grado di gestire il parlato. Non che lo trasmetta male, è più che non lo trasmette affatto. In questa registrazione, l'audio viene catturato ma la voce che dovrebbe essere in pieno svolgimento dopo circa 50 anni non è proprio lì. Se ascolti molto attentamente e sai cosa cercare, c'è il minimo residuo della voce originale.
Ho pensato che fosse annegato dalla musica e ho provato a registrare un messaggio vocale e a trasmetterlo. Stesso risultato: il ricevitore non vede nulla, lo schizzo di ampiezza ricevuto non si contrae nemmeno. Lo stesso con una registrazione di audiolibro.
Qualche idea su come possa sorgere una tale discrepanza tra musica e discorso?