Perché i sistemi lineari mostrano fedeltà sinusoidale?


9

Sto cercando una prova della fedeltà sinusoidale. In DSP studiamo molto sui sistemi lineari. I sistemi lineari sono omogenei e additivi. Un'altra condizione che soddisfa è che se un segnale è un'onda sinusoidale o cos allora l'uscita cambia solo la fase o l'ampiezza. Perché? Perché l'output non può essere un output totalmente diverso quando viene fornita un'onda sinusoidale come input?


1
Benvenuti in DSP. Ottima domanda!
Phonon,

5
La tua comprensione è incompleta. Un sistema lineare (che significa omogeneo e additivo) non ha necessariamente la proprietà che una sinusoide di input produca una sinusoide della stessa frequenza ma possibilmente diversa ampiezza e fase. È necessario imporre l'ulteriore limitazione che il sistema è anche invariante nel tempo. Ad esempio, se l'ingresso x(t) produce l'uscita x(t)cos(2π109t) , il sistema è omogeneo e additivo, e quindi lineare, ma non soddisfa la proprietà SISO (sinusoide non sinusoide).
Dilip Sarwate,

Dilip (o qualcuno) dovrebbe mettere come una risposta: "Non lo fanno." Lo fanno solo i sistemi lineari invarianti di tempo .
hotpaw2,

2
Proprio come una nota, un altro modo per formulare questa domanda sarebbe "Perché le autofunzioni esponenziali dei sistemi lineari invarianti di tempo?"
Jason R,

Risposte:


8

Un complemento alquanto visivo per le altre risposte

Stai parlando di sistemi lineari e invarianti nel tempo.

Le funzioni esponenziali hanno una proprietà peculiare (e possono essere effettivamente definite da essa): fare una traduzione temporale determina la stessa funzione moltiplicata per una costante. Così

ett0=et0et

Grafica Mathematica

L'esponenziale rosso potrebbe anche essere quello blu diviso per o spostato di 1 secondo a destrae

In generale, questo vale anche per esponenziali complessi

Riesci a immaginare nella tua mente la trama di un'armonica complessa come ? In tal caso, vedrai che è come una molla: ruota lungo il piano complesso col passare del tempo.x(t)=ej2πt

Grafica Mathematica

Ruotare quella molla (moltiplicando per un numero complesso nel cerchio unitario) equivale a tradurla. Probabilmente sei entrato in questo effetto visivo qualche volta nella tua vita

inserisci qui la descrizione dell'immagine

È anche il principio di qualsiasi vite standard.

Supponiamo di inserirlo in un sistema lineare invariante nel tempo. Ottieni un risultato Ora, inserisci una versione ruotata di questa primavera. A causa della linearità, l'uscita dovrebbe essere y ruotato dello stesso importo. Ma poiché una rotazione equivale a una traduzione nel tempo e il sistema è invariante nel tempo, anche l'output deve essere y tradotto nel tempo della stessa quantità. Quindi, y deve soddisfare la stessa proprietà dell'input: ruotarlo deve essere equivalente a una particolare traduzione temporale. Questo succede solo quando l'output è un multiplo della molla originale.yyyy

Quanta traduzione? Bene, è direttamente proporzionale alla rotazione proprio come accadrebbe con una molla. Più stretti sono gli anelli della molla (più veloce ruota), meno si traduce nel tempo per una certa rotazione. Più stretti sono i passanti di una vite, più giri devi fare in modo che si adatti completamente. E, quando la metà dei giri è terminata, la vite sarà a metà strada ... L'uscita deve soddisfare la stessa relazione, quindi la molla di uscita ruota alla stessa frequenza dell'ingresso.y

Alla fine, un promemoria

cos(t)=ejt+ejt2

sin(t)=ejtejt2j

Quindi, quella cosa che accade con gli esponenziali in realtà non deve accadere con i coseni e i seni nel caso più generale. Ma se anche il sistema è reale è una storia diversa ...

In generale, con questo stesso ragionamento, qualsiasi esponenziale è una "autofunzione" (l'output è proporzionale all'input) dei sistemi lineari invarianti di tempo. Ecco perché per questi sistemi le trasformate Z e le trasformate di Laplace sono così utili


Come / da dove hai preso quell'animazione?
Spacey,

@Mohammad l'ha preso dalla pagina di Wikipedia sulla vite di Archimede
Rojo,

Dove hai preso la trama del cavatappi? :) math.stackexchange.com/q/144268/2206
endolith

@endolith oh l'ho appena fatto in Mathematica. I tuoi sono più carini;)
Rojo,

4

Considera un sistema con input e output y ( t ) . Prendendo in prestito la notazione dalla risposta di Lars1, denotiamo questa relazione x ( t ) y ( t ) . Si dice che il sistema sia un sistema lineare invariante nel tempo (LTI) se soddisfa le seguenti proprietà:x(t)y(t)x(t)y(t)

H. Se , quindi α x ( t ) α y ( t ) .x(t)y(t)αx(t)αy(t)

A. Se e x 2 ( t ) y 2 ( t ) , quindi x 1 ( t ) + x 2 ( t ) y 1 ( t ) + y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)x1(t)+x2(t)y1(t)+y2(t).

T. Se , quindi x ( t - τ ) y ( t - τ ) per qualsiasi numero reale τ .x(t)y(t)x(tτ)y(tτ)τ

Le proprietà H e A insieme equivalgono alla proprietà L

L. Se e x 2 ( t ) y 2 ( t ) , allora α x 1 ( t ) + β x 2 ( t ) α y 1 ( t ) + β y 2 ( t ) .x1(t)y1(t)x2(t)y2(t)αx1(t)+βx2(t)αy1(t)+βy2(t)


L'input periodico in un sistema invariante nel tempo produce output periodici
Supponiamo che sia un segnale periodico con il periodo T , cioè x ( t - n T ) = x ( t ) per tutti gli interi n . Poi, dalla struttura T , segue immediatamente che y ( t ) è un segnale periodico con periodo T . Quindi, possiamo esprimere y ( t ) come una serie di Fourier:x(t)Tx(tnT)=x(t)ny(t)Ty(t)

doveω=2π/Tè la frequenza fondamentale.

y(t)=a02+n=1ancos(nωt)+bnsin(nωt)
ω=2π/T

Poiché e sin ( ω t ) sono segnali periodici, lo abbiamo per qualsiasi sistema invariante nel tempo, sia lineare che no, cos ( ω t )cos(ωt)sin(ωt) In effetti, perlinearesistemi tempo-invariante (LTI),tuttoilpn,qn,rn,esnsono zeroeccetto perp1,q1,r1,s

cos(ωt)p02+n=1pncos(nωt)+qnsin(nωt)sin(ωt)r02+n=1rncos(nωt)+snsin(nωt).
pn,qn,rn,sn . Per capire perché è così, calcoliamo la risposta del sistema LTI a cos ( ω t - θ ) in due modi diversi e confrontiamo i risultati.p1,q1,r1,s1cos(ωtθ)

Poiché , otteniamo dalla proprietà L e le equazioni precedenti che cos ( ω t - θ )cos(ωtθ)=cos(θ)cos(ωt)+sin(θ)sin(ωt) D'altra parte, poichécos(ωt-θ)=cos(ω(t-θ/ω)) è solo una versione ritardata dicos(ωt), dalla proprietà

cos(ωtθ)p0cos(θ)+q0sin(θ)2+n=1(pncos(θ)+rnsin(θ))cos(nωt)+n=1(qncos(θ)+snsin(θ))sin(nωt).
cos(ωtθ)=cos(ω(tθ/ω))cos(ωt)T otteniamo quel Queste due serie di Fourier devono essere uguali, indipendentemente dal valore diθche scegliamo. Coefficienti confronto, vediamo che p0/2non può essere uguale(p0cos(θ)+r0cos(θ
cos(ωtθ)p02+n=1pncos(nωtnθ)+qnsin(nωtnθ)=p02+n=1(pncos(nθ)qnsin(nθ))cos(nωt)+n=1(qncos(nθ)+pnsin(nθ))sin(nωt).
θp0/2 per tutti θ a meno che p 0 = r 0 = 0 . Allo stesso modo, per qualsiasi n > 1 , p n cos ( n θ ) - q n sin ( n θ ) non può eguagliare p n cos ( θ ) + r n sin ( θ ) ecc. Per tutti θ a meno che p n = q(p0cos(θ)+r0cos(θ))/2θp0=r0=0n>1pncos(nθ)qnsin(nθ)pncos(θ)+rnsin(θ)θ . Tuttavia, per n = 1 , p 1 cos ( θ ) - q 1 sin ( θ ) = p 1 cos ( θ ) + r 1 sin ( θ ) implica che r 1 = - q 1 , e similmente, s 1 = p 1 . In altre parole, per un sistema LTI, pn=qn=rn=sn=0n=1p1cos(θ)q1sin(θ)=p1cos(θ)+r1sin(θ)r1=q1s1=p1 Ora,p1cos(ωt)+q1sin(ωt)=Bcos(ωt-ϕ) doveB=
cos(ωt)p1cos(ωt)+q1sin(ωt)sin(ωt)q1cos(ωt)+p1sin(ωt).
p1cos(ωt)+q1sin(ωt)=Bcos(ωtϕ) eϕ=arctan(q1/p1). Pertanto, le proprietàTeHci danno che Acos(ωt-θ)ABcos(ωt-ϕ-θ). Qualsiasisinusoide di frequenzaωrad / s può essere espresso comeAcos(ωtB=p12+q12ϕ=arctan(q1/p1)
Acos(ωtθ)ABcos(ωtϕθ).
ω per la scelta appropriata di A e θ , e quindi il risultato sopra è quello di cui abbiamo bisogno.Acos(ωtθ)Aθ

Proprietà SISO dei sistemi lineari invarianti di tempo: se l'ingresso in un sistema LTI è una sinusoide, l'uscita è una sinusoide della stessa frequenza ma con ampiezza e fase diverse.

Questo non è esattamente il risultato che l'OP voleva - voleva una prova che un sistema lineare (uno in cui le Proprietà H e A (equivalentemente, Proprietà L ) detengono ma non necessariamente la Proprietà T ) ha la proprietà SISO, ma come lo sviluppo mostra sopra, la proprietà T deve essere valida per dimostrare anche il risultato più debole che l'input periodico produce output periodico.


cos(αβ)=cos(α)cos(β)+sin(α)sin(β).

x(t)Tx(t)

x(t)=A1cos(ω1t)+\A2cos(ω2t)ω1/ω2
A1cos(ω1t)+\A2cos(ω2t)A1B1cos(ω1tϕ1)+\A2B2cos(ω2tϕ2)

x(t)=cos(πt)+cos(2t)tT=[0;T]TTt\ont

[0,T]x(t)y(t)y(t)[0,T]y^(t)x^(t)t<t<
x^(t)=x(tmodT).
Tx(t)T

Ad esempio nei sistemi RF non lineari scegliamo spesso una somma di sinusoidali incommensurabili per garantire una mappatura di frequenza unica dall'ingresso all'uscita. Questi si traducono in un segnale non periodico, ed ero solo curioso di sapere perché dovevi assumere la periodicità oltre la quale per me sembra escludere i segnali più rilevanti dal punto di vista pratico. Gli integrabili quadrati e in intervalli di osservazione finiti possono essere scritti come serie di Fourier. Non ho (intendo) secondo cui è stato definito nello stesso intervallo di ed BTW e potrebbe essere una versione offset di tempo. Mi fermerò qui per evitare ulteriore confusione. x(t)y(τ)txyy
Lars1

3

Ecco l'idea della prova. Supponiamo di poter descrivere l'output di un sistema tramite una convoluzione,

y(t)=kt(tτ)f(τ)dτ

Si noti che la funzione (aka "kernel") come l'ho scritta qui può cambiare al variare di . Tuttavia, di solito facciamo un presupposto importante su - che non cambia con il tempo. Questo si chiama "invarianza temporale lineare" (controlla anche la pagina Wikipedia sulle matrici di Toeplitz ). Se il nostro sistema è invariante nel tempo lineare, è lo stesso per qualsiasi , quindi ignoreremo solo il pedice e scriveremokt(t)tkt(t)kt t

y(t)=k(tτ)f(τ)dτ

Ora, supponiamo che sia una sinusoide, diciamo . Quindi abbiamof(t)f(t)=eiωt

y(t)=k(tτ)eiωτdτ=k(τ)eiω(tτ)dτ=eiωtk(τ)eiωτdτ

Si noti che l'ultima equazione nont ha dipendenza da ! Di conseguenza, definiamo .K(ω):=k(τ)eiωτdτ

Quindi, l'abbiamo scoperto

y(t)=K(ω)eiωt

o, in altre parole, è una sinusoide oscillante alla stessa frequenza dell'ingresso, ma ponderata da un numero complesso che è costante rispetto a (e quindi può spostare l'ampiezza e la fase di l'uscita rispetto all'ingresso).y(t)K(ω)t

EDIT: I commenti hanno notato che questa risposta è stata piuttosto libera. Il mio obiettivo era quello di evitare dettagli come le diverse forme della trasformata di Fourier, ma alla fine ho confuso le trasformazioni di Fourier e Laplace. Quella che prima chiamavo trasformata di Fourier era solo la trasformata di Fourier se era puramente immaginaria. Ho deciso che chiarire questa strada avrebbe necessariamente aggiunto troppa notazione, quindi la sto relegando in corsivo.s

Ora, prendi la trasformazione di Laplace, per finire con (poiché la trasformazione di Laplace porta la convoluzione alla moltiplicazione),

Y(s)=K(s)F(s)

Ora, se è una sinusoide, dì , la sua trasformazione di Laplace è una funzione delta in quella . Cioè, . Quindi, la trasformata di Laplace dell'uscita è anche una funzione delta a quella frequenza:ff(t)=eiωtωF(s)=δw(s)

Y(s)=K(s)δω(s)=K(ω)δω(s)

Poiché è solo un numero complesso che dipende dalla frequenza di ingresso, l'uscita sarà una sinusoide con la stessa frequenza dell'ingresso, ma con ampiezza e fase potenzialmente diverse.K(ω)y(t)

Per inciso, ho appena notato che puoi trovare la stessa idea scritta nel dominio del tempo su Wikipedia . Una spiegazione di livello superiore (che puoi ignorare se è troppo math) è che la teoria dei sistemi lineari è definita attraverso l'operazione di convoluzione, che è diagonalizzata dalla trasformata di Fourier. Pertanto, un sistema il cui input è un autovettore dell'operatore di trasformazione di Fourier produrrà solo una versione ridimensionata del suo input.


-1 Che cos'è e come si collega a ? E potresti spiegare cosa si intende per ? La tua equazione è pura assurdità. sωδω(s)Y(s)=K(s)δωs)
Dilip Sarwate,

@DilipSarwate Sospetto che stia usando la notazione di trasformazione di Laplace invece della notazione di Fourier.
Jim Clay,

@sydeulissie Il problema è che affermi che K (w) è "solo un numero complesso", ma non hai detto perché è solo un numero complesso per ogni frequenza. Questo è il cuore della prova.
Jim Clay,

3
Questo ha una struttura corretta ma molti problemi nei dettagli. Non effettuare il downvoting, ma dovrebbe essere risolto.
Phonon,

1

x1(t)y1(t)=G(x1(t))x2(t)y2(t)=G(x1(t))

ax1(t)+bx2(t)y(t)=G(ax1(t)+bx2(t))=aG(x1(t))+bG(x2(t))=ay1(t)+by2(t)

ab

Dalla definizione di linearità e richiedendo ulteriormente un sistema invariante nel tempo, possiamo vedere direttamente che due (o più segnali) non possono interferire e generare nuovi componenti di frequenza pur rispettando i requisiti di linearità. Il principio di sovrapposizione deriva anche direttamente dalla definizione di linearità.

Anche dalla definizione di linearità segue il concetto di convoluzione per sistemi invarianti di tempo lineari. Per i sistemi non lineari abbiamo ad esempio la serie Volterra che è un integrale di convoluzione multidimensionale - l'integrale di convoluzione monodimensionale è un caso speciale della serie Volterra. Questo è molto più complicato delle tecniche lineari però. Ma sulla base dell'integrale di convoluzione per un sistema lineare la derivazione segue quella mostrata da @sydeulissie.

G:y(t)=x2(t)x1(t)y1(t)=x12(t)x2(t)y2(t)=x22(t)y(t)

y(t)={ax1(t)+bx2(t)}2=a2x12(t)+b2x22(t)+2abx1(t)x2(t)

o:

y(t)=a2y1(t)+b2y2(t)±2aby1(t)y2(t)ay1(t)+by2(t)

e abbiamo quindi dimostrato che non è lineare (il che non può essere sorprendente). Se applichiamo un singolo segnale sinusoidale al sistema abbiamo l'output:x2x(t)=Acos(2πf0t+ϕ0)G

y(t)=x2(t)=A2cos2(2πf0t+ϕ0)=A22+A22cos(2π2f0t+2ϕ0)

L'output qui contiene un componente DC e un altro componente alla frequenza . La funzione non lineare genera quindi nuovi componenti di frequenza.2f0x2

In conclusione si può osservare che un sistema lineare può generare componenti di frequenza non presenti nell'ingresso (se il sistema è una variante temporale). Se il sistema è invariante nel tempo lineare, l'uscita non può includere componenti di frequenza non presenti nell'ingresso.

Grazie a @Sarwate per il commento più pertinente.


Hai ragione. Ho dimenticato di dire che mi riferisco ai sistemi invarianti di tempo. L'esempio fornito è un sistema che varia nel tempo in cui l'esempio non è valido. Normalmente un segnale come viene applicato a una porta esterna come segnale nel qual caso la linearità non viene soddisfatta. Ho notato la parte invariante nel tempo nella risposta sopra. cos(t)
Lars1,

@DilipSarwate Quindi è che solo i sistemi LTI hanno quella proprietà?
Phonon,

Ho appena controllato un paio di libri per essere al sicuro. In realtà sembra esserci qualche differenza nei dettagli. Una definizione nel libro di Yang e Lee sui sistemi di circuiti del 2007 afferma: "Un sistema si dice che sia lineare se il principio di sovrapposizione è valido, ovvero che la sua uscita a una combinazione lineare di più ingressi arbitrari è la stessa della combinazione lineare delle uscite a ingressi individuali ". Sotto questo aspetto, l'esempio di Sarwate è lineare, ma non invariante nel tempo. Altri riferimenti sono però meno precisi. Grazie a @Sarwate.
Lars1

1
Commento a cui fa riferimento Lars1 con errori tipografici corretti: considerare il sistema che produce l'output dall'input . Quindi, produce output modo che il sistema sia lineare ma senza la proprietà rivendicata. x(t)cos(t)x(t)ax1(t)+bx2(t)
(ax1(t)+bx2(t))cos(t)=ax1(t)cos(t)+bx2(t)cos(t)
Dilip Sarwate,

@Sarwate Come varia il sistema che produce il tempo di output x (t) cos (t)? Sono un principiante in DSP
Hobyist,

1

Come ha sottolineato Dilip Sarwate, solo i sistemi lineari invarianti a spostamento (LSIV) hanno la proprietà SISO (sinusoide non sinusoide).

La risposta breve alla tua domanda è che i complessi esponenziali sono le autofunzioni di un sistema LSIV. Dalla definizione di autofunzione, se l'ingresso è autofunzione (seno / cos possono essere rappresentati da esponenziale complesso secondo la formula di Eulero), l'output è solo il prodotto dell'input e il corrispondente autovalore, che potrebbe essere un numero complesso, e questo è da dove provengono i cambiamenti di fase / ampiezza.eȷωt

Utilizzando il nostro sito, riconosci di aver letto e compreso le nostre Informativa sui cookie e Informativa sulla privacy.
Licensed under cc by-sa 3.0 with attribution required.