Analisi dei segnali

Analogia tra vettori e segnali

C'è una perfetta analogia tra vettori e segnali.

Vettore

Un vettore contiene grandezza e direzione. Il nome del vettore è indicato dal tipo di viso in grassetto e la loro grandezza è denotata dal tipo di viso chiaro.

Example:V è un vettore con magnitudine V. Considera due vettori V 1 e V 2 come mostrato nel diagramma seguente. Lascia che la componente di V 1 insieme a V 2 sia data da C 12 V 2 . La componente di un vettore V 1 insieme al vettore V 2 può essere ottenuta prendendo una perpendicolare dall'estremità di V 1 al vettore V 2 come mostrato nel diagramma:

Il vettore V 1 può essere espresso in termini di vettore V 2

    V 1 = C 12 V 2 + V e

    Dove Ve è il vettore di errore.

Ma questo non è l'unico modo per esprimere il vettore V 1 in termini di V 2 . Le possibilità alternative sono:

V 1 = C 1 V 2 + V e1

V 2 = C 2 V 2 + V e2

Il segnale di errore è minimo per il valore del componente grande. Se C 12 = 0, si dice che due segnali sono ortogonali.

Prodotto puntino di due vettori

    V 1 . V 2 = V 1 .V 2 cosθ

      θ = Angolo tra V1 e V2

    V 1 . V 2 = V 2 .V 1

    Le componenti di V 1 alog n V 2 = V 1 Cos θ = $ V1.V2 \ over V2 $

Dal diagramma, componenti di V 1 alog n V 2 = C 12 V 2

$$ V_1.V_2 \ over V_2 = C_12 \, V_2 $$

$$ \ Rightarrow C_ {12} = {V_1.V_2 \ over V_2} $$

Segnale

Il concetto di ortogonalità può essere applicato ai segnali. Consideriamo due segnali f 1 (t) ef 2 (t). Simile ai vettori, puoi approssimare f 1 (t) in termini di f 2 (t) come

    f 1 (t) = C 12 f 2 (t) + f e (t) per (t 1 <t <t 2 )

    $ \ Freccia destra $ f e (t) = f 1 (t) - C 12 f 2 (t)

Un modo possibile per ridurre al minimo l'errore è l'integrazione nell'intervallo da t 1 a t 2 .

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] dt $$

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] dt $$

Tuttavia, anche questo passaggio non riduce l'errore in misura apprezzabile. Questo può essere corretto prendendo il quadrato della funzione di errore.

$ \ varepsilon = {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t) - C_ {12} f_2] ^ 2 dt $

Dove ε è il valore quadratico medio del segnale di errore. Il valore di C 12 che minimizza l'errore, è necessario calcolare $ {d \ varepsilon \ over dC_ {12}} = 0 $

$ \ Rightarrow {d \ over dC_ {12}} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] ^ 2 dt] = 0 $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [{d \ over dC_ {12}} f_ {1} ^ 2 (t) - {d \ over dC_ {12} } 2f_1 (t) C_ {12} f_2 (t) + {d \ over dC_ {12}} f_ {2} ^ {2} (t) C_ {12} ^ 2] dt = 0 $

Il derivato dei termini che non hanno termine C12 è zero.

$ \ Rightarrow \ int_ {t_1} ^ {t_2} - 2f_1 (t) f_2 (t) dt + 2C_ {12} \ int_ {t_1} ^ {t_2} [f_ {2} ^ {2} (t)] dt = 0 $

Se $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t ) dt}} $ componente è zero, quindi si dice che due segnali siano ortogonali.

Metti C 12 = 0 per ottenere la condizione per l'ortogonalità.

0 = $ {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t) dt}} $

$$ \ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt = 0 $$

Spazio vettoriale ortogonale

Un set completo di vettori ortogonali è indicato come spazio vettoriale ortogonale. Considera uno spazio vettoriale tridimensionale come mostrato di seguito:

Considera un vettore A in un punto (X 1 , Y 1 , Z 1 ). Considera tre vettori unitari (V X , V Y , V Z ) rispettivamente nella direzione degli assi X, Y, Z. Poiché questi vettori unitari sono mutuamente ortogonali, ciò soddisfa

$$ V_X. V_X = V_Y. V_Y = V_Z. V_Z = 1 $$

$$ V_X. V_Y = V_Y. V_Z = V_Z. V_X = 0 $$

Puoi scrivere le condizioni sopra come

$$ V_a. V_b = \ left \ {\ begin {array} {ll} 1 & \ quad a = b \\ 0 & \ quad a \ neq b \ end {array} \ right. $$

Il vettore A può essere rappresentato in termini di componenti e vettori unitari come

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z ................ (1) $

Qualsiasi vettore in questo spazio tridimensionale può essere rappresentato solo in termini di questi tre vettori unitari.

Se consideri uno spazio n dimensionale, qualsiasi vettore A in quello spazio può essere rappresentato come

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + N_1V_N ..... (2) $

Poiché la grandezza dei vettori unitari è l'unità per ogni vettore A

La componente di A lungo l'asse x = AV X

La componente di A lungo l'asse Y = AV Y

La componente di A lungo l'asse Z = AV Z

Allo stesso modo, per lo spazio n dimensionale, la componente di A lungo un asse G.

$ = A.VG ............... (3) $

Sostituisci l'equazione 2 nell'equazione 3.

$ \ Freccia destra CG = (X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + G_1 V_G ... + N_1V_N) V_G $

$ = X_1 V_X V_G + Y_1 V_Y V_G + Z_1 V_Z V_G + ... + G_1V_G V_G ... + N_1V_N V_G $

$ = G_1 \, \, \, \, \, \ text {da} V_G V_G = 1 $

$ If V_G V_G \ neq 1 \, \, \ text {ie} V_G V_G = k $

$ AV_G = G_1V_G V_G = G_1K $

$ G_1 = {(AV_G) \ oltre K} $

Spazio del segnale ortogonale

Consideriamo un insieme di n funzioni mutuamente ortogonali x 1 (t), x 2 (t) ... x n (t) nell'intervallo da t 1 a t 2 . Poiché queste funzioni sono ortogonali tra loro, due segnali qualsiasi x j (t), x k (t) devono soddisfare la condizione di ortogonalità. cioè

$$ \ int_ {t_1} ^ {t_2} x_j (t) x_k (t) dt = 0 \, \, \, \ text {dove} \, j \ neq k $$

$$ \ text {Let} \ int_ {t_1} ^ {t_2} x_ {k} ^ {2} (t) dt = k_k $$

Sia una funzione f (t), può essere approssimata con questo spazio del segnale ortogonale aggiungendo le componenti lungo segnali ortogonali tra loro ie

    $ \, \, \, f (t) = C_1x_1 (t) + C_2x_2 (t) + ... + C_nx_n (t) + f_e (t) $

    $ \ quad \ quad = \ Sigma_ {r = 1} ^ {n} C_rx_r (t) $

    $ \, \, \, f (t) = f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t) $

Errore sqaure medio $ \ varepsilon = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$$ = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f [t] - \ sum_ {r = 1} ^ {n} C_rx_r (t)] ^ 2 dt $$

Il componente che minimizza l'errore quadratico medio può essere trovato da

$$ {d \ varepsilon \ over dC_1} = {d \ varepsilon \ over dC_2} = ... = {d \ varepsilon \ over dC_k} = 0 $$

Consideriamo $ {d \ varepsilon \ over dC_k} = 0 $

$$ {d \ over dC_k} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt] = 0 $$

Tutti i termini che non contengono C k sono zero. cioè in sommatoria, il termine r = k rimane e tutti gli altri termini sono zero.

$$ \ int_ {t_1} ^ {t_2} - 2 f (t) x_k (t) dt + 2C_k \ int_ {t_1} ^ {t_2} [x_k ^ 2 (t)] dt = 0 $$

$$ \ Rightarrow C_k = {{\ int_ {t_1} ^ {t_2} f (t) x_k (t) dt} \ over {int_ {t_1} ^ {t_2} x_k ^ 2 (t) dt}} $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = C_kK_k $$

Errore quadratico medio

La media del quadrato della funzione di errore f e (t) è chiamata errore quadratico medio. È indicato con ε (epsilon).

.

$ \ varepsilon = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2dt $

$ \, \, \, \, = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f_e ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt - 2 \ Sigma_ {r = 1} ^ {n} C_r \ int_ {t_1} ^ {t_2} x_r (t) f (t) dt $

Sai che $ C_ {r} ^ {2} \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt = C_r \ int_ {t_1} ^ {t_2} x_r (t) f (d) dt = C_r ^ 2 K_r $

$ \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r - 2 \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt - \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \ quindi \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + (C_1 ^ 2 K_1 + C_2 ^ 2 K_2 + ... + C_n ^ 2 K_n)] $

L'equazione precedente viene utilizzata per valutare l'errore quadratico medio.

Set chiuso e completo di funzioni ortogonali

Consideriamo un insieme di n funzioni mutuamente ortogonali x 1 (t), x 2 (t) ... x n (t) nell'intervallo da t 1 a t 2 . Questo è chiamato come insieme chiuso e completo quando non esiste alcuna funzione f (t) che soddisfi la condizione $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 $

Se questa funzione soddisfa l'equazione $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 \, \, \ text {for} \, k = 1,2, .. $ allora f (t) si dice che sia ortogonale a ciascuna funzione dell'insieme ortogonale. Questo insieme è incompleto senza f (t). Diventa chiuso e completo quando è incluso f (t).

f (t) può essere approssimato con questo insieme ortogonale aggiungendo le componenti lungo segnali reciprocamente ortogonali ie

$$ f (t) = C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) + f_e (t) $$

Se la serie infinita $ C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) $ converge af (t), l'errore quadratico medio è zero.

Ortogonalità nelle funzioni complesse

Se f 1 (t) e f 2 (t) sono due funzioni complesse, allora f 1 (t) può essere espresso in termini di f 2 (t) come

$ f_1 (t) = C_ {12} f_2 (t) \, \, \, \, \, \, \, \, $ .. con errore trascurabile

Dove $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt} \ over {\ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt}} $

Dove $ f_2 ^ * (t) $ = complesso coniugato di f 2 (t).

Se f 1 (t) e f 2 (t) sono ortogonali allora C 12 = 0

$$ {\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt \ over \ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt} = 0 $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (dt) = 0 $$

L'equazione di cui sopra rappresenta la condizione di ortogonalità in funzioni complesse.