Análise de Sinais

Analogia entre vetores e sinais

Existe uma analogia perfeita entre vetores e sinais.

Vetor

Um vetor contém magnitude e direção. O nome do vetor é indicado por negrito e sua magnitude é indicada por tipo claro.

Example:V é um vetor com magnitude V. Considere dois vetores V 1 e V 2 como mostrado no diagrama a seguir. Seja o componente de V 1 junto com V 2 dado por C 12 V 2 . O componente de um vetor V 1 juntamente com o vetor V 2 pode ser obtido tomando uma perpendicular do final de V 1 ao vetor V 2, conforme mostrado no diagrama:

O vetor V 1 pode ser expresso em termos do vetor V 2

    V 1 = C 12 V 2 + V e

    Onde Ve é o vetor de erro.

Mas essa não é a única maneira de expressar o vetor V 1 em termos de V 2 . As possibilidades alternativas são:

V 1 = C 1 V 2 + V e1

V 2 = C 2 V 2 + V e2

O sinal de erro é mínimo para um valor de componente grande. Se C 12 = 0, então dois sinais são considerados ortogonais.

Produto escalar de dois vetores

    V 1 . V 2 = V 1 .V 2 cos

      θ = Ângulo entre V1 e V2

    V 1 . V 2 = V 2 .V 1

    Os componentes de V 1 alog n V 2 = V 1 Cos θ = $ V1.V2 \ sobre V2 $

A partir do diagrama, os componentes de V 1 alog n V 2 = C 12 V 2

$$ V_1.V_2 \ over V_2 = C_12 \, V_2 $$

$$ \ Rightarrow C_ {12} = {V_1.V_2 \ sobre V_2} $$

Sinal

O conceito de ortogonalidade pode ser aplicado a sinais. Vamos considerar dois sinais f 1 (t) ef 2 (t). Semelhante aos vetores, você pode aproximar f 1 (t) em termos de f 2 (t) como

    f 1 (t) = C 12 f 2 (t) + f e (t) para (t 1 <t <t 2 )

    $ \ Rightarrow $ f e (t) = f 1 (t) - C 12 f 2 (t)

Uma forma possível de minimizar o erro é a integração no intervalo t 1 a t 2 .

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] dt $$

$$ {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] dt $$

No entanto, esta etapa também não reduz o erro de forma apreciável. Isso pode ser corrigido tomando a função quadrado do erro.

$ \ varejpsilon = {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [f_e (t) - C_ {12} f_2] ^ 2 dt $

Onde ε é o valor médio quadrático do sinal de erro. O valor de C 12 que minimiza o erro, você precisa calcular $ {d \ varepsilon \ over dC_ {12}} = 0 $

$ \ Rightarrow {d \ over dC_ {12}} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_1 (t) - C_ {12} f_2 (t)] ^ 2 dt] = 0 $

$ \ Rightarrow {1 \ over {t_2 - t_1}} \ int_ {t_1} ^ {t_2} [{d \ over dC_ {12}} f_ {1} ^ 2 (t) - {d \ over dC_ {12} } 2f_1 (t) C_ {12} f_2 (t) + {d \ sobre dC_ {12}} f_ {2} ^ {2} (t) C_ {12} ^ 2] dt = 0 $

A derivada dos termos que não possuem o termo C12 é zero.

$ \ Rightarrow \ int_ {t_1} ^ {t_2} - 2f_1 (t) f_2 (t) dt + 2C_ {12} \ int_ {t_1} ^ {t_2} [f_ {2} ^ {2} (t)] dt = 0 $

Se $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t ) dt}} $ componente é zero, então dois sinais são ditos ortogonais.

Coloque C 12 = 0 para obter a condição para ortogonalidade.

0 = $ {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt} \ over {\ int_ {t_1} ^ {t_2} f_ {2} ^ {2} (t) dt}} $

$$ \ int_ {t_1} ^ {t_2} f_1 (t) f_2 (t) dt = 0 $$

Espaço Vector Ortogonal

Um conjunto completo de vetores ortogonais é referido como espaço vetorial ortogonal. Considere um espaço vetorial tridimensional, conforme mostrado abaixo:

Considere um vetor A em um ponto (X 1 , Y 1 , Z 1 ). Considere três vetores unitários (V X , V Y , V Z ) na direção dos eixos X, Y e Z, respectivamente. Uma vez que esses vetores unitários são mutuamente ortogonais, isso satisfaz que

$$ V_X. V_X = V_Y. V_Y = V_Z. V_Z = 1 $$

$$ V_X. V_Y = V_Y. V_Z = V_Z. V_X = 0 $$

Você pode escrever as condições acima como

$$ V_a. V_b = \ left \ {\ begin {array} {ll} 1 & \ quad a = b \\ 0 & \ quad a \ neq b \ end {array} \ right. $$

O vetor A pode ser representado em termos de seus componentes e vetores unitários como

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z ................ (1) $

Quaisquer vetores neste espaço tridimensional podem ser representados em termos desses três vetores unitários apenas.

Se você considerar um espaço dimensional n, então qualquer vetor A nesse espaço pode ser representado como

$ A = X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + N_1V_N ..... (2) $

Como a magnitude dos vetores unitários é unidade para qualquer vetor A

O componente de A ao longo do eixo x = AV X

O componente de A ao longo do eixo Y = AV Y

O componente de A ao longo do eixo Z = AV Z

Da mesma forma, para n espaço dimensional, o componente de A ao longo de algum eixo G

$ = A.VG ............... (3) $

Substitua a equação 2 na equação 3.

$ \ Rightarrow CG = (X_1 V_X + Y_1 V_Y + Z_1 V_Z + ... + G_1 V_G ... + N_1V_N) V_G $

$ = X_1 V_X V_G + Y_1 V_Y V_G + Z_1 V_Z V_G + ... + G_1V_G V_G ... + N_1V_N V_G $

$ = G_1 \, \, \, \, \, \ text {desde} V_G V_G = 1 $

$ If V_G V_G \ neq 1 \, \, \ text {ie} V_G V_G = k $

$ AV_G = G_1V_G V_G = G_1K $

$ G_1 = {(AV_G) \ sobre K} $

Espaço de sinal ortogonal

Vamos considerar um conjunto de n funções ortogonais mutuamente x 1 (t), x 2 (t) ... x n (t) no intervalo t 1 até t 2 . Como essas funções são ortogonais entre si, quaisquer dois sinais x j (t), x k (t) devem satisfazer a condição de ortogonalidade. ie

$$ \ int_ {t_1} ^ {t_2} x_j (t) x_k (t) dt = 0 \, \, \, \ text {onde} \, j \ neq k $$

$$ \ text {Let} \ int_ {t_1} ^ {t_2} x_ {k} ^ {2} (t) dt = k_k $$

Seja uma função f (t), ela pode ser aproximada com este espaço de sinal ortogonal adicionando os componentes ao longo de sinais ortogonais mutuamente

    $ \, \, \, f (t) = C_1x_1 (t) + C_2x_2 (t) + ... + C_nx_n (t) + f_e (t) $

    $ \ quad \ quad = \ Sigma_ {r = 1} ^ {n} C_rx_r (t) $

    $ \, \, \, f (t) = f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t) $

Erro médio de sqaure $ \ varepsilon = {1 \ over t_2 - t_2} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2 dt $

$$ = {1 \ sobre t_2 - t_2} \ int_ {t_1} ^ {t_2} [f [t] - \ sum_ {r = 1} ^ {n} C_rx_r (t)] ^ 2 dt $$

O componente que minimiza o erro quadrático médio pode ser encontrado por

$$ {d \ varepsilon \ over dC_1} = {d \ varejpsilon \ over dC_2} = ... = {d \ varejpsilon \ over dC_k} = 0 $$

Vamos considerar $ {d \ varejpsilon \ over dC_k} = 0 $

$$ {d \ over dC_k} [{1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt] = 0 $$

Todos os termos que não contêm C k são zero. ou seja, na soma, r = k termo permanece e todos os outros termos são zero.

$$ \ int_ {t_1} ^ {t_2} - 2 f (t) x_k (t) dt + 2C_k \ int_ {t_1} ^ {t_2} [x_k ^ 2 (t)] dt = 0 $$

$$ \ Rightarrow C_k = {{\ int_ {t_1} ^ {t_2} f (t) x_k (t) dt} \ over {int_ {t_1} ^ {t_2} x_k ^ 2 (t) dt}} $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = C_kK_k $$

Erro Quadrado Médio

A média do quadrado da função de erro f e (t) é chamada de erro quadrático médio. É denotado por ε (épsilon).

.

$ \ varejpsilon = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t)] ^ 2dt $

$ \, \, \, \, = {1 \ over t_2 - t_1} \ int_ {t_1} ^ {t_2} [f_e (t) - \ Sigma_ {r = 1} ^ n C_rx_r (t)] ^ 2 dt $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f_e ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt - 2 \ Sigma_ {r = 1} ^ {n} C_r \ int_ {t_1} ^ {t_2} x_r (t) f (t) dt $

Você sabe que $ C_ {r} ^ {2} \ int_ {t_1} ^ {t_2} x_r ^ 2 (t) dt = C_r \ int_ {t_1} ^ {t_2} x_r (t) f (d) dt = C_r ^ 2 K_r $

$ \ varejpsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r - 2 \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \, \, \, = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt - \ Sigma_ {r = 1} ^ {n} C_r ^ 2 K_r] $

$ \, \ portanto \ varepsilon = {1 \ over t_2 - t_1} [\ int_ {t_1} ^ {t_2} [f ^ 2 (t)] dt + (C_1 ^ 2 K_1 + C_2 ^ 2 K_2 + ... + C_n ^ 2 K_n)] $

A equação acima é usada para avaliar o erro quadrático médio.

Conjunto fechado e completo de funções ortogonais

Vamos considerar um conjunto de n funções ortogonais mutuamente x 1 (t), x 2 (t) ... x n (t) no intervalo t 1 até t 2 . Isso é chamado de conjunto fechado e completo quando não existe função f (t) satisfazendo a condição $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 $

Se esta função está satisfazendo a equação $ \ int_ {t_1} ^ {t_2} f (t) x_k (t) dt = 0 \, \, \ text {for} \, k = 1,2, .. $ então f (t) é dito ser ortogonal a cada uma das funções do conjunto ortogonal. Este conjunto está incompleto sem f (t). Ele se torna fechado e completo quando f (t) é incluído.

f (t) pode ser aproximado com este conjunto ortogonal, adicionando os componentes ao longo de sinais mutuamente ortogonais, ou seja,

$$ f (t) = C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) + f_e (t) $$

Se a série infinita $ C_1 x_1 (t) + C_2 x_2 (t) + ... + C_n x_n (t) $ converge para f (t), então o erro quadrático médio é zero.

Ortogonalidade em funções complexas

Se f 1 (t) e f 2 (t) são duas funções complexas, então f 1 (t) pode ser expresso em termos de f 2 (t) como

$ f_1 (t) = C_ {12} f_2 (t) \, \, \, \, \, \, \, \, $ ..com erro insignificante

Onde $ C_ {12} = {{\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt} \ over {\ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt}} $

Onde $ f_2 ^ * (t) $ = conjugado complexo de f 2 (t).

Se f 1 (t) e f 2 (t) são ortogonais, então C 12 = 0

$$ {\ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (t) dt \ over \ int_ {t_1} ^ {t_2} | f_2 (t) | ^ 2 dt} = 0 $$

$$ \ Rightarrow \ int_ {t_1} ^ {t_2} f_1 (t) f_2 ^ * (dt) = 0 $$

A equação acima representa a condição de ortogonalidade em funções complexas.