나이키스트 샘플링 이론 예시 - naikiseuteu saempeulling ilon yesi

① Nyquist sampling 이론 의 정의 와 예시

 한정된 대역의 주파수를 갖는 함수의 경우, 적절한 샘플링 간격을 취하면 샘플링 과정에서 아무런 정보의 유실도 없이 완전하게 재생될 수 있다는 이론이다. 이 때 특정 주파수 성분의 한 사이클을 제대로 나타내기 위해서는 적어도 2개 이상의 샘플이 있어야 한다. 샤논 정리, 카디날 정리 또는 나이퀴스트 정리라고도 한다.

 샘플링(Sampling) 법칙에 의하면 샘플링 주파수 fs 는 신호의 최대주파수 성분의 두 배 이상이 되어야 한다.  이는 fs/2 이상의 주파수 성분에서는 중첩 (Folding) 현상이 발생하여 앨리어싱(Aliasing) 현상이 발생하기 때문이며, 이때 fs/2를 중첩(Folding) 주파수 또는 나이키스트 주파수라 부른다.

디지탈 신호분석(Digital Signal Processing)시, 입력신호를 A/D 변환기에 의하여 디지탈화 할 때 N 개의 이산화값(Discrete Value)으로 기록된다.  샘플링 주파수(fs), 나이키스트 주파수(fo), 분해능 주파수(Frequency Resolution,f) 사이의 기본적인 관계식은 다음과 같다.

 *이렇게 샘플링 하여 원신호를 복원하지만 인간이 느끼지 못하는 정도의 오류가 있으며 원래 신호에 가깝다는 것이지 꼭 같은 것은 아니다.

(예시)

 음성 신호의 경우 유효 음성 주파수 대역 300-3,400Hz의 2배인 6,800Hz가 2배가 넘는 8,000Hz(주기시간으로 125us)로 표본화중이라고 한다.

 하지만 모두 가능 한 것은 아니다. 입력신호에 상당히 높은 주파수 성분이 존재하지 않을 경우, 즉 대역 제한된 신호에서만 가능한대 이를 표본화 정리라고 한다.

 또한가지 예를 들자면 사람의 최대 가정 주파수인 20Hz를 40Hz이상의 주기로 샘플링을 한다.

(CD,오디오:44.1KHz 주파수로 샘플링 한다.)

② SNR이란? 그리고 큰 값이 좋은지 작은 값이 좋은지 설명하시오.

 SNR은 어떤 회로, 시스템에서의 신호대잡음비라 한다.

 즉 수식은 신호전력 / 잡음전력(S/N)의 간단한 수식이다.

    

 RF에서는 잡음이 가득한 공간을 통해 신호가 송수신 되기 때문에 잡음에 대한 해결책이 강력하게 요구되는데, 시스템에서 그러한 잡음의 영향이나 소중을 알아보기 위한 지표로서 SNR이 많이 사용된다.

 잡음을 절대값이 아닌 신호전력과의 비로 나타내는 이유는, 잡음의 영향이 절대적인 레벨값이 아니라 신호의 크기에 따라 비례적으로 영향을 주기 때문에 이와 같은 신호-잡음비를 통해 잡음이 어느 정도 인지를 평가하는 것이다.

 수식이나 그 의미에서 보면 금방 알수 있지만, SNR은 크면 클수록 잡음영향이 적다는 의미이므로 가능한한 크게 만들어야 좋다.

③ Shannon 정리와 하나의 예

 Shannon 정리는,

- 정보의 측정(정보량) 및 전송제약사항(채널용량)에 대한 이론 제시

- 정보이론이라는 학문분야의 시초가 됨

- Shannon(샤논)(1948)은 채널용량을, 다음의 공식으로 표현

       C  =  W log₂(1 + S/N)

        여기서,  C : 채널용량, W : 대역폭, S :신호전력, N : 잡음전력

* 일명, Shannon-Hartley 정리라고도 함. 하트리(1928)가 기초예비작업을 하였고,샤논(1948)이 이를 정확하게 유도하였음

 위의 채널용량에 대한 공식이 의미하는 바는,

 ㅇ 잡음이 없다면  (N -> 0, S/N -> ∞),

  - 임의 대역폭에서도 채널 용량을 거의 무한으로 할 수 있으나,

잡음이 있다면  (N -> ∞, S/N -> 0),

 - 대역폭을 아무리 증가시켜도 채널 용량을 크게 할 수가 없다는 것을 의미

ㅇ 의의

- 채널용량에 대한 Shannon의 증명은 채널 용량 C 에 도달하는 방법을 제공하는 것이 아니라, 이론적 한계치를 제시함.

- 즉, 『잡음이 존재하는 곳에서 신뢰할만한 통신』이라는 이론적 한계치를 제시

     *  이는 정보의 전달과 그 한계용량에 대한 관점을 제시하는 것이다.

- 한편, 채널 용량 한계치에 도달하는 방법들에 대해서는  부호화 이론 등에서

        이론적 한계치 C 에 근접하기 위한 방법을 찾고 있다.

Shannon(샤논)의 제 2정리라고 하는 「 부호화 이론 」에 의하면,

대역이 제한된 채널로 입력되는 정보율이 C(bps)보다 작다면, 부호 메세지 길이를

무한하게하여 에러율을 영(0)으로 접근시키는 부호화가 반드시 존재한다.

그 반대로, 입력되는 정보율이 C를 초과하면, 에러율은 어떤 유한 값 이하로는 떨어질 수 없다.

   ㅇ 정보율 R, 채널용량 C 라고 하면,

      - R > C : 어떤 부호화 기술을 사용하더라도 에러 존재

      - R < C : 적정한 부호화 기술 만 사용하면 오류 최소화 가능

※ 만일 어떤 정보원이 채널용량보다 작은 정보율을 가지고 있다면,

에러/잡음을 최소화할 수 있는 부호화(Ccoding) 과정이 존재한다.- 즉, 잡음이 존재하더라도 무시할 수 있는 정도의 송수신이 가능할 수 있다.

- 한편, 정보율이 채널용량 보다 크다면 오류가 나올 확률을 피할 수 없다.

         (샤논의 정리)                          (나이퀴스트 정리)

*출처

//www.ktword.co.kr/index.php(정보통신 기술 용어 해설

시간 샘플링 이론이 말해주는 것:

"얼마나 빼곡히 샘플링을 해야 원래 신호로 복구하는데 어려움이 없을까?"

시간 샘플링?

물리적인 (아날로그) 신호를 디지털 화면 상에 표시해주기 위해선 샘플링이 필요하다. 대개 신호처리에서 샘플링이라고 하면 시간 샘플링을 말하는 것 같다.

시간 샘플링이란 원래의 아날로그 신호 (포스트 맨 위 애플릿의 흰색 실선)를 디지털 신호로 바꿔주는 과정이라고 할 수 있다. (드디어 아날로그 세계와 디지털 세계가…!) 포스트 맨 위 애플릿에서는 ‘어느 정도의’ 주기를 갖고 아날로그 신호를 샘플링 해주는데, ‘어느 정도의’ 샘플링 속도 이상이 되면 샘플된 시간과 신호 값들을 가지고 원래의 신호로 거의 비슷하게 복구할 수 있다.

그러면, 이론적으로 ‘어느 정도의’ 주기를 갖고 아날로그 신호를 샘플링 해줘야 원래 신호로 복구 가능한 것일까? (즉, ideal reconstruction). 이 질문에 대한 해답을 sampling theorem에서 구할 수 있다.

Sampling theorem의 증명과정

연속시간 신호 $x_c(t)$ 와 이산시간 신호 $x_d[n]$ 을 생각해보자.

이 연속시간 신호의 샘플링 된 sequence는 다음과 같이 표현할 수 있다.

\[x_d[n]=x_c(nT)\]

이 때, $T$ 는 샘플링 간격이다.

연속시간 신호 $x_c(t)$ 에 대하여, 다음과 같은 푸리에 변환을 가진다는 것을 알고 있다.

\[X_c(f) = \int_{-\infty}^{\infty}x_c(t) exp(-j2\pi f t)dt\]

이산시간 신호 $x_d[n]$ 에 대하여, 우리는 다음과 같은 푸리에 변환이 가능함을 알고 있다.

\[X_d(f) = \sum_{n=-\infty}^{\infty}x_d[n]exp(-j2\pi fn)\]

이 때, $X_c(f)$ 와 $X_d(f)$ 의 관계를 수학적으로 표현해보고자 한다.

이제 impulse train이라고 불리는 신호를 정의하도록 하자.

\[p_c(t) = \sum_{n=-\infty}^{\infty}\delta(t-nT)\]

그림 1. impulse train의 모습

impulse train을 이용하여 연속신호를 샘플링한 것을 수학적으로 표현할 수 있다.

따라서, 연속신호와 이산신호의 관계를 다음과 같이 생각할 수 있다.

\[y_c(t) = x_c(t)p_c(t) = \sum_{n=-\infty}^{\infty}x_d[n]\delta_c(t-nT)\]

$y_c(t)$ 는 비주기 연속신호이므로 푸리에변환 할 수 있다. $y_c(t)$ 의 푸리에 변환 $Y_c(f)$ 는 다음과 같이 쓸 수 있다.

\[Y_c(f) = \int_{-\infty}^{\infty}y_c(t) exp(-j2\pi ft)dt\] \[=\int_{-\infty}^{\infty}\sum_{n=-\infty}^{\infty}x_d[n] \delta(t-nT) exp(-j2\pi ft)dt\] \[=\sum_{n=-\infty}^{\infty}x_d[n]\int_{-\infty}^{\infty}\delta(t-nT) exp(-j2\pi ft)dt\] \[=\sum_{n=-\infty}^{\infty}x_d[n] exp(-j2\pi f nT) = X_d(Tf)\]

여기서 식 (8) 에서 식 (9)로 넘어갈 때에는 다음과 같은 델타 함수의 성질을 이용한 것이다.

\[\int_{-\infty}^{\infty}\delta(t-k)f(t) dt = f(k)\]

동시에, $p_c(t)$ 는 주기를 $T$ 로 하는 연속시간 주기 신호이므로. $p_c(t)$ 는 CTFS를 통해 표현할 수 있다.

\[p_c(t) = \sum_{n=-\infty}^{\infty} \delta(t-nT)\] \[=\sum_{k=-\infty}^{\infty} a_k exp\left(j \frac{2\pi k}{T}t\right)\]

where

\[a_k = \frac{1}{T}\int_{-T/2}^{T/2}\delta(t) exp\left(-j \frac{2\pi k}{T}t\right)dt = \frac{1}{T}\]

(여기서도 식 (10)의 성질을 이용했다.)

그런데, 동시에 CTFT는 주기 신호이던 아니던 관계없이 어떤 연속 신호라도 적용할 수 있으므로, $p_c(t)$ 에 CTFT를 적용해도 무방하다.

\[P_c(f) = \int_{-\infty}^{\infty}p_c(t) exp(-j2\pi ft) dt\] \[=\int_{-\infty}^{\infty}\frac{1}{T} \sum_{k=-\infty}^{\infty} exp\left(j\frac{2\pi k}{T}t\right) exp(-j2\pi ft)dt\] \[=\frac{1}{T} \sum_{k=-\infty}^{\infty}\int_{-\infty}^{\infty} exp\left(j\frac{2\pi k}{T}t\right) exp(-j2\pi ft)dt\]

여기서 식 (16) 내의 정적분 파트에 대해서 생각해보자. 이 식을 다시 쓰면 아래의 식 (17)과 같다.

\[\int_{-\infty}^{\infty}exp\left(j\frac{2\pi k}{T}t\right) exp(-j2\pi ft)dt\]

식 (17)은 $exp\left(j\frac{2\pi k}{T}t\right)$ 를 푸리에 변환한 것으로 해석할 수도 있다.

식 (17)을 이해하기 위해 다음의 두 푸리에 변환에 대해 생각해보자.

\[\mathfrak{F}(1) = \int_{-\infty}^{\infty}1 \times exp\left(-j2\pi ft\right) = \delta(f)\]

또, $\mathfrak{F}(f(t)) = F(f)$ 라고 했을 때

\[\mathfrak{F}\left(exp\left(j2\pi f_0 t\right)f(t)\right) = F(f-f_0)\]

즉, 식(17)은 1의 푸리에 변환인데, 그것이 $\frac{k}{T}$ 만큼 modulation 되었다고 생각할 수 있는 것이다.

따라서 식 (17)은 다음과 같이 쓸 수 있다.

\[식(17) = \delta(f-\frac{k}{T})\]

따라서, 식 (16)은 다음과 같이 쓸 수 있다.

\[P_c(f) = \frac{1}{T}\sum_{-\infty}^{\infty}\delta(f-\frac{k}{T})\]

또한, $y_c(t)=x_c(t)p_c(t)$ 로 생각 할 수 있다고 했는데, 컨볼루션과 푸리에 변환 사이의 관계를 생각하면 $Y_c(f)=X_c(f)\otimes P_c(f)$ 이다. (여기서 ‘$\otimes$’ 연산자는 컨볼루션 연산자를 의미함.)

따라서,

\[Y_c(f) = X_c(f) \otimes P_c(f) = P_c(f) \otimes X_c(f)\] \[= \int_{-\infty}^{\infty}P_c(\tau)X_c(f-\tau)d\tau\] \[=\int_{-\infty}^{\infty}\frac{1}{T}\sum_{k=-\infty}^{\infty}\delta\left(\tau-\frac{k}{T}\right)X_c\left(f-\tau\right)d\tau\] \[=\frac{1}{T}\sum_{k=-\infty}^{\infty}\int_{-\infty}^{\infty}\delta\left(\tau-\frac{k}{T}\right)X_c\left(f-\tau\right)d\tau\]

여기서 우리는 식 (25)의

\[\int_{-\infty}^{\infty}\delta\left(\tau-\frac{k}{T}\right)X_c(f-\tau)d\tau\]

를 다음과 같이 생각할 수 있다.

\[\int_{-\infty}^{\infty}\delta\left(\tau-\frac{k}{T}\right)X_c\left(f-\tau\right)d\tau= \delta\left(f-\frac{k}{T}\right)\otimes X_c(f)\]

왜냐하면, 다음과 같이 볼 수 있기 때문이다.

아래 식에서와 같이 $X(f)$ 와 $Y(f)$ 의 컨볼루션 연산은 $X(f)$ 의 $f$ 를 $\tau$ 로 바꿔주고 $Y(f)$ 의 $f$ 에서 $\tau$ 를 뺀 $f-\tau$ 로 바꿔준 것으로 볼 수 있는데,

\[X(f)\otimes Y(f) = \int_{-\infty}^{\infty}X(\tau)Y(f-\tau)d\tau\]

마찬가지의 방식을 적용해서 $\delta(f-\frac{k}{T})\otimes X_c(f)$ 에서도 왼쪽의 델타함수에 있는 $f$ 는 $\tau$ 로 바꿔주고, $X_c$ 에 있는 $f$ 는 $f-\tau$로 바꿔주면

\[\int_{-\infty}^{\infty}\delta\left(\tau-\frac{k}{T}\right)X_c(f-\tau)d\tau\]

와 같기 때문이다.

따라서,

\[Y_c(f) = P_c(f) \otimes X_c(f)\]

식 (26)에 의해서,

\[=\frac{1}{T}\sum_{k=-\infty}^{\infty}\delta\left(f-\frac{k}{T}\right)\otimes X_c(f)\]

델타함수의 성질에 의해서,

\[=\frac{1}{T}\sum_{k=-\infty}^{\infty}X_c\left(f-\frac{k}{T}\right)\]

그러므로 우리는 식 (6)~(9)와 식 (27)~(29)로부터 $X_c(f)$ 와 $X_d(f)$ 간의 관계를 다음과 같이 확인할 수 있다.

\[Y_c(f) = X_d(Tf) = \frac{1}{T}\sum_{-\infty}^{\infty}X_c\left(f-\frac{k}{T}\right)\]

이 때, $X_c(f)$ 의 주파수 스펙트럼이 $|f|>B$ 에서 0, 다른 말로는 $\frac{1}{T}>2B$ 이라면 (즉, 주파수 영역이 bounded),

\[Y_c(f) = X_d(Tf) = \frac{1}{T}X_c(f) \space for \space |f| < \frac{1}{2T}\]

ideal reconstruction

지금까지 Frequency Domain에서 $X_c(f)$ 와 $X_d(f)$ 의 관계에 대해서 알아보았다. 그렇다면 둘의 관계에 대해서 아는 것은 어떤 의미를 갖는 것일까? 혹은 어떤 것을 파악하기 위해서 $X_c(f)$ 와 $X_d(f)$ 의 관계를 수식적으로 이해해야 하는 것일까?

우리는 sampling한 신호(혹은 이산 신호)에 어떤 방법을 취하면 그것이 원래의 contiunous time signal로 완벽하게 복구 시킬 수 있는지를 알고싶은 것이다. 우리는 Sampling Theorem을 통해서 수식적인 관계를 식(32)와 같이 발견하게 되었다.

그렇다면, $x_c(t)$ 의 샘플링한 신호의 fourier transform의 형태인 $Y_c(f)$ 를 다시 $X_c(f)$ 로 바꾸기 위해선 어떤 조치를 취해야 할까? 그것은 $Y_c(f)=\frac{1}{T}X_c(f)$ 이기 때문에 다음과 같은 method를 통해서 $Y_c(f)$ 를 다시 $X_c(f)$ 로 돌려 놓을 수 있다고 할 수 있다.

\[X_c(f) = Y_c(f) H_c(f)\]

where

\[H_c(f) = \begin{cases} T, & \text{if } |f|<\frac{1}{2T} \\ 0, & \text{otherwise} \end{cases}\]

즉, $H_c(f)$ 는 an ideal low pass filter라고 할 수 있다. (특정 주파수보다 낮은 신호들은 모두 내보내고, 특정 주파수보다 높은 대역의 신호들은 모두 통과시키지 않으니까.)

시간 영역(time domain)에서 우리는 $x_c(t)$ 와 $y_c(t)$ 에 대하여 다음과 같은 관계를 구할 수 있다.

\[x_c(t) = y_c(t) \otimes h_c(t)\] \[= \int_{-\infty}^{\infty} y_c(\tau)h_c(t-\tau)d\tau\] \[= \sum_{n=-\infty}^{\infty}x_d[n]h_c(t-nT)\] \[\Rightarrow h_c(t) = \mathfrak{F}^{-1}(H_c(f)) = \frac{\sin(\pi t/T)}{\pi t/T} = sinc(t/T)\]

여기서 우리는 주파수 도메인에서 ideal lowpass filter는 time domain에서 sinc function으로 표현된다는 사실까지 확인할 수 있다. 아래는 위의 sinc function의 유도과정을 증명한 것이다.

PROOF impulse response function in ideal reconstruction transfer function

아래와 같은 $H_c(f)$ 에 대하여 역 푸리에 변환을 취해보자.

\[H_c(f) = \begin{cases} T, & \text{if } |f|<\frac{1}{2T} \\ 0, & \text{otherwise} \end{cases}\] \[\mathfrak{F}^{-1}(H_c(f)) = \int_{-\infty}^{\infty}H_c(f) exp(j2\pi ft) df\] \[= \int_{-1/2T}^{1/2T} T \space exp(j2\pi ft) df\] \[=\frac{T}{j2\pi t} \left\|exp\left(j2\pi ft\right)\right\|^{1/2T}_{-1/2T}\] \[=\frac{T}{j2\pi ft} \left( exp\left(\frac{j2\pi t}{2T}\right) - exp\left(-\frac{j2\pi t}{2T}\right) \right)\] \[=\frac{T}{\pi t}\space\frac{1}{2j}\left( exp\left(j\frac{\pi t}{T}\right)-exp\left(-j\frac{\pi t}{T}\right) \right)\] \[=\frac{T}{\pi t}\sin\left(\frac{\pi t}{T}\right) = \frac{\sin(\pi t /T)}{\pi t /T}\] \[\therefore\mathfrak{F}^{-1} (H_c(f))=h_c(t) =\frac{\sin(\pi t/T)}{\pi t/T}\]

Q.E.D.

Toplist

최신 우편물

태그