Systematic error of position detection
Published:
마이크로스코프 이미지에서 얻을수 있는 정보는 무엇인가? 1차적으로는 512×512 pixel에 담긴 빛의 양의 수치이다. 16bit에서는 0부터 2^16(=65536)까지의 숫자로 나타나고 14bit에서는 2^14까지 표현된다. 2차적으로는 보고자하는 물체의 위치와 모양을 알아낼수 있다. 사실 이 위치와 모양을 알아내는 것은 쉬운일이 아니다. 내가 알아내려고 하는 systematic error는 초기 1차적 정보에서 나올수도 있고 2차적 정보에서 나올수도 있다. 또한 0차적으로는 보고자하는 물체의 vibration으로 부터 나오기도 한다.
우선 위치 정보로 한정시켜 생각하면, I(x,y)를 pixel x와 pixel y에서의 빛의 양이라고 하자. ideal하게는 동그란 물체는 빛의 회절에 의해서 airy disk를 만들어낸다. 하지만 우리가 알고 싶은 것은 그 airy disk로부터 물체의 크기 (radius)와 중심의 위치 (center position)를 찾아내는 것이다. 즉 중심을 찾아내는 함수를 C, 지름을 찾아내는 함수를 R이라고 하면,
\[C{I(x,y)} = (x_0, y_0)\] \[R{I(x,y)} = r_0\]가 되게 된다. 그리고 여기서 systematic error란 위의 함수 결과 값들의 표준편차이다. 물리적인 의미는 이 에러보다 결과 값이 작다면 그 값을 신뢰할수 없다는 뜻이다. 여기서 Signal to noise라는 개녕이 등장하는데 그 정의는 결과 값과 노이즈의 비례이다. 이 값이 1보다 작으면 측정할 할수 없고 1보다 크면 결과가 의미를 가지게 된다.
지금 내가 고민하고 있는 것은 저 C와 R이라는 함수를 어떻게 구현할까이다. 이 함수에 따라서 결과의 표준편차도 변하게 된다. 최대한 많은 정보를 포함하면서 SNR를 높이는 알고리즘을 찾아내야 한다. 현재 ImageJ에서 쓰이고 있는 particle tracking algorithm은 이미지를 binary로 변환해야만 적용가능해진다. 하지만 이 경우 경계값의 정보가 모두 사라지기 때문에 물체의 미세한 위치변화를 찾아내기 힘들다. 2D로 된 이미지 정보로부터 airy pattern을 찾아내고 그 fitting을 기반으로 물체의 위치를 파악해야 한다.
우선 크기 정보는 버리자. 최대한 많은 pixel들로부터 위치 정보를 뽑아내자. 여러 다른 focus들을 구분할수 있게 하자.