구분할 수 있습니다.

필진 소개



임해동, Steven Yim

(앤비젼 R&D Engineer/3D 솔루션 담당)

기술에 대한 치밀한 탐구 정신으로 최적의 솔루션을 만들어가는 R&D Engineer



Posted by 비전만

댓글을 달아 주세요



측정 장비에서 정밀도(Precision)라는 것은여러 번 측정한 결과가 서로 얼마나 유사한지를 나타내는 기준으로재현성으로 부르기도 합니다양산 라인에 3D 측정 장비를 적용하기 위해서 검증해야 하는 스펙으로장비 자체와 장비의 사용자프로세스 등에 의해 종합적으로 영향을 받기 때문에, 3D 장비 제조사에서는 제공할 수 없는 스펙입니다하지만 Repeatability는 제한된 측정 조건에서 제공될 수 있습니다정밀도는 Repeatability 와 Reproducibility로 구분 됩니다.

필진 소개



임해동, Steven Yim

(앤비젼 R&D Engineer/3D 솔루션 담당)

기술에 대한 치밀한 탐구 정신으로 최적의 솔루션을 만들어가는 R&D Engineer



Posted by 비전만

댓글을 달아 주세요



기존 
2D 이미징에서 분해능 또는 해상도(Resolution) 개념은 똑같이 3D에도 적용이 가능 합니다. , 높이 방향으로도 분해능의 개념이 존재하며, 구분 가능한 최소 높이 Vertical resolution이라고 합니다
.

필진 소개



임해동, Steven Yim

(앤비젼 R&D Engineer/3D 솔루션 담당)

기술에 대한 치밀한 탐구 정신으로 최적의 솔루션을 만들어가는 R&D Engineer



Posted by 비전만

댓글을 달아 주세요

[카메라 기술 백서 #9] 카메라 출력 bit depth 8bit 10bit 12bit


  업무를 하다 보면 고객에게 가끔 이런 요구를 받는 경우가 있다. “검사 대상을 촬영한 영상에서 매우 적은 양의 gray 차이까지 구분해야 해서 8bit 출력으로는 부족합니다. 10bit나 12bit가 지원되는 카메라가 있으면 소개 바랍니다.”


 먼저 8bit / 10bit / 12bit는 무엇을 의미하는 것이며 왜 이런 차이가 발생하는지부터 알아보자. 8bit / 10bit / 12bit 출력과 같은 spec은 output bit depth라고 하며 이를 설명하기 위해 Digital과 Analog의 차이부터 시작해야 하지만 이건 독자를 너무 무시하는 처사로 보여 바로 bit depth에 대해 설명 하겠다.


디지털신호는 0과 1의 조합을 통해서 데이터의 크기를 나타내는 수단 중 하나이다. 그리고 bit depth는 몇개의 자릿수를 사용하여 표현할 것인가에 대한 것이다. 0과 1만을 사용한 숫자를 몇 자리 사용하는가 이며 아래는 8bit / 10bit / 12bit를 예시로 들었다.


 그래 여기까진 다 알고 있다. 그런데 이런 bit depth를 이용해서 영상의 밝기를 표현하면 어떨까. 아래 문제를 한번 풀어 보자.


문제. 다음 보기 중 가장 밝은 pixel data는?

  1. 128DN (8bit)
  2. 512DN (10bit)
  3. 2048DN (12bit)

답은 없다. 3개 모두 동일한 밝기의 pixel data가 된다. 우리가 보고 있는 영상에서 가장 어두운 영역은 0DN 그리고 가장 밝은 영역은 bit depth별로 달리 표현된다.



Bit depth는 결국 동일한 밝기 범위를 얼마나 숫자로 잘게 쪼개는데 있는 것이다.


 이제 센서를 한번 들여다 보자. 실제 카메라에서 output bit depth가 결정되는 곳은 2곳이 있다. 첫 번째로는 analog 형태의 전압을 digital 형태로 변환 시키는 Digitization 과정이다.



위 그림에서 Digitization 부분에 있는 계단이 256단계이면 8bit 출력 4096단계이면 12bit 출력이 될 것이다. Digitization을 하는 소자는 ADC이며 이 ADC의 출력이 10bit라면 이후의 데이터는 10bit의 분해능을 넘는 것은 불가능 하다. 그리고 이후의 image processing은 이 10bit scale의 데이터를 통해 이루어 진다. 그리고 카메라 사용자가 8bit 출력을 원한다면 10bit data를 8bit로 down scale하여 출력하게 된다. 뭐 간단하게 4로 나눈 출력을 최종적으로 내보내게 된다.

 그렇다면 10bit / 12bit 출력은 언제 필요한 것일까? 아래 그래프는 적당한 난수를 생성해서 8bit와 12bit 형태로 표현해 보았다. 만약 내가 검출해야 하는 대상이 8bit 기준 3DN 정도의 차이를 보이는 검은색 화살표 표시지점이면 8bit scale로도 충분하다 말할 수 있다. 그러나 오랜지 색 화살표로 표기된 부분을 검출해야 한다면 8bit bit depth로 프로세싱 하기엔 어려움이 따른다.



그러나 한가지 문제가 있다. 위의 오랜지색으로 표시된 부분이 정말 defect라 보증할 수 있을까? shot noise와 같은 random성을 지닌 노이즈가 아니라는 것은 어떻게 보증할 수 있을지에 대한 해답이 필요하다.

 그러므로 기본적으로 카메라가 가지고 있는 spec이 내가 검출 하고자 하는 defect을 충분히 구분해 낼 수 있는 능력을 가지고 있는지 검토하고 output bit depth 변경을 고려하는 것이 순서이다.


 여기까지 쓰려고 했지만 다시 읽어보니 그래서 어쩌라고? 라는 목소리가 어딘가에서 들리는 것만 같다. 그래서 어떤 상황에서 10bit, 12bit output을 이용하는 것이 검사를 더 유리하게 할 수 있을지 한번 생각해 보자.  랜덤하게 발생하는 노이즈가 8bit 1DN을 넘어서지 않는다고 가정해 보자 8bit scale 0.2DN정도 오르락 내리락 한다고 하면. 8bit scale 0.5DN의 불량은 카메라가 감지할 수 있을 것이다.(실제 소수점 이하 출력은 없다. 단순 가정이라 생각하자) 이럴 때는 10bit bit depth를 사용하는 것이 유리할 것이다.

 그럼 뭔가 답이 보이는 것 같다. random하게 발생하는 노이즈가 8bit 1DN 이하라면 bit scale을 올리는 것이 유리하다는 말이 된다. 이제 과거 포스팅을 복습할 때가 왔다. Random하게 발생하는 노이즈는 readout noise와 shot noise가 있다고 한 포스팅이 어딘가에 있다.(링크는 비전양이 알아서 달아줄 것이다. [머신비전]영상 품질을 결정하는 '카메라 노이즈' 파헤치기) readout nosie는 어두울 때와 밝을 때 모두 나타나고 photon shot noise는 빛이 강해질수록 같이 강해지게 된다. 발로 마우스를 잡고 그래프를 대충 그리면 아래 그림과 같다. 



Total noise가 가장 적은 구간이 이제 눈에 보일 것이다. 절대적인 random한 노이즈 양이 가장 적은 어두운 구간에서는 8bit 1DN을 노이즈가 넘지 않을 가능성이 가장 높다. 그러므로 10bit, 12bit scale은 결국 어두운 구간에서 명암차를 더 효과적으로 구분할 수 있는 도구가 될 수 있다. 기본적으로 카메라의 spec이 충족해야 이런 방법이 효과가 있다는 점을 한번 더 강조하고 글을 마친다.


 필진 소개



목한상, Kyle Mok

(앤비젼 Product Engineer/카메라 담당)


사진가가 되고 싶었던... 그래서 카메라와 함께 일하는...

카메라 담당 Product Engineer



Posted by 비전만

댓글을 달아 주세요

  1. 비전돌이 2017.02.24 16:47  댓글주소  수정/삭제  댓글쓰기

    안녕하세요. 잘보고 있는 독자 중 하나 입니다.

    다른게 아니라 궁금한 부분이 있어 글을 쓰게 되었습니다.

    일반적으로 엔코더 트리거를 라인스캔 카메라에 많이 쓰는데요.

    엔코더 트리거를 쓰는 이유가 무엇인지 궁금하여 글을 남기게 되었습니다.
    (일반 스타트(프레임)트리거 와의 차이점 등)

    감사합니다.

  2. 2017.06.20 09:48  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다

  3. 2017.09.01 17:15  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다

[카메라 기술 백서 #9] 카메라 너 때문이야! - 카메라 때문에 생기는 문제점 #2 젤로 현상(Rolling shutter) 현상


  오늘은 카메라 너 때문이야 시리즈 2탄… 1년에 하나씩 나오는 어벤저스 급 포스팅이 되겠다.(빈도만 따진다면…). 최근 스마트폰, 디지털 카메라에 탑재되고 있는 동영상 촬영 스펙은 UHD급 까지 발전하였으며 실제 촬영해 보면 충분히 뛰어난 화질로 상당한 만족감으로 주고 있다. 디지털 카메라로 촬영된 영상을 방송에 내보낼 정도로 commercial image sensor의 품질은 많이 좋아졌다.

머신 비전용 카메라를 다른 말로 표현하면 그냥 동영상 촬영이 가능한 카메라이다. 기계식 셔터 없이 노출을 제어하고 연속적으로 영상을 촬영할 수 있는 카메라 이다. 그렇다면 스마트폰, 디지털 카메라에서 사용하는 이미지 센서를 머신 비전에 사용할 수 없을까? 결론부터 말하면 부분적으로는 가능하다. 그리고 “부분적” 이라는 단어를 붙이게 된 가장 큰 이유는 Rolling shutter 때문이다.


 먼저 Rolling shutter는 CCD와는 전혀 관계없는 현상이며 CMOS 센서에서만 나타나는 현상이다. Rolling shutter를 설명하기 이전에 “shutter”의 의미를 먼저 한번 짚고 가 보자. shutter라는 단어는 분명 shut이라는 동사에서 파생된 단어일 것이다. 한글로 풀어 말하면 “무언가를 닫을 수 있도록 만드는 것” 정도가 되겠다. 그리고 이미지 센서 앞에서 닫는다는 것은 “문을 닫아 빛을 막아주는 장치” 정도로 해석 할 수 있지 않을까 생각한다. 여기까지는 형태적인 정의에 가까우며 기능적인 정의를 하면… 빛을 막아준다는 것은 “내가 원하는 시점의 빛만 얻을 수 있도록 해주는 장치” 라고 할 수도 있겠다. 

 이미지 센서는 빛에 반응하는 장치며 항상 빛을 받게 되면 charge를 생성하게 된다. 내가 원하든 원하지 않든 말이다. 그래서 내가 원하는 시점의 빛만 받아들이기 위해 아래 그림과 같은 방법을 사용하게 된다.


    시간의 흐름 중에서, 사용자는 ↔로 표시된 시점의 빛만 받고 싶어 한다. 즉 사용자가 원하는 시점의 빛만을 얻는 “shutter” 기능이 필요하다. 이미지 센서에서 셔터의 기능을 구현하는 방법은 아래 3가지 사실에 따른다. 


1. 빛을 받게 되면 항상 charge는 생성된다.

2. 필요 없는 구간의 charge는 pixel reset 기능을 통해 버린다.

3. 필요한 구간의 charge는 read out 하여 출력한다.


 종합하면 사용자가 원하는 노출시간이 시작하는 지점에서 pixel reset을 통해 내부의 charge를 비워 놓고 exposure time만큼 쌓인 charge는 read out하여 출력하는 것이다. 이 방법이 우리가 흔히 말하는 전자셔터의 구동 방식이다.


 다시 rolling shutter로 돌아가면…

 Rolling shutter는 이런 전자 셔터의 구동 방식인데, 문제는 이런 셔터 기능을 모든 pixel에 동시에 적용시키는 것이 어렵다는 것이다. 모든 pixel에 쌓여있는 charge를 원하는 시점에 동시에 read out 할 수 있으면 좋겠지만, 이 read out이라는게 그렇게 간단하지 않다. charge의 양을 측정하여 전압을 생성하고 이를 digital 신호로 변환하고 data 출력까지 해줘야 한다. 모든 pixel을 동시에 하는 것은 물론이며 한번에 1개의 pixel를 처리할 수밖에 없다. 일반적인 CMOS image sensor는 read out register라는 공간을 통해 한번에 한 줄의 row를 가져와 1pixel씩 처리한다. 여기서 1개의 row를 가져오는 시점이 exposure end가 이루어 지는 순간이 된다. 그러다 보니 각각의 row의 exposure end 타이밍이 차이가 나게 된다. 그림으로 표현하면 아래처럼 4번의 row line을 전송하는 과정이 된다.

   


 이렇게 각각의 row를 순차적으로 read out할 때 object가 움직이게 되면 어떻게 될까? 

좌측의 그림처럼 이미지 센서가 보고 있는 영역에서 파란색 세로 막대가 우측으로 평행 이동하고 이를 Rolling shutter로 촬영하게 되면 우측의 그림처럼 보이게 된다. 아래에 위치한 row부터 순차적으로 readout을 하고 각 row에서는 exposure time 동안 object가 움직인 만큼 image blur가 발생하게 된다.

 가장 쉽게 해당 현상을 볼 수 있는 방법은 차를 타고 이동하는 도중 창 밖의 가로수를 스마트폰으로 촬영해 보자. 가로수들이 비스듬히 누워있는 것을 볼 수 있을 것이다. 만약 동영상 촬영 중이라면 이 rolling shutter에 의해 발생하는 현상은 마치 젤리가 울렁거리고 있는 것처럼 보이며 이를 젤로 현상이라고 부른다.


 머신 비전에서는 이런 rolling shutter에 의한 row별 exposure timing 차이 현상을 해결하기 위해 CMOS image sensor를 특별한 형태로 제작한다. 각 pixel에 저장소를 하나씩 만들고 read out이 필요한 시점에 해당 저장소로 각 pixel의 charge data를 이동시킨다. 그리고 저장소에 있는 각 row를 꺼내어 가면서 read out을 진행하게 된다. 이런 방식을 Global shutter 방식이라고 하며 이 기능을 구현하기 위해서는 CMOS 이미지 센서의 pixel에 해당 기능을 수행하기 위한 transistor를 추가적으로 만들어야 한다. 이런 이유로 각 pixel의 크기가 작은 스마트폰 용 image sensor는 각 기능을 수행할 충분한 transistor를 탑재하지 못해 rolling shutter로 동작할 수 밖에 없는 것이다.


 결론은 pixel에 더 많은 transistor를 탑재하여 Global shutter를 구현해야 젤로 현상을 피할 수 있다는 것인 데 다른 방법이 없는 것은 아니다. 정확히 말하면 젤로 현상을 없애는 방법이 아닌 줄이는 방법이 있다.


 2개의, rolling shutter로 동작하는 CMOS 이미지 센서가 있다.

 

 해상도

 최대 fps

 1장 촬영 시 소요시간(read out time)

 CMOS 1

 1920 x 1080

 60fps

17ms

 CMOS 2

 1920 x 1080

 360fps

2.8ms


일반적으로 이미지 센서의 최대 frame rate의 역수는 이미지 1장을 촬영하여 read out하는 시간과 동일하다. 그리고 이 read out 시간 동안 가장 마지막 row와 가장 첫 row의 촬영 시간차가 발생하게 된다. 위에 예시로 든 2개의 이미지 센서로 움직이는 물체를 촬영하게 되면 아래의 그림처럼 보일 것이다. 분명 젤로 현상은 CMOS 2 센서로 촬영했을 때 줄어들 것이며 더 자연스러운 동영상으로 보일 것이다.


<좌측: CMOS 1 , 우측: CMOS 2>


다시 한번 결론 지으면 젤로 현상을 완전히 피하고 싶다면 Global shutter를 사용하고 Rolling shutter를 사용하면서라도 젤로 현상을 줄이고 싶다면 read out time이 짧은 이미지 센서를 선택하는 것이 방법이다. 그리고 read out time은 최대 frame rate을 통해 어느 정도 유추할 수 있다.


 필진 소개



목한상, Kyle Mok

(앤비젼 Product Engineer/카메라 담당)


사진가가 되고 싶었던... 그래서 카메라와 함께 일하는...

카메라 담당 Product Engineer



Posted by 비전만

댓글을 달아 주세요

  1. 정민 2016.08.09 10:37  댓글주소  수정/삭제  댓글쓰기

    포스팅 항상 잘 보고 있습니다.
    이번 내요을 보고 하나 질문이 있어서 질문을 남깁니다.


    맨아래 그림과 설명을 보면
    젤로 현상을 줄이고 싶으면 read out time 이 짧은 이미지 센서를 선택해야 한다라는 설명이 있습니다.
    이 설명 대로라면 CMOS1 이 read out time이 더 짧은 센서로, 이미지가 1, 2번이 바뀐게 아닌가요?

    • 목한상 2016.08.09 13:03  댓글주소  수정/삭제

      먼저 관심을 가지고 봐 주셔서 감사드립니다.

      말씀해 주신 부분이 맞습니다. 위의 표는 1번 센서가 더 짧은 readout 시간을 가지는 것으로 되어 있으며 아래의 이미지는 2번 센서가 더 짧은 readout 시간을 가지는 것으로 되어 있네요.

      한번더 글을 상세히 검토하지 못해 발생한 오류이며 관심을 가지고 지적해 주셔서 정말 감사합니다.

      오류는 바로 수정하도록 하겠습니다.

  2. 김대광 2017.07.08 18:44  댓글주소  수정/삭제  댓글쓰기

    재미있게 잘 읽고 갑니다.
    앞으로는 자주 오도록 하겠습니다.

    좋은 글 감사 합니다.

  3. KT 2018.03.02 02:25  댓글주소  수정/삭제  댓글쓰기

    좋은 자료 감사합니다.

  4. knamsang 2019.07.19 12:35  댓글주소  수정/삭제  댓글쓰기

    안녕하세요, 궁금한 점이 있어 문의드립니다. CMOS 센서에서 read out register를 통해 한 줄의 row를 가져와 한 pixel을 처리한다 하였는데, 그럼 한 row 전체 pixel을 처리하려면 row당 column번의 read out이 필요한 것인가요? 아니면 한 row를 가져와 한 row 전체를 처리하는 것인가요?

앤비젼 필진에게 물어봐~!(페인트의 비전 인식률 향상 방안에 대하여)


‘앤비젼의 필진에게 물어봐~!’는 여러분들의 질문에 성심성의껏 답변드리도록 하겠습니다 :) 

언제든지 궁금한 사항이 있으시면 댓글 을 통해 문의 남겨주세요! (비밀 댓글은 이름 & 이메일을 기재해주시면, 답글 혹은 이메일로 필진들의 답변을 전송해 드립니다.)


Q. 안녕하십니까 비젼 인식률 향상방안에 대해 고민하고 있어 질문을 좀 드리려 합니다.

제작품 일부분에 페인트를 칠하고 그것을 인식하는 것이 목적입니다.

이때 페인트와 같은 색상의 조명을 쬐어 인식률을 높일 수 있을 지 의문이 들었습니다. 


현재는 백색광의 조명을 사용중입니다. 부품에 따라 페인트의 색상이 다른데 현재처럼 백색광의 조명을 계속 이용하는 것이 좋을 지, 아니면 페인트의 색상에 따라 맞는 조명을 사용하는 것이 인식률에 좋을 지 문의드립니다.


그리고 백색광의 조명을 사용한다면 어떤 색상의 페인트를 사용하는 것이 인식률에 좋은지도 알고 싶습니다! 


박강환 (광학 필진)


A. 안녕하세요? 문의 주셔서 감사합니다.

기본적으로 물체가 가지고 있는 색은 해당 물체가 특정 파장에서 높은 반사율을 가지고 있기 때문에 나타납니다.

그러므로 만약 특정 색깔을 가지고 있는 페인트를 사용할 경우 페인트의 색과 비슷한 파장을 가지고 있는 조명을 사용한다면 해당 페인트는 좀더 밝게 표시될 것입니다.

또는 해당 페인트와 보색 관계의 조명을 사용할 경우에는 페인트는 어두운 색으로 표시될 것입니다.

 

이를 좀더 쉽게 예를 들어 설명하도록 하겠습니다.


아래의 그림과 같이 파란색의 셔츠를 입은 남자가 붉은색의 스포츠카를 타고 녹색의 수풀 옆을 달리고 있습니다.

이 사진에서는 빛의 삼원색인 Red, Green, Blue가 잘 표현이 되어 있습니다.


원본 컬러 이미지

원본 흑백 이미지


이 그림에 각각 Red, Green, Blue의 조명을 비춘다고 가정할 경우 각각의 조명에서 아래와 같은 이미지를 얻게 됩니다.


01

02

03

Red 조명 (차가 밝아짐) 

Green 조명 

(수풀이 좀더 밝아지고 차가 어두워짐)

Blue 조명 (셔츠가 밝아짐)


위의 그림과 같이 다른 조명을 사용하게 될 경우 그 조명의 파장과 비슷한 색을 가지고 있는 물체들의 밝기가 가장 밝은 것을 확인하실 수 있습니다.


또한 반대로 그 조명과 보색관계에 있는 색이 가장 어둡게 나오는 것도 확인할 수 있습니다.

보색은 위의 그림에서 서로 마주보고 있는 표입니다. Red(R)의 경우 보색은 Blue Green(BG)가 됩니다.

백색광에서 가장 잘 보이는 색은 모든 빛을 반사하거나 흡수하는 백색과 흑색입니다.


정세영 필진(광학 필진)


A. 모노카메라든, 컬러카메라든, 기본적으로 인식하고자 하는 물체의 색과 같은 색의 조명을 사용하면 인식률을 높일 수 있습니다. 이 물체 외의 부분에서는 색이 다르므로, 조명이 덜 반사하기 때문에, 인식하고자 하는 물체가 확 드러나겠죠. 


백색광의 경우, 모든 색을 포함하기 때문에 각 물체의 색생에 해당되는 빛이 반사되기 때문에 인식률을 높이지는 못할 것 같네요.


목한상(카메라 필진)


A. 중요한 부분은 배경색(제작품)이 무엇이며 페인트 색이 무엇인가 입니다. 두 색깔이 다르다면 단 파장의 빛을 사용하는 것은 무조건 도움이 됩니다. 파장 별 반사율을 가정해 보면 아래같이 나올 수 있고 이때 백색광을 쓰면 모든 빛이 반사되니 구분이 어려울 텐데 단파장을 쓰면 겹쳐지는 부분을 피할 수 있을 것 같네요.


제작품이라는 것이 무엇인지가 중요할 것 같아요 금속이라면 페인트가 어둡게 보이는 파장으로 사용하고 금속 아닌 다른 형태라면 앞서 설명한 방법이 유효할 것 같아요.


 필진 소개



비전군, Mr Vision

앤비젼 공식 블로그의 마스코트.(비전군 & 비전양)

에어리어 스캔 카메라(Area scan camera)의 몸과 고해상도 렌즈(Super resolution lens)인 얼굴로 머신비전의 알짜배기 정보를 전파하는 지적인 소년



Posted by 비전만

댓글을 달아 주세요

  1. 2016.06.21 10:11  댓글주소  수정/삭제  댓글쓰기

    비밀댓글입니다

시간이 갈수록 머신비전 장비 성능의 요구 사항이 더 까다로워지고 있다. 이에 Line scan 카메라도 다양한 기능과 성능 변화가 일어났다. Line scan 카메라보다 진화된 Dual Line scan 카메라, TDI Line scan 카메라 등 다양한 형태와 방식의 카메라들이 시장에 선보이고 있다. 이 글에서는 산업용 카메라로 널리 쓰이는 Line scan 카메라의 종류와 특징에 대해 알아본다.




Line Scan 카메라의 기본 원리


일상생활에서 복사기를 이용해 본 경험이 있다면 복사를 할 때 긴 불빛이 한 방향으로 일정하게 움직이는 것을 본 적이 있을 것이다. 이때 조명에 붙어있는 이미지 센서가 복사할 용지를 차례대로 읽고 이를 다시 출력하는 것이 복사기의 원리이다. Line scan 카메라는 복사기와 같은 원리로 동작한다. 이처럼 Line scan 카메라에서 사용하는 이미지 센서는 Area scan 카메라에서 사용하는 이미지 센서와 달리 1개의 라인만으로 이루어져 있다. 즉, Line scan 카메라는 단 1개의 라인만으로 개체 전부를 촬영하며 개체 또는 카메라 자체가 움직이면서 촬영하는 방식을 사용한다. 

이미지 센서는 카메라가 노출하는 동안 개체에 비치는 빛에 비례하는 광전자 전하를 각 픽셀에 축적하고, 노출이 끝나면 전체 픽셀 라인의 전하는 판독 레지스터로 전송된다. 판독 레지스터가 픽셀 전하를 이동시키고, 카메라가 이들을 증폭하고 보정하여 디지털화하여 전하로 출력한다. 이렇게 전하를 시키는 동안 다음 픽셀 라인이 동시에 노출된다. 

노출과 판독을 할 수 있는 최대 속도를 "Line rate"라고 하며, kHz(킬로헤르츠) 단위를 사용하는데, 빠르게 움직이는 개체의 움직임을 촬영하려면 고속 Line rate가 필요하다. 판독 속도를 향상하기 위해서는 여러 개의 ‘탭(판독 레지스터를 따르는 판독 지점)’을 사용하면 된다. 



일반적으로 Line scan 카메라가 Area scan 카메라보다 불편하다고 생각할 수 있지만, Area scan 카메라는 개체를 정지시키고 난 다음 촬영해야만 하지만 Line scan 카메라는 컨베이어 벨트와 같이 움직이는 개체를 촬영할 수 있으므로 산업 현장에서는 오히려 Line scan 카메라가 더욱 유용하게 쓰일 수 있다. 



위 그림을 보면, 픽셀의 수에 따라 높이에 대한 제약이 있는 Area scan 카메라보다 Line scan 카메라는 높이에 대한 제약이 없다는 장점이 있으며, 이러한 특징으로 인해 공정에 사용되는 카메라의 수를 줄일 수 있다는 장점을 한눈에 볼 수 있다. Dual line scan 카메라는 Single line scan 카메라보다 개선된 신호대잡음비(SNR)와 노출 조정을 갖췄다. 


Line scan 카메라를 사용할 때 장점

  • 픽셀 당 가격(Price/pixel): Area scan 카메라를 사용할 때보다 더 높은 해상도의 이미지를 훨씬 저렴한 비용으로 촬영할 수 있다.
  • 다이내믹 레인지(Dynamic range): 다른 이미지 캡처 방식보다 다이내믹 레인지가 훨씬 높다.
  • 높은 픽셀 충전율(High pixel fill-factor): 감도를 극대화할 수 있다.
  • 스미어(Smear) 없는 이미지: 큰 비용을 사용해야 하는 스트로보(Strobe) 또는 다루기 어려운 셔터 없이 고속으로 이동하는 개체를 촬영할 수 있다.
  • 프로세싱 효율: Line scan 카메라를 사용하면 프레임 오버랩 없이 원활하게 이미지를 촬영한다. 프레임 오버랩은 고속 고해상도 장비에서 소중한 프로세싱 대역폭(bandwidth)을 점유하는 중복 데이터를 말한다.


TDI Line Scan 카메라


투명한 셀로판지에 아주 흐릿한 동그라미 하나가 그려져 있다. 이때, 이 셀로판지와 똑같이 흐릿한 동그라미가 그려진 셀로판지를 1개 더 겹쳐 보면, 겹치기 전보다 동그라미가 조금 선명해진다. 그렇다면, 수십 장을 겹쳐 놓으면 셀로판지 위에 그려진 동그라미는 확실하게 모습을 드러낸다.



TDI(Time Delayed Integration) Line scan 카메라는 바로 이와 같은 원리로 만들어졌다. 기존의 Line scan 카메라는 Area scan 카메라보다 적은 수의 픽셀만 사용한다는 경제성과 검사할 부분의 길이 한계가 없다는 장점이 있지만, 노출 시간이 짧아 감도가 약하다는 단점도 가지고 있었다. 

이러한 단점을 극복한 TDI Line scan 기술은 앞에서 언급한 예와 같이 셀로판지를 겹쳐 놓듯 여러 개의 라인 픽셀을 사용하여 검사체를 중복으로 촬영하여 더 선명한 이미지를 만들 수 있다.



위 그림과 같이 개체가 1→2→3의 방향으로 이동한다면, 개체의 이동에 따라 카메라에 내장된 TDI Line scan 이미지 센서의 각 스테이지에 이미지들이 중첩되며 선명한 상을 맺게 된다. TDI Line scan 기술은 스테이지에서 동일한 이미지를 여러 번 촬영해야 하므로 개체의 이동 속도에 맞춰 뒤의 스테이지가 앞의 스테이지보다 조금 늦게 이미지를 촬영한다. 이러한 특성으로 인해 "Time Delayed"라는 이름으로 붙게 되었다. TDI Line scan 기술은 정확히 같은 이미지를 촬영한 후 이를 중첩해 선명한 상을 얻으므로 카메라의 촬영 속도와 개체의 이동 속도를 동기화시키는 것이 중요하다.


하지만, 이런 번거로움에도 불구하고 높은 조도를 지닌 Metal Halide와 같은 광원을 조명으로 사용해야 하는 일반 Line scan 카메라보다 조금 적은 조도를 지닌 LED와 같은 조명을 사용하더라도 높은 선명도를 구현할 수 있어 조명의 설치 비용과 유지 비용를 줄일 수 있고, 일반적인 Line scan 카메라를 사용하여 설치할 수 없는 고속 장비에도 장착할 수 있는 점 등 많은 장점이 있다.



고속 Color Line Scan 이미징

    Color line scan 카메라는 다양한 파장의 빛을 감지하기 위해 행 방향 픽셀에 다양한 컬러 필터를 장착하거나 다양한 컬러 필터를 가진 센서 픽셀 라인을 사용한다. 일반적으로 사용되는 필터는 R(Red, 적색), G(Green, 녹색), B(Blue, 청색)이지만, 원격 위성 탐사와 같은 분야에서 사용되는 일부 장비는 다른 필터 유형을 사용한다.

    Color line scan 카메라에는 필수적인 기능이 몇 가지 있다. 첫 번째로 Color line scan 카메라와 함께 사용하는 렌즈는 상당한 색수차를 없애기 위해 컬러를 보정해야 한다. 렌즈가 평면상의 같은 초점에서 서로 다른 파장의 빛에 초점을 맞추지 못하면 색수차가 발생하는데, 이때 가장자리 주변의 색이 줄무늬로 나타난다.

    또한, 개체 표면과 수직인 방향으로 카메라가 일반적인 각도로 개체를 바라보면 일부 원근 왜곡이 있을 수 있다. 원근 왜곡은 개체에 1/거리로 비례하므로 픽셀의 서로 다른 컬러 라인에 대해 약간씩 다르게 나타난다. 따라서 픽셀 각 라인은 약간씩 다른 크기를 가지고 개체 표면에 투영되는 픽셀의 모양이 되므로 높은 정밀도의 컬러 측정에서 오류가 발생할 수 있다. 개체 표면에 카메라가 수직인지 확인하는 것은 Color line scan 카메라뿐만 아니라 Monochrome line scan 카메라도 마찬가지다.


    3Chip 카메라


    3CCD 또는 3CMOS 등과 같은 3Chip Line-scan 카메라는 프리즘 기반 다이크로닉 빔 스플리터로 RGB 컬러를 분리한다. 파장 분리를 위한 광학 간섭을 사용하고, 필터 라인 모양은 일반적으로 평탄 특성(Flat response)과 급격하게 감소(Sharp drop-off)하는 특성을 가진다. 3개의 센서로 촬영한 RGB 이미지가 결합한 후 컬러 이미지로 복원되며 RGB 컬러는 공통 광축으로 이동하여 공통된 위치에서 개체를 캡처한다. 이로써, 이 기술의 Color registration(컬러 카메라에서 완전한 컬러 이미지를 생성하기 위해 3개의 원색 이미지를 올바르게 겹치도록 하는 것)을 향상하고, 평평하지 않은 표면, 회전물, 낙화물 등을 검사할 수 있다.

    3Chip Line scan 카메라의 단점은 비싼 카메라 비용과 더 비싼 광학 렌즈 비용이다. 프리즘이 백 포컬 시프트(Back-focal shift)와 수차를 발생시키므로 카메라는 특수하게 설계된 렌즈와 함께 사용해야 한다. 3Chip 카메라의 바디는 프리즘과 이미지 센서 3개를 장착해야 하므로 일반적으로 크다.


    Trilinear 카메라


    대부분 장비에서는 실리콘 다이 상에 제조된 각 R, G, B 채널 등 3개의 Linear 배열을 사용하는 Trilinear 기술을 채택한다. 동작 중 각 Linear 배열은 동시에 원색 중 하나를 캡처하지만 이동하는 개체는 약간 다른 위치를 촬영한다. 컬러 필터는 실리콘 웨이퍼에 코팅된 흡착 염료 및 안료이다. Line scan 이미징은 일반적으로 집중적인 조명을 필요로 하므로 컬러 필터는 높은 내광성(7~8 단위)을 가져야 한다. 색상을 악화시키지 않기 위해 최대 250°C 의 열 안정성이 중요하다.


    풀 컬러 이미지로 컬러 채널 3개를 결합하려면 일반적으로 첫 번째와 두 번째 배열을 세 번째로 일치시키는 버퍼링 공간 보정을 참조하여 공간 분리를 보상해야 한다. Trilinear 기술은 카메라 디자인을 단순화시키므로 높은 이미지 품질을 제공하지만 작은 크기로 사용할 수 있다. 또한, 표준 렌즈 사용으로 장비의 총 소유 비용을 줄일 수 있다.


    높은 컬러 이미지 품질, 높은 속도, 적은 비용 등을 특징으로 하는 Trilinear color 카메라는 자동 광학 검사(AOI:Automatic Optical Inspection)를 위한 Color line scan 이미징 분야에서 매력적인 가격대성능비를 제공한다.


    Color line scan 카메라는 인쇄물 이미징에 특히 유용하다. 이 작업을 위해 라인당 1개의 컬러 필터를 가진 “Trilinear” 카메라를 사용하면 각각의 이미지 픽셀이 완벽하게 RGB 컬러를 측정할 수 있다. 서로 다른 컬러 센서의 픽셀 라인은 각 픽셀의 크기만큼 지연하여 촬영하므로 이미지로 통합하면 개체를 자연스럽게 표현할 수 있다.

    Bilinear 카메라


    Bilinear 카메라는 Trilinear 카메라와 많은 장점을 공유하지만, 실리콘 다이 상에 제조된 Linear 배열이 2개라는 차이가 있다. Bilinear 배열의 라인 2개는 공간 보정에 대한 필요성을 최소화시킬 수 있도록 바로 옆에 위치한다. Bilinear 이미지 센서는 픽셀당 2개의 원색만 캡처할 수 있으므로 풀 컬러 이미지를 구축하려면 3번째 컬러는 보간해야 한다.

    공간 크로스토크는 특정 센서 구조로 개선할 수 있다. 스펙트럼 크로스토크는 특정 컬러 필터 배열로 감소시킬 수 있기 때문이다. 새로운 Bilinear color CCD/CMOS 카메라는 스펙트럼 크로스토크를 줄이기 위해 Bayer 패턴 또는 다양한 RG/BG 컬러 패턴을 사용한다. 스펙트럼 오버랩을 줄일 수 있도록 R과 B 채널은 서로 옆에 위치한다. 또한, 흑백 채널로도 사용할 수 있는 100% Fill factor 단일 G 채널을 제공한다.

    Bilinear 카메라는 Trilinear 카메라보다 더 적은 비용으로 구매할 수 있고, 전자 제품 제조, 식품 검사, 재료 분류 등의 분야에서 적합하게 사용할 수 있다. 


    보다 다양하고 구체적인 머신비전 카메라 제품은 앤비젼 홈페이지에서 확인할 수 있다.


     필진 소개



    비전군, Mr Vision

    앤비젼 공식 블로그의 마스코트.(비전군 & 비전양)

    에어리어 스캔 카메라(Area scan camera)의 몸과 고해상도 렌즈(Super resolution lens)인 얼굴로 머신비전의 알짜배기 정보를 전파하는 지적인 소년



    Posted by 비전만

    댓글을 달아 주세요

    1. 임용탁 2016.12.14 16:20  댓글주소  수정/삭제  댓글쓰기

      머신비전 장비 제작가능하신지 알고 싶습니다.
      가능하시면 연락주세요.
      010-9904-8200

      • Favicon of https://blog.envision.co.kr BlogIcon 비전만 2016.12.19 10:55 신고  댓글주소  수정/삭제

        임용탁님 안녕하세요 앤비젼은 머신비전 장비를 직접 제작하지 않고, 장비에 들어가는 component를 공급합니다. 감사합니다.

    2. Favicon of http://www.igisolution.com BlogIcon 최송웅 2016.12.29 12:09  댓글주소  수정/삭제  댓글쓰기

      Line Scanner를 활용한 유리표면 오염 검사 장비를 제작하려고 합니다.
      업무협의가 가능한지요?
      HomePage에 문의했습니다만,
      연락이 없고 전화도 안되어 문의드립니다.
      가능하시면 연락바랍니다.
      010-3231-7084

    3. 2018.03.13 09:26  댓글주소  수정/삭제  댓글쓰기

      비밀댓글입니다

    [카메라 기술 백서 #9] 카메라 너 때문이야! - 카메라 때문에 생기는 문제점 #1 모아레(Moire) 현상


      정말 오랜만의 포스팅이다. 이전 작성한 날짜를 열어 보기 겁날 정도로 오래 지난 듯 하다. 더 이상은 블로그 담당자를 피해 도망 다닐 수 없기에

     이번 포스팅은 시리즈다. 카메라 너 때문이야!

    사실 카메라의 장점 보다는 단점을 더 많이 봐야 하는 일을 하고 있어 이런 주제가 마음이 편하다.


     모아레 현상(Moire), 무아레라고 불리기도 하고 어쨌든 경우에 따라서는 많이 들어보기도 하고 생소할 수도 있는 단어이다. 

     모아레 현상은 카메라로 영상을 촬영 시 이미지 센서의 샘플링 주파수 성분과 촬영 대상의 주파수 성분으로 발생하는 간섭 현상이다. 이 포스팅에서는 모아레란 무엇인가 보다는 이미지 센서가 뭘 잘못했길래 모아레 현상을 사용자가 봐야 하는지에 대한 것에 중점을 두려 한다.


    <Bayer pattern으로 인한 moire 샘플 현상>


     위의 샘플 영상은 트램플린(어릴적엔 퐁퐁이라 불렀던)을 반사 조명을 이용해 촬영하여 모아레 효과를 극적으로 보여준 예시 이다. 중앙 부분에 녹빛을 띄는 무늬와 붉은 빛을 띄는 무늬가 선명하게 보이나 실제로 보면 그런 무늬는 존재하지 않는다. 위의 샘플은 Color 카메라의 bayer pattern 때문에 생기는 모아레로 아래 그림으로 설명할 수 있다.


            

       <촬영 대상의 패턴>                           <카메라의 Bayer 패턴>


    <실제 촬영시 대상과 Bayer pattern의 매칭>


     붉은 빛을 띄는 부분은 Bayer 패턴의 붉은색이 촬영대상의 밝은 부분에 매칭되고 녹빛을 띄는 부분은 Bayer 패턴의 녹색이 촬영대상의 밝은 부분에 매칭되어 의도하지 않은 모아레 현상을 경험하게 되었다.


     여기까지는 실생활에서 볼 수 있는 모아레 현상이며 미신 비전에서 경험하는 모아레는 또 다른 발생 요인이 있다. 대부분의 머신 비전 카메라는 Color 보다는 Mono카메라를 사용하게 된다. 그런데 Mono 카메라는 위와 같은 Bayer 패턴도 존재하지 않는데 어떤 이유로 모아레를 발생시킬까?


    슬프게도 머신 비전에 사용하는 Mono 카메라의 pixel 구조는 아래 그림과 같은 형태로 되어 있다. 4개의 pixel을 표현한 그림이며 실제 빛을 받는 영역의 크기는 녹색으로 표시된 영역 수준 이다.

    Pixel 하나의 면적에서 실제 빛을 받는 면적이 차지하는 비율을 Fill factor 라고 하며 여러 이유로 100%의 Fill factor를 가진 카메라를 머신 비전에 사용하는 것은 매우 어렵다. 




    <Pixel 영역에서 빛을 받을 수 있는 영역>


     다시 말해 흔히 머신 비전 카메라에서 사용하는 Mono 이미지 센서는 Bayer 패턴을 사용하는 color 카메라와 비슷하게 중간중간 빛을 감지하지 못해 비어있는 부분이 존재한다는 의미이다. 그러므로 Mono 카메라를 사용해서 영상을 촬영하더라도 모아레 현상을 피할 수 없으며 만약 모아레 현상이 검사에 큰 영향을 미치고 있다면 Fill factor 100%의 image sensor 사용을 고려해야 한다. 


     필진 소개



    목한상, Kyle Mok

    (앤비젼 Product Engineer/카메라 담당)


    사진가가 되고 싶었던... 그래서 카메라와 함께 일하는...

    카메라 담당 Product Engineer



    Posted by 비전만

    댓글을 달아 주세요

    1. 불멸창식 2018.04.16 16:33  댓글주소  수정/삭제  댓글쓰기

      예시사진이 이해하는데 너무 좋네요~

    [카메라 기술 백서 #8]Camera의 pixel size와 sensor size


      이번 포스팅은 카메라의 pixel size와 sensor size에 대해 얘기해 보려 한다. 앞서 큰 pixel이 가지는 장점을 설명하였더니 무조건 큰 카메라가 좋다고 여기진 않을까 걱정되어, 렌즈를 포함한 시스템의 관점에서 센서 크기를 어떻게 선택해야 할지 살펴보겠다.


      아래에 1920 x 1080의 해상도를 가진 2개의 이미지 센서가 있다. 그리고 위에 그려진 원은 어떤 특정한 렌즈가 커버할 수 있는 이미지의 크기(image circle)이다. 우측의 센서는 해당 렌즈를 사용하여 문제없이 영상을 취득할 수 있으나 좌측의 센서는 그렇지 못하다. 즉 더 큰 렌즈를 써야 한다.


     센서의 크기와 렌즈의 image circle 크기와의 관계는 결국 돈 문제로 귀결된다. 내가 원하는 이미지는 1920x1080 해상도의 이미지이며 10um의 분해능을 가지고 촬영하고 싶다. 그리고 이런 시스템을 좀 더 저렴하고 좋게 꾸미고 싶다. 여기서 저렴하게는 렌즈를 작게 만들고 이에 맞게 작은 센서를 사용하면 된다. 좋은 화질은 센서를 크게 만들면 되고 이에 맞게 큰 렌즈를 사용하면 된다. 슬프지만 이게 현실이다. 앞서 포스팅에서 큰 pixel size가 가지는 장점을 충분히 설명했으리라 생각되므로 큰 센서가 가지는 좋은 화질에 대한 설명은 생략하고 오늘은 렌즈와의 관계만 보겠다.


    광학 포스팅을 읽어 보신 분은 MTF가 가지는 의미에 대해 잘 이해하고 있으리라 생각된다. 


    아래에는 3대의 렌즈를 통해 spot 조명을 촬영하였을 때 이미지 센서에 맺히는 모양을 그려 보았다. 푸른색으로 표현된 렌즈는 5~10 사이에 충분히 작게 spot을 위치 시킬 정도로 샤프한 영상을 보여줬다. 그리고 녹색으로 표현된 그래프는 2.5~10.5 사이에 spot이 퍼져 있다. 푸른색의 렌즈가 5um의 pixel size에 대응할 수 있는 렌즈라면 녹색은 10um pixel size에 대응할 수 있는 렌즈가 된다.


    쉽게 말해서 spot을 5um pixel로 촬영할 것인가 10um pixel로 촬영할 것인가에 따라 렌즈의 성능을 결정 지어야 한다.


    처음 설명했던 상황을 다시 가져와 살펴보면



    2개의 시스템에서 고려해야 할 사항은 단순하지 않다.


    최종 목표는 ‘저렴한 가격에 좋은 화질은 기본이며 1920 x 1080 해상도로 10um의 분해능을 가지고 촬영하고 싶다’이며 고려할 사항을 나열해 보면 아래와 같다.


     

    센서크기

    감도 

    노이즈 

    렌즈크기 

    렌즈해상력

     시스템1

     크다

     높다

     적다

     크다

     낮다

     시스템2

     작다

     낮다

     많다

     작다

     높다


      여기에 가격을 더하고 배율 변화에 따른 전체 시스템 크기를 고려한다면 생각해야 할 부분이 너무 많아진다. 카메라 노이즈로 인한 검출력 변화와 렌즈 해상력으로 인한 검출력 변화를 정확히 예측하고 수치화 하여 필요한 수준의 화질을 결정 수 있으며 가격을 고려한 선택을 하면 좋겠지만 너무 어려운 작업이 되므로 앤비젼 담당자에게 전화해 적합한 렌즈와 카메라를 선정해 달라고 하는 것이 가장 쉬운 방법이 될 것이다. 


     필진 소개



    목한상, Kyle Mok

    (앤비젼 Product Engineer/카메라 담당)


    사진가가 되고 싶었던... 그래서 카메라와 함께 일하는...

    카메라 담당 Product Engineer



    Posted by 비전만

    댓글을 달아 주세요

    [광학 기술 백서 #26]가변 초점 렌즈


      기존 렌즈들은 초점이나 줌을 조정하기 위해 유리 또는 플라스틱 유리(고체)를 이동한다. 매우 오래된 방법이지만 성공적으로 사용할 수 있다. 하지만 사람의 눈은 완벽히 다르게 움직인다. 사람의 눈은 렌즈를 앞뒤로 이동하는 대신, 렌즈의 형태를 변경하여 초점을 조정하기 때문이다. 사람의 눈이 움직이는 원리를 바탕으로 개발하고 특허를 받은 렌즈인 Optotune사의 가변 초점 렌즈를 통해 동작 원리와 혜택을 소개하도록 하겠다. 


    <그림1>기존 렌즈 동작 원리와 사람의 눈 원리 비교


    동작 원리


      이 렌즈는 광학 유동체(optical fluid)와 고분자 분리막(polymer membrane) 조합을 기반으로 하는 형상 변화 렌즈이다. 핵심 요소는 광학 액체로 채워지고 얇고 탄성이 있는 고분자 분리막(polymer membrane)으로 봉해진 용기로 구성되어 있다. 원형 링이 가변 렌즈를 형성하는 분리막(membrane)의 중심 부분으로 밀어낸다. 


    분리막(membrane)의 굴절률과 렌즈의 지름은,
         분리막(membrane)으로 원형 링을 밀거나,
         분리막(membrane)의 바깥 부분으로 압력을 가하거나,
         용기에서 광학 유동체를 주입하거나 빼내는 방법으로 변경할 수 있다.


    볼록 렌즈에서 평면 렌즈 그리고 오목 렌즈에 이르기까지 렌즈의 형상을 변경할 수 있는 Optotune사의 가변 초점 렌즈의 동작 원리를 아래 그림을 통해 설명하도록 하겠다.


    용기 쪽으로 밀어 렌즈를 형성할 수 있는 링으로 렌즈에 광학 유동체를 채울 수 있다.

    렌즈를 형성하는 원형 링은 움직이지 않는다. 전류를 통하게 만들면 렌즈의 외곽 부분에서 분리막을 아래로 밀어 렌즈의 중앙 부분으로 광학 유동체를 주입하는 링만 움직인다.


    <그림 2>형상 변화 폴리머 렌즈의 가능한 변경


    가변 초점 렌즈의 혜택


      가변 초점 렌즈를 사용하였을 때 수 마이크로미터 단위의 렌즈 지름을 변경하여 렌즈 전체를 수 센티미터 단위로 이동하는 것과 같은 광학 효과를 얻을 수 있다. 광학 장비를 소형화할 수 있고, 더 적은 렌즈를 사용할 수 있으며, 불필요한 이동을 없애거나 적게 할 수 있다. 따라서 비싼 기계식 구동 장치를 이제는 사용하지 않아도 된다. 이동을 줄이면 완벽하게 폐쇄된 장비를 만들 수 있고, 먼지가 유입되지 않도록 할 수 있어 보다 견고한 장비를 만들 수 있다. 또한, 사용하는 재료는 유리보다 가벼워 전체 장비의 무게를 줄일 수 있다. 이동을 줄이고 가볍게 만들면 가변 렌즈를 사용하는 장비의 응답 시간을 밀리초 단위로 줄일 수 있고 더 적은 전력만 사용할 수 있다. 또 다른 장점은 생산 중에 드러난다. 가변 렌즈를 사용하는 장비는 허용 공차를 줄일 수 있어 높은 수율을 낼 수 있다는 점이 바로 그것이다.


    기존 렌즈에 비한 가변 렌즈의 장점을 요약하면 다음과 같다.

    ·      초소형

    ·      적은 부품 수

    ·      빠른 응답

    ·      저전력

    ·      적은 허용 오차 감도


    이 밖에 가변 초점 렌즈에 대해 궁금한 사항은 언제든지 댓글을 남겨주시면, 성심성의껏 답변하도록 하겠습니다.


     필진 소개



    비전군, Mr Vision

    앤비젼 공식 블로그의 마스코트.(비전군 & 비전양)

    에어리어 스캔 카메라(Area scan camera)의 몸과 고해상도 렌즈(Super resolution lens)인 얼굴로 머신비전의 알짜배기 정보를 전파하는 지적인 소년



    Posted by 비전만

    댓글을 달아 주세요

    1. 비전돌이 2016.11.16 12:49  댓글주소  수정/삭제  댓글쓰기

      안녕하세요. 블로그를 통해 많은 정보를 접하면서
      위 논지와는 다르지만, 궁금한 점이 있어서, 질문을 드릴까 합니다.
      기본 렌즈 중에 CCTV렌즈와 마크로 렌즈가 있는데.
      보기에는 큰 차이가 없다고 느꼈지만, 세부적으로 어떻게 다른점이 있는지 알려주시면 감사하겠습니다.

    2. 정세영 2016.11.21 14:19  댓글주소  수정/삭제  댓글쓰기

      안녕하세요. 제품기획 담당자 정세영입니다.

      CCTV렌즈는 사용 목적이 감시 혹은 교통관측이기 때문에, Working distance 가 수 m ~ 수십 m 로 멀게 설계 되어 있습니다.
      반면 마크로 렌즈는 검사/접사의 목적을 갖고 있는 렌즈를 말하며, 통상 0.5x 수준 이상의 고배율 렌즈들을 말합니다. 정확한 기준이 있는 구분은 아니며, application 에 따라 위와 같이 구분하고 있습니다.

    3. celina 2016.12.15 11:32  댓글주소  수정/삭제  댓글쓰기

      안녕하세요
      올려주신 자료 잘 보았습니다.
      궁금한점이 있어서 이렇게 댓글남깁니다.
      옵토튠사의 가변 초점 렌즈에 대해 좀 더 정확하게 알려주실 수 있으신지요?
      렌즈 형상변화에 대해 자세히 알고 싶습니다.

      • Favicon of https://blog.envision.co.kr BlogIcon 비전만 2016.12.19 10:51 신고  댓글주소  수정/삭제

        celina님 안녕하세요
        이메일이나 연락처를 알려주시면 렌즈 제품 담당자가 문의에 대한 상세한 답변을 드리도록 하겠습니다. 알고 싶은 부분을 더 구체적으로 적어주시면 보다 구체적인 답변을 드릴 수 있을 것 같습니다. 감사합니다.

      • celina 2016.12.26 13:24  댓글주소  수정/삭제

        가변 초점 렌즈의 동작원리에 대해 그림으로 표현해주셨는데
        정확히 어떻게 렌즈의 형상이 변하는 것인지 그림만으로는 이해가 잘 되지 않습니다.

        또한, 이런 형상 가변 초점렌즈의 단점이 있다면 어떤 것이 있을 수 있는지 궁금합니다.

        메일 주소는 leehyewonny1@gmail.com입니다.
        감사합니다.