ABOUT ME

-

Today
-
Yesterday
-
Total
-
  • [컴퓨터과학] 컴퓨터 비전(Computer Vision)
    자료실 2022. 1. 16. 22:57
    반응형

    컴퓨터 비전

     컴퓨터 비전은 "보고 생각하다"를 컴퓨터에 구현하는 분야이다. 이미지 센서나 초음파 센서 등으로 세상을 "보고"  인공지능이나 딥러닝으로 "생각한다." 이러한 컴퓨터 비전은 주로 이미지 분석과 데이터 추출을 다루는 데에 쓰인다.


     

    • 컴퓨터 비전이란?

    1. 컴퓨터 비전의 역사
     컴퓨터 비전은 1950~60년경, 인공지능에 관한 연구에서 파생되었다. 처음에는 제한된 상황에서 시각 정보를 단순한 기하학적 형상으로 변환하는 것 연구의 전부였지만 점점 실제 세상의 대상을 인지할 수 있는 알고리즘을 만들고 싶어했다. 하지만 물체들의 기하학적 특징만으로 현실의 대상을 인지하는 것은 불가능했다. 그러던 중 딥러닝이라는 기술이 등장했다. 딥러닝은 그동안 쌓인 방대한 이미지 자료와 결합하여 빅데이터 기반의 정확한 인지 능력을 보여줬다. 특히 얼굴 인식 등의 분야에서 주목할 만한 연구 결과가 나왔고 딥러닝을 이용한 컴퓨터 비전 연구는 현재까지도 이어지고 있다. 

    2. 중요한 역량
     컴퓨터 비전에서 중요한 역량은 크게 2가지이다. 수학과 프로그래밍이다. 수학의 경우, 인공지능과 관련된 선형대수학과 빅데이터와 관련된 통계학이 중요하고 수치해석이나 해석학도 많이 사용한다. 프로그래밍은 이러한 수학적 지식으로 이미지를 분석하는 데 사용한다. OpenCV라는 라이브러리(주로 C++나 Python에서)로 구현한다.

     

    • 컴퓨터 비전의 활용 분야

    1. 카메라 관련
     2000년대 초 얼굴 인식 기능이 탑재된 카메라가 나온 이후 디지털카메라부터 스마트폰의 카메라까지 다양한 카메라에 컴퓨터 비전이 활용되었다. 스마트폰 카메라는 피사체를 사람, 음식 등의 카테고리로 분류한 뒤 최적의 사진을 얻을 수 있도록 보정해주는 수준이 되었다. 

    2. 콘텐츠 관련
     영화에서 사람의 형상을 한 다른 존재(외계인이나 동물, 괴물)를 표현하기 위해 모션 캡처를 이용한다. 모션 캡처는 사람의 움직임을 감지하여 영상화하는 기술이다. 컴퓨터 비전이 행동 특성을 컴퓨터에 구현하면 컴퓨터 그래픽스로 원하는그래픽을 입혀서 완성한다.

    3. 자율주행
     자율 주행 자동차는 외부의 상황을 인식하고 그것에 맞게 자동차를 제어하는 것이 핵심이다. 여기서 차선, 신호등, 사람, 다른 차량을 인식하는 것을 컴퓨터 비전이 담당하게 된다. 자동차의 속도, 기상 상황, 낮과 밤에 따라 이미지가 다르게 인식될 수 있고 돌발 상황도 감지해야 하므로 컴퓨터 비전의 활용 분야 중에서 매우 어려운 축에 속한다.

    4. 불량품 인식
     제조업 분야에서 불량품을 검수할 때 컴퓨터 비전이 활용된다. 사람의 눈으로 구별할 수 없지만, 제품에 이상이 있는 경우, 컴퓨터 비전으로 선별할 수 있다. 자율주행과는 달리 공장 내의 통제된 상황에서 활용되기 때문에 정확도가 높은 편이다.

    5. 의료영상처리
     의료영상처리란 X-ray, MRI, CT와 같은 의료 영상에서 특징점을 분석하여 질병을 진단하는 것이다. 이 분야는 질병의 유무뿐만 아니라 질병이 미래에 일어날 가능성까지 예측한다. 컴퓨터 비전과 의료영상의 결합은 오진율을 크게 낮춰주고 있다.

     

    •  컴퓨터 비전의 주의점

    1. 안전 문제
     안전 문제는 컴퓨터 비전과 자율주행 자동차가 결합했을 때 발생하는 문제로 많은 사람이 다치거나 사망할 수 있다. 하나의 예시로 2016년 테슬라의 자동차가 자율주행모드 하에서 트레일러와 부딪혀 운전자가 사망하는 사고가 발생했다. 원인은 인공지능이 흰색을 제대로 감지하지 못해서인데 이 사건 후에 여러 건의 비슷한 사고가 추가되어 복잡한 책임 공방이 이어졌다. 지금까지의 법체계는 사람과 법인을 대상으로 만들어진 것이라 인공지능을 사용한 운전자의 부주의인지 인공지능을 만든 제작사의 결함인지 책임 소재가 명확하지 않다. 여러 자동차 회사가 자율주행 자동차의 사고에 대해 책임지겠다고 했으나 명확한 법제화가 필요하다.

    2. 윤리적 문제
     윤리적 문제는 컴퓨터 비전이 우리 삶에서 점점 가까이에 들어오면서 발생한 문제로 광범위한 사람들에게 윤리적 피해를 줄 수 있다. 2015년 구글 포토는 사진을 자동으로 분류해주는 서비스를 시작했는데 구글 포토의 알고리즘이 흑인을 고릴라로 분류하는 일이 벌어졌다. 결국 인종차별 논란으로 인해 구글은 사과와 함께 수정을 약속했다. 그러나 구글은 알고리즘의 정확성을 높이지 못하고 해당 카테고리를 아예 지워버리는 식(고릴라라는 분류 카테고리를 없애버렸다.)으로 수정했다. 원인은 여러 가지로 추정해 볼 수 있다. 먼저 데이터의 부재이다. 2015년 당시에는 선진국 중심으로 스마트폰이 보급되었고 신흥국은 막 성장하는 단계였다. 그러므로 수집된 데이터는 선진국의 인종에 한정되었을 것이고 알고리즘은 흑인 사진에 대한 정보가 부족하여 정확한 판단을 못 내렸을 것이다. 또 다른 원인은 개발진들의 부족한 이해도이다. 지금은 개발자라는 직업이 많은 사람이 선택하는 직업이었지만 당시만 해도 25세~50세 사이의 백인 남성이 대부분이었다. 당연히 다양한 인종에 대한 다양한 데이터를 이해할 역량이 부족했을 것이다.

    3. 노이즈
     컴퓨터 비전에서 이미지 센서는 영상을 인식한다. 이때 센서의 오류로 노이즈가 발생하게 되는데 노이즈는 정보를 처리할 때 걸림돌이 되어 알고리즘의 정확도를 낮추게 된다. 이는 이미지 센서가 좋아진다고 해서 해결되는 단순한 문제가 아닌데 왜냐하면 현실 세계를 디지털 신호로 전환하기 때문이다. 디지털 신호는 0과 1로 이루어져 있지만, 현실은 0과 1로 이루어져 있지 않아서 노이즈가 발생할 수밖에 없다. 예를 들어 빛의 밝기가 0.5라면 컴퓨터는 무조건 내림을 하여 0으로 인식하는 것이다. 물론 영상의 노이즈를 제거하는 알고리즘이 있지만 그것은 데이터를 자르거나 데이터를 평탄화하는 것이기에 정보의 손실은 필연적이다. 그리고 이렇게 수집한 데이터를 통계학적 기법으로 분석할 때도 오차가 발생한다. 원래 다른 인공지능 분야도 통계적 오차가 일정 부분 발생하는데 기존 데이터에 노이즈가 클수록 통계적 분석으로 생기는 오차도 커진다. 그러므로 영상을 수집, 가공, 분석하는 전반에 걸쳐 노이즈를 신경써야 하는 것이다. 

    4. 적대적 공격 
    적대적 공격이란 사람의 눈으로는 관측할 수 없을 정도의 미세한 교란 신호(Perturbation)를 입력 이미지에 추가하여 딥러닝 모델이 입력 이미지를 다른 이미지로 착각하도록 한다.

    교란신호 전: 팬더로 인식 / 교란신호 후: 긴팔원숭이로 인식

    적대적 공격의 특징은 인간은 그 차이를 구분할 수 없지만, 인공지능 모델은 그것을 다르다고 인식하는 것이다. 예를 들어 해커가 어떤 글의 단어를 바꿨다고 했을 때 우리는 시간이 걸리겠지만 찾아낼 수 있다. 하지만 이미지의 경우 해커가 교란 신호를 입력해도 우리는 다른 점을 찾아낼 수 없다. 만약 그 이미지를 우리가 정상 이미지로 인식하고 인공지능 모델에 입력한다면 우리의 의도와는 다른 결과가 나올 것이다. 이것은 윤리적으로 매우 큰 문제이다. 음란물이나 정치적 선전물에 교란신호를 추가하면 일반적인 검색을 했을 때 의도치 않은 이미지가 결과로 나올 수 있다. 또한 자율주행 자동차를 해킹해서 적대적 공격을 실행하면 자율주행 인공지능이 장애물을 오인식하여 사고가 날 수도 있다. 이러한 적대적 공격은 인간의 시각과 컴퓨터 비전의 괴리가 만들어내는 부작용으로 더 주의를 기울여야 하는 부분이다.

    반응형

    댓글

Designed by Tistory.
wordok38@gmail.com