KISTI와과학

날로 교묘해지는 딥페이크 영상, 파훼법은 없을까 (KISTI)

조조다음 2021. 5. 5. 06:30

“트럼프 대통령은 멍청이”

지난 2018년, 당시 미 대통령이었던 트럼프를 비난하는 영상 하나가 화제에 올랐다. 화면 속 분노어린 욕설을 내뱉은 주인공은 놀랍게도 전임 대통령이었던 버락 오바마였다.

 

전 대통령이 현 대통령을 원색적으로 비난했다는 사실은 미국은 물론 전 세계에 큰 파장을 불러왔다. 그러나 이 모든 것은 인공지능(AI)으로 만들어 낸 딥페이크(Deep fake) 영상이었다.

 

얼마 전에는 성인물 영상에 여성 연예인 얼굴을 합성해 판매한 일당이 체포되기도 했다. 이렇게 딥페이크로 인한 각종 장난 및 범죄는 인공지능(AI) 시대의 대표적인 위협 중 하나로 꼽히고 있다.

 

그렇다면 이대로 딥페이크의 위험성에 노출돼야만 할까? 그에 대비하기 위해 일단 딥페이크의 원리부터 자세히 알아볼 필요가 있다.

 

그 핵심 기술은 생성적 적대 신경망(GAN)이다. 이는 생성 모델과 감별 모델이라는 두 가지 기계학습 모델 간의 경쟁을 통해 더욱 실감 나는 데이터를 만들어 내는 것이다.

 

여기서 생성 모델은 기존 데이터를 학습해 가짜 영상을 만드는 역할을 한다. 감별 모델은 해당 영상이 실제와 다른 점을 찾아내며 경쟁을 계속하는 것. 이 과정을 통해 점점 완성도를 높여가기에 딥페이크를 통한 거짓 영상을 가려내긴 쉽지 않은 일이다.

 

물론 딥페이크 식별법이 아주 없는 것은 아니다. 가장 일반적인 것이 얼굴에 주목하는 것. 눈 깜빡임이 너무 많거나 적을 경우, 피부 노화 상태와 주름이 어울리지 않을 경우 가짜 영상일 가능성이 있다.

 

이밖에도 눈썹 그림자, 수염의 움직임, 안경 빛 반사 등 사소한 판별점에 주목해야 한다는 것이 전문가들의 의견이다. 최근에는 눈동자 속 빛 반사를 활용하는 기술도 나왔다.

 

뉴욕주립대 연구팀은 영상 속 인물의 각막에 반사된 빛에 주목했다. 같은 것을 바라보는 사람의 두 눈에는 당연히 같은 형태의 물체가 비칠 수밖에 없다. 그러나 딥페이크 영상 속 사람의 두 눈은 서로 다른 형상이 나타난다는 분석이다.

 

얼굴 혈색 등 미세한 생리적 변화에 주목하는 방법도 있다. 뉴욕주립대-인텔 공동 연구팀은 혈류 속도, 혈액 중 산소 포화도 측정에 쓰이는 광용적 맥파(PPG) 신호를 활용하는 방법을 제시했다.

 

이를 통해 얼굴 주위 혈류의 움직임을 검사하면 얼굴색의 미세한 변화를 알아챌 수 있다는 것. 연구팀에 의하면 PPG 활용 검사법은 90% 이상의 높은 정확도를 갖고 있다고 한다. 

 

그러나 이런 미세한 변화마저 결국엔 학습 가능할 것이라는 우려 역시 만만치 않다. 이에 디지털 포렌식을 통한 딥페이크 저격이 새로운 방법으로 떠오르고 있다.

 

인공지능을 통해 기존 디지털 자료를 정밀 분석하면 이미지 속 변형된 부분을 찾아낼 수 있다. 잘라내기, 붙이기, 지우기, 크기 변화 등 변형 흔적을 찾는 일종의 검색 엔진과 비슷한 개념이다.

 

물론 딥페이크 제작 기술 역시 이를 피하기 위해 더욱 교묘해질 것은 분명하다. 앞으로도 거짓 영상 제작과 이를 감별하기 위한 치열한 싸움은 계속될 것으로 보인다.