컴퓨터 인공지능 (Artificial Intelligence, AI) 기술의 하나인 딥 러닝 (Deep Learning) 과 가짜 (Fake)의 합성어 (Deep + fake)로 실존하지 않는 사진, 영상 및 음성을 의미합니다. 딥페이크는 ‘18년 처음 등장하여 AI 기술의 발달에 따라 눈으로 구별하기 어려울 정도로 자연스럽게 가짜 이미지를 구현하는 수준에 이르렀으며, 이를 통한 사실 왜곡의 우려가 날로 더해가고 있습니다.
유명인의 얼굴 합성에서 출발한 딥페이크는 이제 존재하지 않는 자동차, 비행기, 가구 등 무생물까지 만들어 내는 수준에 이르렀습니다.









딥페이크는 Generative Adversarial Network (GAN) 기술로 유명 연예인이나 정치인의 얼굴을 가져와 음란 동영상에 삽입하거나, 입 모양과 목소리를 조작해서 가짜 사진이나 동영상을 배포하는 데 악용되고 있습니다. 기술의 발전으로 고성능 컴퓨터가 아닌 일단 노트북이나 스마트폰 앱을 통해 보다 쉽고 간편하게 그럴듯한 합성이 가능해졌으며, 그 대상이 일반인으로까지 확장되고 있어 여러분의 정보 이해와 판단에 주의가 필요합니다.
글로벌 리서치기관인 가트너는 'Top Strategic Predictions' 보고서에서 '20년에는 AI 기반 위변조 컨텐츠 생성 기술의 발전으로 디지털 불신을 초래할 것이며, 오는 ‘22년에는 대부분의 선진국민이 진짜 정보보다 가짜 정보를 더 많이 접하게 될 것이라고 예측했습니다.
미국 MIT 경영대학원 시난 아랄 교수는 실제 연구를 통해 가짜 뉴스가 진짜 뉴스 대비 6배 빨리 퍼진다는 것을 확인하였으며, "가짜 뉴스가 유권자 투표 행위에 영향을 미쳤다는 사실을 추정할 수 있다"고 언급했습니다.
사진·이름 있는데 알고 보니 딥페이크가 만든 가상의 기고자
Jerusalem Post, Israel Times 등 중동 미디어를 통해 팔레스타인 인권 운동가에 대한 비난 기사를 기고한 유대인 출신 프리랜서 올리버 테일러가 실존하지 않는 가상 인물임을 확인했습니다.


가상의 인물을 앞세운 미디어 왜곡 사례는 이번 사례가 처음 으로, 향후 정치나 사회적 이슈에 대한 검증 니즈가 증가할 것으로 예상됩니다. 특히 ’21년 보궐선거, ’22년 대통령 선거를 앞둔 우리나라는 딥페이크를 이용한 가짜 뉴스, 거짓 정보가 자칫 만연할 수 있으므로 사용자 및 언론사는 인터넷 상의 정보 해석에 한층 유의해야 하겠습니다.