딥페이크(deepfake)는 딥러닝의 'deep'과 가짜라는 뜻의 'fake'의 합성어다. 인공지능 즉 AI기술로 만든 가짜 콘텐츠를 의미한다.

인간이 구별할 수 없을 정도로 정교한 가짜 영상, 가짜 이미지, 가짜 음성 등이 모두 여기에 포함된다.

정확한 어원은 2017년 온라인 커뮤니티 사이트에서 할리우드 여배우의 얼굴과 성인 동영상을 합성한 영상을 올려 화제가 된 주인공의 이름에서 비롯됐다.

딥페이크 기술은 2014년 구글의 연구원인 이안 굿펠로우 박사라는 사람이 개발했다.

손상된 이미지나 영상을 복원하고, 디자인 업무를 자동화하며, 영화나 드라마의 특수 효과에도 활용하는 등 편리한 용도로 활용할 수 있도록 하기 위해서였다.

하지만 얼마 지나지 않아 선의의 이용보다는 악용하는 사례가 늘며 국제적 사회 문제화가 됐다.

진짜같은 가짜 콘텐츠를 만들어 내는 AI 기술이 악용되면서 전 세계적으로 딥페이크 성범죄가 끊임없이 일어났기 때문이다.

포르노그라피 등 딥페이크 기술을 악용한 범죄와 딥페이크를 이용한 허위영상물 제작이 늘면서 선의의 피해자도 속출하자 나라별로 서둘러 방지법 제정에도 나섰다.

현재 우리나라에도 '딥페이크 처벌법'이 제정되어 작년 6월부터 시행되고 있다.

사실 딥페이크는 성범죄뿐만 아니라 이를 이용한 가짜 뉴스 문제도 매우 심각하다.

딥페이크 가짜 뉴스가 정치적, 사회적, 경제적으로 큰 혼란을 야기시키고 있어서다.

실제로 지난 2018년 멕시코에서 대선 기간 중 현 대통령 캠프 측 인사들이 뇌물을 받았다는 가짜 딥페이크 음성이 유포되어 정치적으로 큰 혼란을 겪기도 했다.

이렇게 딥페이크 가짜 뉴스는 상대 정치인을 모함하고 선거를 교란하기 좋을 만큼 파괴력도 강하다.

특히 경제적으로도 특정 기업의 주가를 급등시키고 급락시키는 등 주가 조작에도 악용될 소지도 충분하다.

하지만 더 심각한 점은 이와 같은 가짜 뉴스로 인한 피해가 즉각적으로 발생해도 되돌릴 수도 없고 회복하기도 힘들다는 것이다.

최근 대선을 앞두고 여야 후보들과 직.간접적으로 관련된 녹음 파일이 연이어 공개되는 가운데, 모 방송인이 특정후보의 녹음파일이 ‘딥페이크 음성파일’로 제작됐다는 주장을 하고 나서 다시 한 번 ‘딥페이크’에 대해 관심이 집중되고 있다.

이를 주장한 방송인 김모씨는 "최근 딥페이크 기술은 진짜 목소리와 구분할 수 없는 정도다. 진짜처럼 들린다"며 "하지 않은 말인데 목소리를 만들어 내놓으면 가짜임을 입증하기도 어렵다"고 말한 것으로 알려지고 있다

사실여부를 떠나 무엇이 진짜고 무엇이 가짜인지, 알고도 속고 모르고도 속는 그야말로 요지경속 세상이  요즘 아닌가 싶다.

저작권자 © 수원일보 - 특례시 최고의 디지털 뉴스 무단전재 및 재배포 금지