엊그제 세계적 유명 사전(辭典 )출판사 메리엄 웹스터가 ‘어센틱(authentic)’을 올해의 단어로 선정했다는 외신이 전해져 국내서 화제였다.

메리엄 웹스터는 단어 조회수와 검색량 증가 등을 토대로 매년 올해의 단어를 선정하는 것으로 유명하다.

온라인 검색량에서 최고를 기록한 '어센틱'은  ‘진짜의’ ‘진품의’ 라는 뜻이다.  

인공지능(AI) 기술 고도화로 딥페이크 등을 활용한 허위 정보와 가짜뉴스가 범람하면서 ‘진실성의 위기’가 커진 상황을 반영한 것으로 보인다.

'참'과  '거짓' 구분이 어려워진 시대상을 보여주기에 충분하다. 아울러 진짜를 판별할 수 있는 안목을 길러야 한다는 경각심도 준다.

딥페이크는 AI를 활용해 특정 인물의 얼굴 이미지를 다른 사람의 몸에 합성하는 기술을 말한다.

해당 인물의 표정과 말투 등도 조작할 수 있다.

이용당한 당사자들까지 속을 정도로 ‘진짜’와 ‘가짜’의 경계가 모호하다.

가장 많이 등장했던 조 바이든 미국 대통령조차 지난달 딥페이크를 포함한 AI 기술 규제 행정명령에 서명하면서 “나도 내 딥페이크를 보고 놀랐다”며 “‘내가 언제 저런 말을 했지’하고 생각했을 정도”라니 상상불가다.  

그러나 한가지 다행인 것은 세계 각국이 AI가 만들어낸 허위·가짜 콘텐츠를 탐지하거나 사전에 차단하는 기술 개발에 적극적으로 뛰어들고 있다는 사실이다.

지난해 챗GPT가 등장한 뒤 1년간 AI 서비스의 개발과 확산에 초점이 맞춰졌다면, 이제는 그 부작용을 해결할 수 있는 기술 개발에 나서고 있는 것은 매우 고무적인 일이다.

대표적인 기업이 인텔이다. 지난 7월 ‘가짜감별사(FakeCatcher)’라는 시스템을 공개해서다.

이 시스템은 영상 속 인물의 혈류 변화를 감지하는 기술을 이용해 영상의 진위 여부를 판단한다. 가짜로 만들어진 사람 얼굴은 혈류 변화가 감지되지 않는 원리를 이용했다.

또 MIT는 지난 7월 딥페이크 사진 제작을 차단하는 ‘포토 가드’ 기술을 무료로 배포했다. AI로 특정인의 사진을 도용하거나 합성하는 것을 방지하는 기술로, 이미지에 일종의 잡음 신호를 넣는 원리다.

이 기술을 적용한 사진은 AI가 제대로 인식하지 못해 변형이나 위조가 불가능하다. 딥페이크 음란물이나 가짜 뉴스에 유명인이나 개인 얼굴이 도용되는 것을 막을 수 있을 것으로 보고 있다.

그럼에도 AI 가짜뉴스 확산 우려는 여전히 존재한다. 향후 더 걷잡을 수 없이 번질 것이라는 전망도 있다.

우리나라는 유독 정치권에서 가짜뉴스가 판을 치는 것으로 유명하다.

그 정치권이 가짜뉴스 숙주(宿主)역할을 할 수 없도록 비책(秘策) 마련을 서두르면 좋으련만... 내년 총선은 다가오고 걱정이다. 

저작권자 © 수원일보 - 특례시 최고의 디지털 뉴스 무단전재 및 재배포 금지