누구나 의심 없이 믿는 사진·영상·녹취를 아무나 만들 수 있다
누구나 의심 없이 믿는 사진·영상·녹취를 아무나 만들 수 있다

 

▲ 인공지능(AI) 기술의 발달로 사진이나 영상, 녹 등의 조작이 가능해지면서 진짜 같은 가짜뉴스가 우리 사회를 위협하고 있다. 사진은 AI 기술로 만들어진 미국 팬타곤 화재 사진. [사진=트위터 캡쳐]

 

#1. 오랜 무명생활을 거친 끝에 영화 한 편의 성공으로 일약 스타덤에 오른 연예인 A씨. 성공의 기쁨을 누리기도 잠시, 어느 날 SNS를 중심으로 그가 학창시절 학교폭력을 저질렀다는 내용이 적힌 게시물이 나돌기 시작했다. 심지어 게시물에는 해당 내용을 제보한 사람이 A씨의 동창이며 그 증거로 함께 찍은 학창시절 사진까지 존재했다. A씨는 소문의 내용부터 사진까지 전부 조작됐다는 사실을 알아채고 경찰에 즉각 신고했지만 이미 사태는 걷잡을 수 없는 지경에 이르렀다. 결국 A씨는 이미지에 심각한 타격을 입을 수밖에 없었다.

 

#2. 정치인 B씨는 어느 날 한 통의 전화를 받았다. 통화 내용은 그가 십수년 전 벌어진 한 사기 사건에 연루됐다는 뉴스가 보도됐다는 것이었다. B씨는 이미 해당 사건의 연루 의혹에 휩싸여 한 차례 수사까지 받았지만 끝내 무혐의로 밝혀졌기 때문에 대수롭지 않게 생각했다. 그러나 해당 뉴스 보도에는 그가 해당 사건의 피의자와 통화한 기록이 담긴 녹취록까지 보도됐고 결국 의혹은 다시 꼬리에 꼬리를 물고 확산됐다. B씨의 기억엔 전혀 통화한 적이 없었지만 녹취록의 목소리는 분명 자신의 것이라는 점이 의아했다. 결국 수사기관에 수사를 요청한 뒤에야 녹취록이 조작된 것임이 밝혀졌지만 이미 B씨의 명예는 크게 실추된 뒤였다.

 

마치 실제 있었던 일처럼 보이는 위의 사례는 모두 가짜다. 그러나 언제든지 똑같은 일이 실제로 벌어질 수도 있다. 인공지능(AI) 기술의 발달로 사진이나 영상, 녹 등의 조작이 가능한 탓이다. 사실을 입증할 가장 확실한 증거들의 조작이 가능해지면서 진짜 같은 가짜뉴스가 우리 사회를 위협하고 있다. 가짜 증거를 앞세운 마치 진짜 같은 가짜뉴스는 일단 퍼지기 시작하면 수습이 어렵고 가짜임을 입증하는데도 상당한 시간이 소요된다. 그동안 벌어질 사회적 혼란과 개인이 입는 피해는 상상 이상이다.

 

국제사회 송두리째 흔드는 AI 가짜뉴스…교묘하게 조작된 증거에 허물어진 의심의 벽

 

 

▲ 미국을 비롯한 전 세계에서는 AI 기술로 만든 증거를 앞세운 가짜뉴스가 사회 문제로 부상하고 있다. 사진은 AI 기술로 만들어진 트럼프 전 미국 대통령의 도주 사진. [사진=트위터 캡쳐]

 

전 세계가 가짜뉴스로 골머리를 앓고 있다. 특히 최근에는 AI 기술을 활용한 조작된 증거를 앞세운 가짜뉴스가 SNS, 커뮤니티 등을 통해 무차별적으로 확산돼 개인·사회적 피해를 유발한 사례가 급증하고 있다. 일례로 러시아·우크라이나 전쟁과 관련해 온라인 커뮤니티와 SNS 등에서는 인질 살해 장면이나 미사일 폭파 장면 등의 조작 사진이나 영상이 담긴 가짜뉴스가 무차별적으로 확산되고 있다.

 

이스라엘과 팔레스타인 무장정파 하마스의 무력 충돌 이후에도 SNS 등에서는 수많은 가짜뉴스가 퍼지고 있다. 하마스 무장 대원이 박격포로 이스라엘 측 헬리콥터를 격추하는 장면이라는 영상, 이스라엘 총리가 병원에 긴급 이송됐다는 소식과 관련 사진, 하마스가 이스라엘 어린이를 납치해 철창에 가두고 조롱하는 장면이라는 영상 등이 대표적이다. 이들 게시물에 포함된 영상과 사진은 모두 조작된 것으로 밝혀졌다.

 

미국에서도 가짜뉴스로 사회 전체가 큰 혼란에 빠진 적 있다. 2022년 5월 미국 국방부(펜타곤) 건물 근처에서 폭발이 일어난 것처럼 보이는 사진이 소셜미디어를 통해 확산됐다. 해당 소식을 접한 이들은 테러와 전쟁의 공포에 휩싸이며 불안에 떨어야했다. 사태가 커지자 미국 국방부와 경찰·소방당국은 조작된 사진이며 화재가 발생한 적도 없다고 진화에 나섰지만 소문을 쉽게 사그라들지 않았다. 해당 소식에 미국 주식시장도 잠시나마 출렁였다. 전문가들은 문제의 화재 사진은 AI 기술로 만들어졌다고 분석했다.

 

 

▲ 이스라엘과 팔레스타인 무장정파 하마스의 무력 충돌 이후 SNS 등에서는 수많은 가짜뉴스가 퍼지고 있다. 사진은 팔레스타인 가자지구의 모습. [사진=AP/뉴시스]

 

우리나라에서도 비슷한 일이 있었다. 지난해 공공장소에서의 흉기 난동 사건이 잇따르면서 국민적 공포가 확산되던 시기 SNS, 온라인 커뮤니티 등에서는 특정 지역을 언급하며 흉기 난동 사건이 일어났다는 게시물이 퍼졌다. 심지어 일부 게시물에는 옷에 피가 묻은 남성의 사진이 첨부되기도 했다. 그러나 이들 게시물 모두 가짜뉴스였고 사진 역시 조작된 것이었다. 이러한 가짜뉴스는 흉기 난동에 대한 시민들의 공포감에 기름을 부었고 경찰력 낭비를 야기하기도 했다.

 

AI 가짜뉴스 활용한 선동·비방 급증…가짜라고 밝혀져도 이미 엎질러진 물

 

다수의 전문가들에 따르면 AI 기술을 이용한 가짜뉴스의 생성·확산은 필연적으로 어떠한 목적을 지니고 있는 경우가 많다. 단순 재미를 비롯해 정치적 목적 달성을 위한 선동, 특정인에 대한 비방, 게시물 유입을 통한 수익 극대화 등이다. 특히 최근 문제가 된 가짜뉴스의 경우 정치적 목적 달성을 위한 선동과 특정인에 대한 비방 목적으로 활용된 경우가 많은데 이는 개인을 넘어 사회 전반의 혼란을 야기한다는 점에서 상당히 심각한 문제로 평가된다.

 

일례로 지난해 9월 북유럽 국가인 슬로바키아 총선에선 가짜뉴스 논란이 결국 선거 결과에까지 영향을 미치는 일이 있었다. 선거 이틀 전 여론조사에서 2위를 달리던 친미 성향의 진보적슬로바키아 당대표가 누군가와 일부 표를 사서 선거를 조작하는 방안을 논의하는 음성 파일이 SNS에 올라왔다. 해당 음성 파일은 급속도로 퍼져나갔고 유권자들의 공분을 샀다. 해당 음성 파일은 ‘가짜’로 밝혀졌지만 이미 물은 엎질러진 이후였다. 결국 총선에서 친러시아 성향의 스메르사회민주당이 승리했다.

 

 

▲ 최근 문제가 된 가짜뉴스의 경우 정치적 목적 달성을 위한 선동과 특정인에 대한 비방 목적으로 활용된 경우가 많은데 이는 개인을 넘어 사회 전반의 혼란을 야기한다는 점에서 상당히 심각한 문제로 평가된다. 사진은 가짜뉴스의 위험성을 경고하고 있는 바이든 미국 대통령. [사진=AP/뉴시스]

 

우리나라에서도 정치적 목적 달성을 위해 확인되지 않은 가짜뉴스를 퍼트리는 일이 종종 벌어지곤 했다. 대표적인 사건이 김의겸 더불어민주당 의원의 ‘청담동 술자리’ 의혹 제기다. 당시 김 의원은 공개 석상에서 윤석열 대통령과 한동훈 당시 법무부장관이 변호사들과 새벽까지 술자리를 가졌다는 의혹을 제기했다. 당시 한 장관이 강력하게 부인했지만 의혹은 꼬리에 꼬리를 물고 확산돼 정권 이미지에 큰 타격을 입혔다. 경찰 수사 결과, 해당 의혹은 전혀 사실이 아닌 것으로 밝혀졌다.

 

익명을 요구한 국회 관계자는 “전통적으로 사진이나 영상, 녹 등은 사실을 입증할 결정적 증거로 활용돼 왔는데 AI 기술을 이용하면 이들 증거를 어렵지 않게 만들어 낼 수 있다”며 “이런 식으로 조작된 증거를 앞세운 가짜뉴스는 보면 어지간해선 믿을 수밖에 없다”고 말했다. 이어 “만약 이러한 가짜뉴스가 정치적 목적의 선동이나 특정인의 비방 도구로 활용된다면 선거 판도까지 달라질 수 있다”며 “4월 총선을 앞두고 가짜뉴스 대책 마련이 시급할 것으로 보인다”고 강조했다. 

댓글

로그인 후 댓글을 남길 수 있습니다.

채널 로그인

르데스크 회원에게만 제공되는 혜택이 궁금하신가요? 혜택 보기

르데스크 회원에게만 제공되는 혜택
- 평소 관심 분야 뉴스만 볼 수 있는 관심채널 등록 기능
- 바쁠 때 넣어뒀다가 시간 날 때 읽는 뉴스 보관함
- 엄선된 기사를 한 눈에 볼 수 있는 뉴스레터 서비스
- 각종 온·오프라인 이벤트 우선 참여 권한
회원가입 로그인
34