2025. 2. 26. 10:00ㆍ카테고리 없음

|글. 박수진 (SBS 탐사보도부 기자)|
2024년을 뜨겁게 달군
슈퍼 선거 가운데서도
단연 화제의 중심은
미국 대통령 선거였다.
지난 1월 후보 경선부터
11월 본 선거까지
온라인과 오프라인을 넘나드는
치열한 선거 운동 레이스에
세계의 이목이 쏠렸다.
이 과정에서 진위를 알 수 없는
딥페이크 사진과 영상물이 생성되어
선거판을 어지럽혔다.
언론과 미디어 전문가들은
AI 허위정보의 유포에 대해
심각히 우려했으나,
과연 실제 유권자들은
어떻게 생각할까?
미국 현지에서 유권자들을 만나
직접 딥페이크 허위정보에
관한 생각을 묻고,
이를 검증하는 전문 단체를 만나
대응 방안을 들어보았다.
희미해진 진짜와 가짜의 경계
|
그는 유명 인사다. 만약 당신이 뉴욕 맨해튼에 있는 트럼프 타워를 방문한다면 도널드 트럼프 미국 대통령 당선인을 만날 가능성은 작지만 그를 만날 확률은 매우 높다. 그는 트럼프 타워를 자유롭게 드나들지만 경비원의 제지를 받지 않는다. 건물 앞 도로에서 교통 정리를 직접 하기도 한다. 그와 사진을 찍고 싶은 사람들이 줄을 서고, 틱톡이나 유튜브 인플루언서들이 그에게 함께 춤을 추거나 영상을 찍자고 제안하기도 한다.
그의 이름은 닐 그린필드(NEIL GREENFIELD). 하지만 그의 실명을 아는 사람은 거의 없다. ‘마스크 쓴 트럼프’ 또는 ‘바이럴 트럼프(Viral Trump)라는 이름으로 더 알려져 있다. 트럼프 미국 대통령 당선인 얼굴이 그려진 마스크를 쓰고, 트럼프 미국 대통령 당선인의 걸음걸이나 손짓 등을 따라 하는 그를 보며 사람들은 즐거워한다. 지난 3월 기자도 트럼프 타워에서 그를 만났다. 마스크를 벗고 잠시 쉬고 있던 닐 그린필드. 진짜 그의 얼굴은 트럼프와 크게 닮은 구석은 없었다.

"이건 내 직업이에요. 생계를 위해서 하는 일이죠. 사람들이 좋아하고 함께 즐겨줘요. 틱톡에 들어가 보면 저를 찍은 영상들이 정말 많아요. 뉴스에도 많이 나왔죠." 그는 관광객들이 건네는 팁과 자신과 함께 영상을 찍어 올린 인플루언서들로부터 일부 돈을 받고 있다고 했다. 그 수익이 얼마나 되는지는 구체적으로 확인하지 못했지만 ‘가짜 트럼프’로 사는 것은 그에게 단순히 관광객들에게 한순간의 유희를 주는 것을 넘어선 의미를 갖는 듯했다.
트럼프 마스크를 쓰고, 그의 행동을 꽤 비슷하게 따라 한다고 해서 닐 그린필드를 트럼프 미국 대통령 당선인으로 착각하는 사람은 아마도 없을 것이다. 관광객들이 그를 보며 즐거울 수 있는 이유는 그가 ‘가짜 트럼프’라는 사실을 알고 있고, 진짜와 가짜를 구별할 수 있기 때문이다. 코미디언들이 다른 유명인의 목소리나 행동을 흉내 내는 것을 보며 우리가 즐거워하는 것처럼 말이다. 하지만 내가 보고, 듣는 것이 진짜인지 가짜인지 구별할 수 없다면 더 이상 그 가짜는 즐거움의 영역에 머물 수 없다. 그것은 혼란과 불안을 주고, 더 나아가 공포가 될 수 있다.
진짜와 가짜의 경계가 희미해진다는 우려가 최근 더 커진 이유는 고도화된 인공지능(AI) 기술 때문이다. AI를 활용해 의도적으로 가짜 사진이나 영상을 만드는, 이른바 ‘딥페이크’가 그 중심에 있다. 특히 올해는 전 세계 76개 나라에서 선거가 열리는 ‘슈퍼 선거의 해’로 불리면서 딥페이크가 선거에 영향을 미칠 수 있단 우려가 일찌감치 제기돼 왔다. 그리고 지난 1월, 미국에선 그 우려가 현실이 되는 첫 사건이 발생했다.
미국 사회 긴장시킨
'바이든의 가짜 목소리'
|
대선 후보를 뽑기 위한 민주당과 공화당의 경선이 한창 진행 중이던 지난 1월 22일, 미국 뉴햄프셔 민주당 예비경선(프라이머리)을 하루 앞두고 당원들에게 바이든 대통령(당시 민주당 경선 후보)의 목소리가 녹음된 전화(로보콜)가 걸려 왔다. “11월 대선을 위해 당신의 표를 아끼는 게 중요하다. 이번에 투표하는 건 공화당이 원하는 대로 트럼프를 후보로 다시 뽑도록 할 뿐”이라고 말하는 바이든. 평소 바이든 대통령이 즐겨 쓰는 ‘정말 말도 안 되는 소리(What a bunch of malarkey)’라는 말로 시작하는 이 전화는 유권자들을 혼돈에 빠트렸는데 알고 보니 딥페이크, 가짜였다. 믿기 어려운 내용의 전화였지만 목소리가 실제 바이든 대통령과 매우 흡사했다는 점, 전화가 걸려 온 번호가 뉴햄프셔 민주 당원의 개인 휴대폰 번호였다는 점 등이 진짜라는 믿음을 키우는 근거가 됐다.
이 ‘가짜 전화’는 미국 전국 단위의 선거에서 딥페이크가 악용된 첫 사례였던 만큼 충격을 줬다. 사건 직후 미국 연방통신위원회(FCC)는 선거 전화 마케팅에 오디오 딥페이크 사용을 금지하는 조치를 내리기도 했다. (FCC는 이후 가짜 전화를 서비스한 통신사에게는 100만 달러, 이 가짜 전화를 만든 정치 컨설턴트에게는 벌금 600만 달러를 부과했다. 이 컨설턴트는 뇌물수수 혐의 등으로 현재 재판도 받고 있다.)
기자는 이 사건이 발생한 지 두 달쯤 뒤 미국을 방문했다. AI 기술이 선거에 정말로 영향을 미치고 있는지, 언론과 전문가들이 말하는 우려와 공포를 일반 대중들도 실제 느끼고 있고 선택에 영향을 받고 있는지 미국의 유권자들을 대상으로 취재하기 위해서였다. 바이든 가짜 로보콜 사건은 이 취재를 결심하게 한 중요한 계기 중 하나였다.
가짜여도 믿음에 부합하면
카타르시스를 느꼈다
|
민주당 지지 성향이 강하다고 알려진 미국 뉴욕. 맨해튼에 있는 그랜드센트럴 터미널에서 20대 남녀를 만났다. 그들은 올해 대선에서 민주당이 이길 것이라고 예상했다. 이들에게 트럼프 전 대통령이 경찰에게 체포되는 딥페이크 사진, 그리고 바이든 대통령이 서점에서 치매 관련 책을 보고 있는 딥페이크 영상을 각각 보여줬다.
우선 이들은 해당 사진과 영상을 처음 본다고 했다. 그럼에도 두 사진과 영상 모두 사실이 아니고, AI로 생성된 것으로 추측했다. 하지만 사진과 영상 두 가지 모두 가짜임을 알면서도 자신의 믿음에 부합하는 가짜를 볼 땐 짜릿함을 느꼈고, 믿음에 부합하지 않는 가짜는 믿지 않았다. 가짜여도 믿음에 부합한다면 영향력을 발휘하고, 믿음에 부합하지 않으면 힘을 발휘하지 못한 셈이었다.

"약간 카타르시스가 있어요. 왜냐하면 트럼프는 몇 년 동안 저를 짜증나게 했던 사람이기 때문인 거 같아요. 정치적으로 좋아하지 않는 사람이 박해받는 걸 보는 게 결코 좋은 건 아니지만 자신이 저지른 행동에 관한 결과를 보는 건 만족스러운 것 같아요." (트럼프 체포 사진을 본 소감)

"그를 박해하기 위해서 만든 영상 같아요. 바이든을 바보처럼 보이게 하려고 만든 것 아닐까요?" (바이든이 치매 책을 보는 영상을 본 소감)
이런 특성은 반대 정치 성향을 보인 사람들에게서도 발견됐다. 지난 3월 미국 조지아주 롬(Rome)에서 열린 트럼프 미국 대통령 당선인의 유세 현장 2023년 3월 글로벌 탐사보도 단체 ‘벨링캣’ 창립자 엘리엇 히긴스가 생성형 인공지능 프로그램 ‘미드저니’를 이용해 만든 딥페이크 (출처: X, 틱톡 캡쳐)에서 만난 지지자들은 트럼프가 체포되는 딥페이크 사진에 대해선 긴 설명도 필요 없이 ‘가짜’라고 말했다. 이런 가짜를 믿는 사람은 없다고 말하기도 했다.

이들에겐 가짜 사진 한 장을 더 보여줬다. 트럼프 미국 대통령 당선인이 흑인들과 어깨동무하고 웃으며 찍은 사진이었다. 이 사진은 트럼프를 지지하는 극우 성향 라디오 진행자가 만들어 2023년 11월 자신의 SNS에 처음 올렸고, 이후 지지자들 사이에서 확산해 온 딥페이크 사진이다. (이 진행자는 이후 방송사에서 해고됐고, OECD 인공지능정책감시기구(OECD·AI Policy Observatory)는 ‘AI의 위험을 보여주는 사건’으로 분류했다.)
매 주말 트럼프 선거 유세장을 따라다니며 기념품을 판매하고 있는 60대 흑인 남성은 사진을 본 소감을 묻자 이렇게 답했다."정말 훌륭하네요. 저는 트럼프에게서 한 번도 인종차별을 보지 못했어요. 정말 멋진 사진이네요."
이 사진이 진짜인지 아닌지 의심은 하지 않느냐는 질문에는 ‘진짜라고 생각한다’라고 말했다. 그에게 사실은 AI가 만든 가짜라고 밝히자 이렇게 답했다."인공지능으로 만들거나 가짜뉴스 같은 게 요즘 많긴 하더라고요. 다들 읽거나 배우는 것보단 그냥 감정적인 걸 좋아하잖아요."
그는 인공지능 기술을 활용해 조작된 사진이나 영상이 많다는 걸 알고 있으면서도 정작 자신이 보고 있는 것이 평소 믿음에 부합한다는 이유로 의심하지 않았다. 뉴욕에서 만난 20대들이 가짜에 카타르시스를 느낀 것과 크게 다르지 않았다. 믿음에 부합하면 가짜는 힘을 발휘할 수 있었다.
미국 사이버보안업체 ‘시큐리티 히어로’가 지난해 내놓은 보고서 《AI DEEPFAKES IN 2024 ELECTION》에 따르면, 미국 유권자 10명 중 8명이 딥페이크 영상으로 인해 마음이 흔들렸다고 답했고 이 중 36%는 자신의 선택을 아예 바꿨다고 답했다. 기자는 2주 동안 미국 대륙 곳곳을 다니며 수십 명의 유권자를 만났다. 하지만 보고서에 나온 응답자들처럼 딥페이크 사진이나 영상 때문에 정치적 선택을 바꿨다고 답한 사람까진 만나지 못했다. 그보단 조작된 사진이나 영상일지라도 자신의 신념이나 믿음에 맞으면 이를 전적으로 수용하는 경우가 대부분이었다. 믿음에 부합하는 가짜는 힘이 컸고, 믿음에 부합하지 않는 진짜는 진짜여도 힘이 없었다.
전문가들도 비슷한 분석을 내놓았다. 국승민 미시간주립대 정치학과 교수는 “가짜 정보든 딥페이크든 이런 것들은 사람이 갖고 있던 믿음을 재확신 시키는 ‘확증 편향’의 경우 강하게 일어난다”라고 분석했다. 클레어와들 브라운대 정보미래연구소장도 “사람들이 지나치게 특정 진영에 있게 되면 사실이 무엇인지에 대해 관심이 없다. 믿음을 강화해 주는 걸 믿고 싶어 한다”라고 설명했다.
가짜를 통제할 수 없는 사회,
우리는 무엇을 해야 할까
|
가짜여도 상관없다는 확증편향의 세상에서 진짜를 찾는 노력이 과연 의미가 있을까. 클레어 와들 소장에게 이런 질문을 했다. 그녀는 “그럼에도 불구하고 우리에겐 과속방지턱이 필요하다”라고 말했다. 가짜임을 알고도 믿으려는 의지까지 되돌리진 못하더라도, 의도 없이 가짜를 확산시키는 행위는 막는 노력이 필요하단 뜻이었다.

취재 과정에서 이런 의미 있는 방지턱을 발견했다. 미국 시애틀에는 올해 전 세계 선거를 대비해 만들어진 비영리 단체가 있다. 정치, 선거 관련 딥페이크 콘텐츠를 전문으로 탐지하는 비영리 단체 ‘트루미디어(Truemedia.org)’라는 곳이다. 이 단체는 미국 대선이 있었던 지난 11월 기준 하루 1,500개 이상의 딥페이크 콘텐츠를 탐지하고 사실이지 조작인지를 분석해 언론과 대중에게 무료로 제공했다. 사용자가 진짜인지 가짜인지 의심이 드는 콘텐츠의 링크를 트루미디어 홈페이지에 입력하면, 17개의 탐지 기술이 실시간으로 돌아가며 이것이 어떤 AI 기술을 이용해 생성된 것인지, 조작됐을 확률은 어느 정도인지 수치로 알려준다. 결과가 나오기까지 걸리는 시간은 단 몇 초에 불과하다.

지난 3월 이 단체를 직접 찾아가 인터뷰했다. 이 단체의 대표는 미국의 유명 AI 연구소 중 한 곳인 앨런인공지능연구소의 초대 소장이었던 오렌 에치오니 워싱턴대 교수다. AI가 선거에 미칠 영향에 대한 미국 주요 매체의 기사에 많이 거론되는 대표 전문가 중 한 사람이다. 우버의 공동 설립자였던 개릿 캠프의 자선단체 ‘camp.org’의 후원으로 만들어진 단체고, 각 분야의 전문가들이 협력하는 구조로 운영되고 있다.
이 단체는 탐지만 하지 않는다. 가입한 사람들에게 우리가 가짜를 어떻게 하면 경계할 수 있는지 구체적인 방법도 제시한다. 미국 대선 하루 전날에도 가입자들에게 이메일을 보내 “가짜라고 의심이 드는 콘텐츠가 있다면 공유하지 않아야 한다”라고 경고를 하거나, 미국 대선 결과가 나온 이후에도 “선거가 끝난 이후에도 허위정보가 확산될 수 있으니 경계해야 한다”며 대중의 주의를 환기 시키는 노력을 지속하고 있다.
AI 생성은 돈이 되지만 탐지는 돈이 되지 않는다. 이런 현실 속에서 돈도 되지 않는 ‘탐지 비영리 단체’를 운영하는 걸까. AI 연구의 선구자에서 이제는 AI가 미칠 위험을 경고하는 자리에 선 에치오니 교수는 이렇게 말했다.“AI는 아주 설득력 있는 가짜를 만들어낼 수 있는 능력이 있다. (중략) 가짜 정보는 더 빠르게 퍼진다. 민주 사회에서 그것을 통제할 방법은 없다. 우리에겐 대항할 수 있는 도구가 필요하다. 우리가 가진 기술로 언론인과 팩트체커들, 대중들에게 대항할 수 있는 도구를 주고 싶었다.”
에치오니 교수는 보고 듣는 것이 정말 진짜인지를 끊임없이 의심해야 하는 시대라는 말도 덧붙였다.“대중들이 한 발짝 뒤로 물러서서 생각해 볼 수 있는 교육이 필요합니다. 우리는 항상 생각해야 해요. 이것은 선의의 출처에서 나온 걸까? 이것은 진짜일까? 라고 말이죠.”
Stay vigilant, 경계를 늦추지 말 것. 트루미디어가 가입자들에게 보내는 이메일의 마지막은 항상 이 문구로 마무리된다. AI가 점령한 진짜와 가짜가 희미해진 시대. 고도화된 기술의 시대에 우리가 가져야 할 자세는 결국 기본에서 시작되는 듯하다. 가짜임을 알고도 믿는 의지까진 바꾸기 어려워도, 잘못된 판단에 근거가 될 수 있는 가짜의 확산을 막는 것. 내 눈앞에 보이는 것이 진짜가 아닐 수 있다는 경계와 신중함이 그 시작이다.
*해당 원고는 발간일을 기준으로 도널드 트럼프 미국 대통령 당선인으로 호칭을 적용하였습니다.