2025. 2. 18. 11:40ㆍ특집

|글. 박영흠 (성신여자대학교 미디어커뮤니케이션학과 교수)|
생성형 인공지능(AI)이 만들어낸
허위조작정보는 ‘슈퍼 선거의 해’의 판도에
영향을 줄 가장 큰 변수로 줄곧 지적되었다.
이에 대한 대비책으로 시민들의
미디어 리터러시 능력 함양을 위한
교육을 강조하지만,
사실 리터러시 교육에서 말하는
허위조작정보 식별방법은
크게 새롭지 않은 내용일 가능성이 높다.
그렇다면 알고도
허위조작정보에 속는 이유는 무엇일까?
본고에서는 ‘슈퍼 선거의 해’ 선거판을
뒤흔든 AI 허위조작정보 사례의 위험성을
살펴보고 미디어 이용자에게 필요한
‘자기 성찰적’ 자세가 무엇인지 알아본다.
2024년은 전 세계 76개국에서 약 42억 명의 유권자들이 선거를 치르는 ‘슈퍼 선거의 해’였다. 4월에 총선을 치른 한국뿐 아니라 대만, 러시아, 인도, 남아프리카공화국, 이란, 멕시코, 미국 등이 전국 단위의 선거를 통해 대통령이나 국회의원을 뽑았다. 전 세계의 많은 이들이 ‘슈퍼 선거의 해’를 관심과 긴장 속에 지켜보았다. 단순히 선거의 수가 많았기 때문이 아니다. 선거 운동 기간에 유포되는 허위조작정보가 선거 결과에 치명적 영향을 미치고 리더십의 정당성을 훼손하면서 민주주의 체제가 전례 없이 심각한 도전에 직면했다는 문제의식 때문이다.
민주주의 사회에서 선거는 주권자로서 시민이 대표자를 선출하는 절차이자 공동체가 나아갈 방향에 관한 공론과 총의를 형성하는 중요한 과정이다. 우리가 선거를 ‘민주주의의 꽃’이라 부르는 이유다. 그러나 선거 과정에서 대량의 허위조작정보가 빠르고 광범위하게 유포되어 선거에 영향을 미치면 민주주의는 회복할 수 없는 상처를 입을 수 있다.

스웨덴 민주주의 다양성 연구소의 스테판 린드버그 소장은 “2024년은 세계 민주주의의 성패를 가르는 한 해가 될 것”이라 말했다. 《뉴욕타임스》를 비롯한 미국 주류 언론들은 러시아, 중국, 이란 정부가 허위조작정보를 유포하여 선거에 영향을 미치면서 세계 여러 나라에서 자유민주주의가 약화되는 상황을 우려하기도 했다.
가장 큰 변수는 역시 생성형 인공지능(AI)이다. 영국 주간지 《이코노미스트》는 2024년을 ‘AI 선거의 원년’으로 규정했다. 에단 부에노 데 메스키타 시카고 대학교 해리스 공공정책 스쿨 교수도 지금까지의 미국 대선이 ‘소셜미디어 선거’였다면, 2024년 선거는 ‘AI 선거’가 될 거라 전망했다.
AI는 민주주의에 약이 될까, 독이 될까? 아직까진 후자에 더 가까워 보인다. 2024년 노벨물리학상을 받은 ‘인공지능의 대부’ 제프리 힌턴 캐나다 토론토대 명예교수는 지난해 일본 《요미우리신문》과의 인터뷰에서 생성형 AI가 초래할 구체적 위험 중 하나로 권위주의 정부가 가짜 정보를 통해 유권자를 조작하는 상황을 우려한 바 있다.
세계경제포럼(WEF)도 지난 1월 발간한 「글로벌 리스크 보고서」에서 세계가 직면한 위험 요인 중 두 번째로 ‘AI가 생성하는 가짜뉴스’를 꼽았다. 데 메스키타 교수는 「Preparing for Generative AI in the 2024 Election」이라는 제목의 백서를 통해 ‘AI 선거’ 시대에 딥페이크 등을 활용한 기만적인 콘텐츠가 선거일에 가까운 시기에 공개될 위험성을 경고한 바 있다.
선거운동 현장에 넘치는 딥페이크 영상 '홍수'
|
AI를 활용하여 생성된 허위조작정보의 위험은 이미 현실로 다가왔다. 2024년 1월 전 세계에서 가장 먼저 선거를 치른 방글라데시에서 딥페이크를 동원한 거짓 선거 운동이 벌어졌다. 당시 셰이크 하시나 총리는 이스라엘과 미국을 성토하는 반면, 야당 정치인들은 애매한 태도를 취하는 모습을 담은 영상이 온라인에 떠돌았다. 또 가상의 앵커가 미국의 선거 개입을 폭로하는 영상이 주목을 끌었고, 야당 소속 여성 정치인들이 비키니 수영복만 입은 영상도 돌았다.
모두 AI를 활용한 딥페이크 영상이었다. 우리에겐 별 내용이 아닌 것처럼 보일 수 있지만, 이슬람 국가인 방글라데시에서는 유권자들이 야당에 대한 부정적 인식을 갖게 될 수 있는 치명적 사안이었다. 이 영상의 제작에 활용된 ‘헤이젠(HeyGen)’이라는 AI 이미지 제작 도구의 사용료는 한 달에 24달러(약 3만원) 정도에 불과했다.

지난 2월 대선을 앞둔 인도네시아에서는 2008년 사망한 수하르토 전 대통령이 투표를 독려하는 영상이 ‘X(엑스, 옛 트위터)’나 틱톡 등의 소셜미디어에 확산됐다. 당연히 딥페이크로 제작된 가짜 영상이었다. 독재자였던 수하르토 집권 시대의 향수를 자극한 이 영상은 폭발적인 조회 수를 기록했고, 결국 그의 측근이자 사위였던 프라보워 후보는 대통령에 당선됐다.
4월에 총선이 열린 ‘세계 최대 민주주의 국가’ 인도에서는 발리우드(인도 영화계)의 유명 배우 2명이 나렌드라 모디 총리를 비판하는 딥페이크 영상이 화제가 됐다. 영화 ‘세 얼간이’에 출연한 배우 아미르 칸 등이 등장하는 이 짧은 영상은 총리가 선거 공약을 지키지 않고 경제 문제도 해결하지 못했다고 비판하며 야당을 지지하는 메시지를 던지는 내용이었다. 일부 야당 정치인들은 이 영상이 조작된 것임을 알면서도 소셜미디어에 공유하기도 했다.

한 나라를 넘어 세계의 운명을 결정하는 미국 대통령 선거에서는 딥페이크로 조작된 영상을 후보가 직접 퍼뜨렸다. 도널드 트럼프 미국 대통령 당선인은 자신의 소셜미디어 트루스소셜에 팝스타 테일러 스위프트와 팬들이 자신에 대한 지지를 선언하는 이미지와 함께 “수락한다(I accept!)”는 포스팅을 올렸다. 물론 이 이미지는 AI로 생성한 가짜였고, 이후 스위프트는 카멀라 해리스 부통령 지지를 선언했다.
트럼프 미국 대통령 당선인은 낫과 망치가 그려진 붉은색 깃발이 걸린 곳에서 해리스 부통령을 연상시키는 여성이 연설하는 모습을 담은 이미지를 트루스소셜에 공유하기도 했다. 누가 봐도 AI가 생성한 가짜 이미지가 분명하지만 이를 올린 건 해리스 부통령과 당시 열린 민주당 전당대회에 ‘공산주의’ 딱지를 붙이려는 의도로 해석됐다.
트럼프 미국 대통령 당선인을 지지하는 일론 머스크 테슬라 최고경영자는 자신이 소유한 소셜미디어 엑스에 해리스의 딥페이크 영상을 공유했다가 30분 만에 삭제하기도 했다. 해리스의 목소리로 “조 바이든이 토론에서 마침내 자신의 노망을 드러냈다”고 말하는 영상이었다. 플랫폼의 최고 관리 책임자가 최소한의 확인조차 없이 허위조작정보 유통에 앞장선 사례였다.
AI 허위조작정보에 어떻게 대응할 것인가
|
세계 여러 나라가 선거 과정에서 AI로 생성된 허위조작정보 때문에 몸살을 앓은 데 비하면, 한국은 지난 4월 비교적 무사히 총선을 치렀다. 빠르고 강력한 입법적 대응의 효과라는 분석이 지배적이다. 국회는 지난해 12월 공직선거법을 개정해 선거일 90일 전부터 선거 운동을 위한 딥페이크 영상의 제작·유포 등을 전면 금지했다. 위반했을 시 7년 이하 징역 또는 1천만 원 이상 5천만 원 이하의 벌금형에 처하도록 했다.
아울러 중앙선거관리위원회는 총선 시기 딥페이크로 조작된 선거 게시물을 단속하는 전담팀을 운영했다. 1월 29일부터 총선 전날인 4월 9일까지 총 384건의 딥페이크 게시물을 적발해 플랫폼에 삭제 요청을 했고, 대부분 삭제 조치가 이뤄졌다. 네이버와 카카오 등 플랫폼은 범사회적 경각심을 의식하여 자체 신고센터를 운영하고 모니터링에도 적극적으로 나섰다.
그러나 선거 전에 딥페이크 활용을 원천 금지하고, 위반하면 엄벌에 처하는 방식이 언제까지나 효과가 있을지 단정하긴 어렵다. 기술 혁신의 속도가 감당하기 힘들 만큼 빠른 시대에는 허위조작정보를 제작하는 기술의 발전 속도도 예측을 불허하고, 딥페이크 탐지와 단속의 그물은 아무래도 성길 수밖에 없다.
선거 관리에서 한 번의 실수는 회복하기 힘든 치명적 피해를 가져온다. 백 번을 잘 막더라도 한 번의 실수가 있다면 결과는 실패다. 선거는 올해만 치르고 마는 일회성 이벤트가 아니다. 물 샐 틈 하나 없이 완벽하게 막아낸다는 보장이 없다면 금지와 처벌 위주의 대응이 갖는 한계는 뚜렷하다.
결국 문제를 근본적으로 해결하기 위해서는 정보 이용자 개개인이 AI를 활용한 허위조작정보를 식별하고 지혜롭게 대응할 수 있는 역량을 갖추어야 한다. 계몽된 시민이 자율적으로 진실 여부를 판단하는 것과 정부가 감시와 엄벌을 통해 시민에게 노출되는 거짓 정보를 원천 봉쇄하는 것 사이에 어느 쪽이 민주주의의 원리에 부합하느냐를 묻는다면 답은 자명하다.
그렇다면 궁극적 해법은 다양한 미디어 교육 프로그램을 통해 장기적으로 AI의 위험성을 인식하고, 허위조작정보를 식별하기 위한 시민들의 리터러시를 배양하는 노력을 강화할 수밖에 없다. 법·제도적 해법과 기술적 해법은 이렇게 교육을 통해 형성된 미디어 리터러시와 상호작용할 때 더 효과적으로 운용될 수 있다.
'자기성찰적' 미디어 이용의 필요성
|
문제는 적잖은 시민들이 허위조작정보를 식별할 줄 몰라서 속는 게 아니라는 데 있다. 최근 미국과 한국을 비롯한 여러 민주주의 국가 정치에서 공통적으로 관찰되는 현상이 정서적 양극화(affective polarization)다. 정치를 선과 악의 극한 투쟁으로 바라보는 시민들이 ‘내 편’이라 생각하는 정당이나 정치인에 대해서는 팬덤을 방불케 하는 열렬한 지지를 보내지만, 상대 정당이나 정치인에 대해서는 맹목적 증오나 반감을 갖는 현상이다.
이런 부정적 정파성(negative partisanship)의 포로가 된 유권자는 자신이 반대하는 대상에 대한 비방을 담은 허위조작정보를 만났을 때 좀처럼 의심하려 들지 않는다. 자신이 접촉한 허위조작정보를 무비판적으로 진실이라 믿거나, 거짓이어도 상관없다 여긴다.
상대를 ‘악’이라 생각하는 확증편향에 부합하는 정보를 접촉했을 때 미디어 리터러시는 제대로 작동하지 않는다. ‘보고 싶으니까’ 보고, ‘믿고 싶으니까’ 믿을 뿐이다. 경쟁 심리가 극대화된 선거 국면에서 이런 심리는 한층 더 강해진다. 정서적으로 양극화된 정치는 AI로 조작된 영상이 빠르게 확산하고 효과를 갖도록 만드는 기름진 토양인 셈이다.
입 모양이나 눈 깜빡거림 등을 유심히 관찰해 딥페이크 영상을 식별하는 노하우를 평소 알고 있더라도 이 순간에는 소용없다. ‘소셜미디어를 통해 전달받은 정보를 의심하라’거나 ‘정보의 출처를 확인하라’, ‘다른 매체가 관련 이슈를 어떻게 다루는지 점검하라’ 같은 지침들도 혐오하는 정치인을 무너뜨릴 수 있는 정보를 빨리 주변에 퍼뜨리고 싶은 욕망 앞에서는 금방 무너져버린다.

따라서 미디어 리터러시 교육이 효과를 내기 위해서는 중요한 전제조건이 필요하다. 바로 ‘자기성찰적(self-reflexive) 미디어 이용’이다. 아무리 미디어 리터러시 교육을 강화하고 체계적인 커리큘럼으로 교육한다 해도 정치적으로 양극화된 이용자들이 자신의 미디어 이용 습관에 대한 반성적 태도를 갖지 않는다면 어떠한 미디어 리터러시 교육도 사상누각일 뿐이다.
‘남들은 허위조작정보에 쉽게 속아 넘어가지만 나는 깨어 있으므로 속지 않는다’는 확신을 버려야 한다. AI 시대에는 누구나 언제든 허위조작정보의 피해자가 될 수 있다. 기존에 가지고 있던 신념에 부합하는 정보일수록, 입맛에 맞고 귀에 솔깃한 이야기일수록 사실 여부를 한 번 더 검증해보는 습관을 가져야 한다. 지나치게 단 음식이 건강에 좋지 않은 것처럼, 내 귀에 달콤한 정보도 진실과 거리가 멀 가능성이 높다.
미디어에 대한 비판적 담론이나 비평이 확산하면서 언제부턴가 비판적 미디어 소비가 대중화됐다. 무척 바람직한 일이지만, 문제는 비판의 대상이 선별적이라는 데 있다. 자신의 정치 성향과 맞지 않는 정보를 전하는 매체는 공격적으로 대하고, 정치 성향과 비슷한 매체가 전하는 정보는 무비판적으로 받아들인다면 그것을 과연 비판이라 부를 수 있을까. 진정한 비판적 미디어 이용이란 ‘내가 듣고 싶어 했던 정보’까지 의심하고 검증하며 소비하는 것이다.
호주 미디어리터러시연합(AMLA)이 꼽은 미디어 리터러시 역량 10가지 가운데 첫 번째는 ‘자신의 미디어 이용에 대해 성찰하라’는 것이다. 이 주문을 굳이 맨 앞자리에 놓은 건 다른 역량의 전제가 되는 역량이기 때문일 것이다. 실제로 성찰적 태도가 준비되지 않는다면 다른 모든 역량은 소용없다. 허위조작정보의 범람을 걱정하는 이라면, 먼저 자기 자신의 미디어 이용 행태부터 되돌아보는 습관을 가져야 한다. 이 글을 쓰는 필자도, 이 글을 읽는 독자 여러분도 예외가 아니다.
'특집' 카테고리의 다른 글
AI는 정말 전 세계 선거에 영향을 주었는가? (1) | 2025.02.19 |
---|---|
정치·시사 유튜브 전성시대, 바르게 이용하기 (0) | 2025.02.18 |
갈등 보도는 어떻게 읽어야 하는가 (2) | 2024.12.25 |
누구나 AI 활용 시대, AI 리터러시 교육 서둘러야 (0) | 2024.02.28 |
최종 책임은 이용자 몫…결론은 역시 ‘문해력’ (0) | 2024.02.21 |