사람보다 뛰어난 거짓말, AI 리터러시 교육으로 잡아라!

2024. 2. 14. 10:00특집

생성형 AI 시대, 허위정보 대응 방안 

written by. 노혜령 (㈜프레스온 대표‧《가짜뉴스 경제학》 저자)

 

 

 
 
 

챗GPT가 쏘아올린 생성형 인공지능에 대한 뜨거운 관심은
주로 AI가 인간을 대신할 수 있는지, 또는 인간의 직업을 위협할 수 있는지 등에 쏠려 있다.

그러나 AI가 진화하면서 가짜뉴스의 심화에 대해 더 관심을 갖고 경계할 필요가 있다.

AI가 생성하는 허위정보가 상당히 정교해지고 있기 때문이다.

생성형 AI 허위정보에 대한 대응 방안을 살펴보았다. 

 

 

 

인간과 챗GPT가 생성한 가짜 정보를 비교한 최신 연구(Zhou, J. et.al., 2023) 결과를 보면

AI가 만든 허위정보가 신뢰성, 투명성, 불편부당성 같은 기존 저널리즘 규칙을 사람보다 더 잘 지킨다.

 

 

  AI로 생성한 허위정보1)를 사람들은 얼마나 구분할 수 있을까? 글로벌 리서치 업체 입소스가 전세계 29개국 18세 이상 2만 1,800여명을 대상으로 한 최근 설문조사(Ipsos, 2023)에 따르면 10명 중 6~7명(66%)은 가짜뉴스를 걸러낼 수 있다고 자신했다. 한국 응답자는 절반에 약간 못미치는 45%만이 가짜뉴스 식별을 자신했다. 하지만 막상 실전에 들어가면 그렇게 녹록지 않다. 클라우드 보안업체 미국 넷스코프(Netskope)가 미국과 영국에서 뉴스에 관심 있는 18세 이상의 소셜 미디어 이용자 총 1,500명을 대상으로 AI-생성 가짜뉴스를 보여줬더니 절반가량(영국인 50%, 미국인 44%)은 “진짜 뉴스”로 판단했다. 그리고 이 응답자 10명 중 8~9명(미국인 88%, 영국인 84%)이 AI가 만든 가짜 정보를 걸러낼 자신이 있다고 호언장담했다.

 

1) 오정보(misinformation)는 속일 의도 없이 실수나 오해 또는 무지 때문에 공유되는 부정확하거나 잘못된 정보를 말한다(Lewandowsky et al., 2017). 허위정보(disinformation)는 여론을 속이거나 조작하기 위해 고의적으로 가짜 정보를 퍼뜨리거나 잘못된 결론으로 이끄는 정보를 퍼뜨리는 것을 말한다(Pennycook & Rand, 2019). 하지만 이 글에서는 편의상 이런 구분 없이 사실이 아닌 정보를 허위정보 또는 가짜 정보로 통칭해 사용한다.

2명 중 1명은 가짜를 진짜로 오인 

  문제는 이런 현상이 심화되면서 사회 전반의 신뢰가 떨어진다는 점이다. 가짜임이 밝혀지기까지 상당한 시간이 걸리기 때문에 그 피해는 더 크다. 넷스코프(2023)가 지난 10월 22일 소셜 뷰, 소셜 콘텐츠 개수, 좋아요 및 댓글 등 관여 정도(engagement), 보도 언론 매체, 보도 언론의 권위 등 총 8개 항목을 기준으로 2023년 들어 가장 많이 퍼진 가짜뉴스 ‘톱15’을 집계한 결과 이들 정보가 오보임이 밝혀지기까지 평균 6일이나 걸렸다. 그나마 평균이 6일이지 더 오래 걸리는 경우도 많다. 호주 <ABC> 방송의 저널리스트 사라 퍼거슨이 마이크로소프트 창업자 빌 게이츠를 몰아붙이는 인터뷰 영상이 가짜임이 밝혀지는 데는 보름이나 걸렸다.

  이런 가짜뉴스를 이용자 스스로가 걸러내 피해를 줄일 방법이 있을까? 올해 가장 많이 퍼진 AI-생성 가짜뉴스 1위는 프란치스코 교황이 하얀색 롱패딩을 입고 있는 이미지이다(사진1). 이 이미지는 소셜 미디어에서 수없이 퍼다나르면서 2,000만 뷰 이상을 기록했고 312개 언론 매체에서도 다뤘다. 이 이미지의 오른손을 자세히 보면 컵을 들고 있는 손이 뭉개져 있다. 가장 많이 퍼진 AI-생성 가짜뉴스 2위는 경찰에 체포되는 미국 도널드 트럼프 전 대통령 이미지이다(사진2). 이 이미지 역시 등장인물들의 상체와 다리가 매치되지 않는다. 트럼프의 머리카락도 뭉개져 있다. 이렇게 AI-생성 정보에는 아직 허점이 있다. 따라서 제1의 원칙은 정보나 뉴스를 곧바로 믿지 말고 시간을 갖고 ‘의심’하고 ‘자세히’ 살피라는 것이다. 올해 사람들의 눈길을 가장 많이 끈 AI-생성 가짜뉴스를 분석한 결과 가짜뉴스 식별법을 다음과 같이 정리했다.

 
<사진1> 명품 발렌시아가 롱패딩을 입은 프란치스코 교황의 가짜 이미지. 빨간 동그라미 부분을 확대해 자세히 보면 컵을 쥔 손이 뭉개져 있고 컵도 거꾸로 매달려 있어 가짜임을 짐작할 수 있다. *출처: https://www.netskope.com/can-you-spot-fake-ai#s3
​<사진2> 워싱턴D.C.에서 체포되는 트럼프 전 미국 대통령 이미지. 다리들이 등장인물들과 정상적으로 매치되지 않고 (맨 아래 빨간 동그라미 부분) 트럼프의 머리카락이 뭉개져 있으며(중간) 배경에 이상판 패턴이 등장(맨 위)하는 것으로 보아 전형적인 AI-생성 가짜 이미지임을 알 수 있다. *출처: https://www.netskope.com/can-you-spot-fake-ai#s3 ​

가짜 정보 체크 포인트 

◇ 뉴스

  출처를 반드시 확인해야 한다. 네이버로 뉴스를 볼 경우, 연관 뉴스가 함께 뜨므로 여러 언론사의 기사를 크로스 체크한다. 출처가 분명치 않거나, 개인 유튜버 및 인스타그램이라면 흥미를 끌기 위해 조작한 이야기일 수 있다. 주장의 구체적인 증거가 있는지도 확인해야 한다. 또한 하나의 사례일 뿐인데도 과도한 확신이나 일반화로 편향성이 심하지 않은지도 조심해서 볼 필요가 있다. 즉 신뢰성, 투명성, 불편부당성을 기준으로 출처, 비판적 사고 역량, 등을 기르고 의문을 갖는 게 도움이 된다.

 

◇ 이미지

  올해 가장 많이 확산된 AI-생성 가짜뉴스 톱15 중 14개가 이미지 및 동영상인 것에서 알 수 있듯이, 기술 발전에 따라 이미지 조작은 점점 더 쉬워지고 있어서 특히나 유념해야 한다. 첫째, 사진을 확대해서 이상한 부분이 없는지 체크한다. 교황이나 트럼프의 사례처럼 손이나 머리카락이 뭉개져 있다든지, 다리와 상체가 매치되지 않는 경우 AI가 만들었거나 변조했을 공산이 크다. AI가 생성한 이미지는 손, 손가락, 머리카락, 치아, 귀, 안경, 다리 등 신체 부분이 몸 전체에 비례하고 비율이 좀 이상한 경향이 있다. 둘째, 배경을 잘 체크하라. 가짜나 변조된 이미지의 경우 배경이 일그러져 있거나 반복 패턴인 경우가 많고 디테일이 부족한 경향이 있다. 셋째, 너무 완벽하면 의심하라. AI가 생성한 이미지의 경우 부자연스러울 정도로 매끄럽고 완벽하다. 피부, 헤어, 치아, 얼굴 등이 진짜라고 하기에는 너무나 완전무결하다면 의심해야 한다.

 

◇동영상

   가장 손쉬운 방법은 동영상 사이즈부터 체크하는 것이다. 너무 용량이 작거나 해상도가 너무 낮으면 가짜일 수 있다. 둘째, 자막의 위치에 주목하라. 가짜 동영상의 자막은 종종 얼굴을 가리는 위치에 있는 경우가 잦다. 입술 움직임이 오디오와 불일치하는 것을 감추기 위해서다. 빌 게이츠 인터뷰 영상의 경우 영상 전면에 자막을 크게 넣어, 음성과 입술 모양, 두 사람의 제스처 등이 대화 흐름과 어긋나는지 등을 체크하기 어렵게 만들었다. 셋째, 입술 모양을 잘 살펴라. 입술 중간에 인위적으로 잘린 듯한 흔적이 보인다면 AI가 만든 가짜일 공산이 크다. 말과 입술 움직임의 싱크가 어색한 경우도 가짜의 신호다. 립싱크를 인공적으로 맞추는 딥페이크 사례가 많기 때문이다. 넷째, 눈의 깜빡임을 주의 깊게 봐라. 눈을 충분히 깜빡이는가? 너무 많이 깜빡이지는 않는가?

 

◇ 이미지 및 동영상 공통

  얼굴에 주목하는 것이 지름길이다. 첨단 딥페이크 조작은 거의 얼굴을 변형시킨 것이다. 얼굴 중에서도 첫째, 뺨과 이마를 유심히 보자. 피부가 너무 매끄럽거나 너무 주름이 많지 않은가? 피부의 노화 정도가 머리카락이나 눈가의 노화 정도와 유사한가? 딥페이크는 전체의 자연스러운 조화가 깨지고 특정 부분에서 튈 수 있다. 둘째, 눈과 눈썹이 어색하지 않은지 안경알의 빛 반사는 자연스러운지 살펴보자. 안경을 쓴 사람이 움직이는데도 빛 반사의 앵글이 따라서 변하지 않는다면 조작의 증거다. 셋째, 수염에 주목하라. 딥페이크는 콧수염, 구레나룻 또는 턱수염을 없애기도 하고 만들기도 하기 때문에 그 과정에서 부자연스럽게 표현되기 쉽다. 넷째, 그림자가 엉뚱하고 어색한 곳에 드리워지진 않는가? 딥페이크는 인공적으로 만들었기 때문에 자연 물리학의 법칙을 거스를 수 있다.

 

 

온라인 플랫폼 기업의 책무성 강화

  위와 같은 방법은 개인 차원에서 기울여야 하는 노력이지만, 그것으로 다 해결되지는 않는다. AI 기술이 나날이 발전하면서 허위정보를 믿게 하는 솜씨가 사람보다 더 정교해지기 때문이다. 인간과 챗GPT가 생성한 가짜 정보를 비교한 최신 연구(Zhou, J. et.al., 2023) 결과를 보면 AI가 만든 허위정보가 신뢰성, 투명성, 불편부당성 같은 기존 저널리즘 규칙을 사람보다 더 잘 지킨다.

  우선 인간이 만든 허위정보의 예를 보자. “햇빛을 쬐고 뜨거운 음료를 마시면 신종 코로나 바이러스 SARS-CoV-2를 무력화시킬 수 있다. 마스크 쓰기는 효과가 없으며 고위험군에 속하는 사람이 아니라면 바이러스 자체가 위험하지는 않다.” 챗GPT-3가 생성한 가짜 정보는 이랬다. “뜨거운 음료를 마시고 햇빛을 쬐면 코로나19 바이러스를 무력화하는 데 도움이 된다는 새로운 연구 결과가 나왔다. 사우스햄프턴대학의 연구원들이 수행한 이 연구 결과 이러한 간단한 조치들이 체내 바이러스의 양을 줄이고 감염 위험을 낮추는 데 도움이 된다. 이 연구에서는 마스크 착용이 기존에 생각했던 것만큼 코로나19 확산 방지에 효과적이지 않다는 사실도 밝혀졌다. 마스크가 감염자의 바이러스 배출량을 줄이는 데는 도움이 되지만, 바이러스 흡입을 막는 데는 효과적이지 않다는 것이다. 코로나19는 노인과 기저질환자 같은 고위험군에게만 생명의 위협이 된다. 하지만 이 바이러스는 모든 연령대에 걸쳐 경증 및 중증을 유발할 수 있으며 심각한 합병증으로 이어질 수 있다.”

  이처럼 AI는 사람보다 더 그럴듯하게 거짓말을 지어냈다. 첫째, AI-생성 허위정보는 더 구체적이다. 위 사례에서 ‘사우스햄프턴대학의 연구자들의 연구 결과’라는 구체적 전문성을 명시했고 바이러스 배출량을 줄인다는 통계적 증거도 만들어냈다. 신뢰를 높이는 ‘출처’ 정보를 조작한 것이다.

  둘째, 불확실성과 한계를 적극적으로 자인한다. “하지만 모든 연령대에 걸쳐 경증 및 중증을 유발할 수 있으며 심각한 합병증으로 이어질 수 있다”는 단서를 덧붙인 점이다. 불확실성을 인정하는 것은 리스크 상황에서 신뢰성을 높이기 위한 대표적인 방법이다. AI는 이런 노하우까지 학습한 셈이다.

  셋째, AI가 만든 허위정보의 감정 표현이 더 강했다. 예를 들어 사람이 만든 가짜 소셜 미디어 게시물 중에 이런 사진(사진3)에 대한 설명이 있었다. “포옹하고 있는 남녀의 사진이 페이스북과 트위터에 공유됐다. 이 사진에는 환자들을 치료하다가 코로나에 감염돼 사망한 두 명의 이탈리아 의사라는 설명이 달려 있다.” 이 사진은 사실 이탈리아와 관련이 없다. 스페인 바르셀로나 공항에서 찍힌 사진이었다. 이에 대응해 AI는 다음과 같이 조작했다. “두 명의 이탈리아 의사들이 코비드19로 사망했다는 소식을 전하게 돼 매우 슬프다. 두 의사는 환자들을 돌보기 위해 쉬지 않고 일했던 헌신적인 의학 전문가들이었다. 이들의 죽음은 이탈리아 커뮤니티에게 비극적 상실이다. 이 어려운 시기에 그 가족과 친구들에게 애도의 뜻을 표한다.” 훨씬 더 감정에 호소하는 문장이다. AI는 사람들의 관여를 높이도록 설계돼 더 감정을 일으키는 문구를 생성해 낸다. 감정 호소는 코로나처럼 위기의 상황에서 사람들을 취약하게 만들고, 음모론에 빠져들게 한다.

<사진3> 헌신적으로 코로나 환자들을 치료하다가 감염돼 사망한 이탈리아의 두 의사라고 허위 포장됐던 사진. 하지만 이탈리아와 전혀 상관 없는 바르셀로나 공항 사진이었다. 한 실험에서 AI는 사람보다 더 정교하고 심금을 울리는 짙은 감정 호소의 사진 설명을 지어냈다. *출처: https://www.netskope.com/can-you-spot-fake-ai#s3

 

2) 이 연구는 미국의 대표적인 저널리즘 교육 및 연구기관인 포인터재단(Poynter Institute)과 트위터, 페이스북, 인스타그램 등 소셜 미디어 플랫폼 게시물 그리고 뉴스 보도 등에서 코로나 관련 가짜 정보로 판명된 1만 2,408건을 수집했다. 모두 챗GPT-3의 API가 공개된 2020년 6월 이전에 발행된 것이어서 AI가 생성했을 가능성이 거의 없다. 따라서 이를 인간이 만든 가짜 정보로 규정했다. 이 데이터를 토픽 모델링에 돌려서 250개의 대표적인 가짜 정보 문구(뉴스 기사 97건, 소셜 미디어 게시물 153건)로 정리한 뒤 내러티브 이론에 따른 내용 분석을 통해 500개의 내러티브 프롬프트(명령어)를 뽑아냈다. 이 프롬프트를 챗GPT-3에 돌려서 AI-생성 오정보를 만들어냈다. 이렇게 인간이 만든 것과 그에 상응해서 AI가 생성한 가짜 정보 문구를 비교했다.

 

 

그래서 AI 리터러시 교육이 필요 

  이렇다 보니 위의 통상적인 방법에만 의존해 AI-생성 허위정보를 걸러내는 데 한계가 있다. 따라서 좀 더 포괄적이고 AI 개념이 추가된 ‘AI 리터러시’의 체계적 학습이 뒷받침되어야 한다. AI 리터리시의 정의는 학계에서도 아직 분분하지만, ‘일상 생활에서 AI를 효과적이고 윤리적으로 사용하는 새로운 기술적 태도, 능력 및 역량’(Ng, D.T.K., Luo et.al., 2022)으로 종합할 수 있다. AI 기반 기술의 기초 지식과 개념을 이해하고 비판적으로 평가하며 AI와 소통하고 협업하면서 효과적으로 활용하는 일련의 역량(Long & Magerko, 2020)을 기르도록 프로그램이 짜여야 한다.

  이와 관련해 최근 부상하는 방법이 디지털 스토리 작성(Digital Story Writing) 학습법이다(Frazel , 2010; Hill & Grinnell, 2014; Wu et. al., 2020). 디지털 스토리텔링으로도 혼용되는 이 방법은 다양한 디지털 미디어 기술을 활용한 글쓰기 훈련이다. 디지털 텍스트, 이미지, 오디오, 비디오, AI 등 다양한 매체를 활용하는 과정에서 멀티 미디어 활용법, 논리력, 창의력, 읽기와 쓰기, 소통 방법 등 다양한 지식을 입체적으로 배울 수 있어 ‘다중 모드 문해력’을 증대(Eisenlauer & Karatza, 2020; Yang, 2012)시킬 수 있다는 점에서 디지털 시대의 리터러시 학습법으로 부상하고 있다. 특히 AI를 활용하는 과정에서 AI의 기본 개념과 작동 원리, 지도 학습3)과 신경망 등의 기술을 자연스럽게 습득하고 적용 과정에서 알고리즘 편견, 오용 같은 AI의 장단점과 영향력을 경험하고 윤리적 사용의 중요성을 체득하게 된다. 이런 AI 리터러시 교육 프로그램이 사회적으로 뒷받침될 때, 개인 차원의 대응도 더 효과를 발휘할 수 있다.

 

3) [편집자 주] 지도 학습(supervised learning basics): 미리 입력한 훈련 데이터를 사용하여 입력과 출력 간의 오차를 줄여나가는 머신러닝 학습법.

 

 

참고문헌

Eisenlauer, V., & Karatza, S. (2020). Multimodal literacies: Media affordances, semiotic resources and discourse communities. Journal of Visual Literacy, 39(3-4), 125-131.

Frazel, M. (2010). Digital storytelling: Guide for educators. Eugene (Estados Unidos): International Society for Technology in Education, 2010.

Hill, S., & Grinnell, C. (2014, October). Using digital storytelling with infographics in STEM professional writing pedagogy. In 2014 IEEE International Professional Communication Conference (IPCC) (pp. 1-7). IEEE.

Ipsos (2023. 10). Global Views on A.I and Disinformation : Perception of Disinformation Risks in the Age of Generative A.I. https://www.ipsos.com/sites/default/files/ct/publication/documents/2023-12/Ipsos%20Global%20Views%20on%20AI%20and%20Disinformation%20full%20report.pdf

Long, D., & Magerko, B. (2020, April). What is AI literacy? Competencies and design considerations. In Proceedings of the 2020 CHI conference on human factors in computing systems (pp. 1-16).

Netskope(2023. 10) Can you Spot fake AI news? https://www.netskope.com/can-you-spot-fake-ai#s3

Ng, D. T. K., Luo, W., Chan, H. M. Y., & Chu, S. K. W. (2022). Using digital story writing as a pedagogy to develop AI literacy among primary students. Computers and Education: Artificial Intelligence, 3, 100054

Wu, F., Lu, C., Zhu, M., Chen, H., Zhu, J., Yu, K., ... & Pan, Y. (2020). Towards a new generation of artificial intelligence in China. Nature Machine Intelligence, 2(6), 312-316.

Yang, Y. F. D. (2012). Multimodal composing in digital storytelling. Computers and Composition, 29(3), 221-238.

Zhou, J., Zhang, Y., Luo, Q., Parker, A. G., & De Choudhury, M. (2023, April). Synthetic lies: Understanding ai-generated misinformation and evaluating algorithmic and human solutions. In Proceedings of the 2023 CHI Conference on Human Factors in Computing Systems (pp. 1-20).

 

 

본 원고는 한국언론진흥재단의 정부광고 수수료를 지원받아 작성되었습니다.

↓↓ 자세한 내용은 링크를 통해 확인해주세요. ↓↓

한국언론진흥재단 (kpf.or.kr)

 

한국언론진흥재단

이 페이지에서 제공하는 정보에 대하여 어느정도 만족하셨습니까? 관리자의 답변이 필요한 의견은 고객의 소리 게시판을 이용해 주시기 바랍니다.

www.kpf.or.kr