민주주의 위협하는 AI 허위정보 꼼짝마!

2023. 6. 28. 14:00해외 미디어 교육

미국-생성형 AI 시대 미디어 리터러시 교육

written by. 박유신 (전국미디어리터러시교사협회장·삼광초 교사)

 

챗GPT, 바드 등 생성형 AI는 미디어 리터러시 교육에도 영향을 미치고 있다.
나쁜 의도를 가지고 AI를 악용할 경우 허위정보가 무분별하게 대량으로 퍼져나갈 수 있고,
허위정보의 유통은 뉴스 신뢰도에 치명적이기 때문이다.
이와 같은 우려 속에
미국의 미디어교육 기관들이 AI 시대에 맞춘 미디어 리터러시 교육에 힘을 쏟고 있다고 한다.
관련 내용을 소개한다.​
 
 
 
 

2023년 4월 3일자 <시프트>는 포토 저널리즘의 윤리와 생성형 AI의 문제에 대해 다룬다. 생성형 AI는 더욱 정교한 가짜 콘텐츠를 만들 수 있고 이로 인해 선거에 직접적으로 영향을 줄 수 있어 경계해야 한다고 <시프트>는 주장한다.

 

  챗GPT가 처음 일반에게 공개됐을 때 전 세계 교육계의 반응은 학생들이 직접 연구하거나 쓰지 않고, AI를 이용해 작성한 에세이를 학교 과제로 제출할 수 있다는 우려였다. 이와 같은 우려 속에 대학교를 비롯해 전 세계의 많은 학교가 빠르게 챗GPT를 차단했다. 그러나 반년이 지난 현재, 생성형 AI에 대한 교육적 논의는 미디어 리터러시 차원에서 보다 적극적으로 논의되고 있다. AI를 기존과는 다른 차원의 강력한 허위정보를 생산하는 도구로 판단하고, 이에 속지 않으려면 대중은 AI가 어떻게 작동하는지, 한계가 무엇인지 알 수 있어야 하기 때문이다. 즉, 현재 미디어 리터러시는 챗GPT를 비롯한 생성형 AI 시대의 중요한 교육적 방안으로 논의되고 있으며, 생성형 AI가 만든 정보를 판별할 수 있는 교육안들이 제시되기 시작했다. 이 글에서는 미국의 공영방송 <PBS>가 만든 온라인 교육 사이트 ‘PBS 러닝미디어(PBS LearningMedia)’[각주:1]와 뉴스에 특화된 리터러시 교육에 집중하는 비영리 단체 ‘뉴스 리터러시 프로젝트(News Literacy Project, 이하 NLP)’[각주:2]에서 제안한 AI 시대 미디어 리터러시 교육 프로그램을 소개한다.

 

‘챗GPT: 새로운 인공지능 시대 사실과 허구를 구분하는 방법’ 교육 자료. <사진: PBS 러닝미디어 화면 갈무리>

공영방송 <PBS>가 제시하는 AI 대응 수업

  PBS 러닝미디어는 미국 공영방송 <PBS>가 운영하는 온라인 교육 플랫폼이다. 미디어 리터러시, 디지털 리터러시 등과 관려해서도 동영상, 수업 자료, 교사 지원용 자료 등 다양한 교육 자료를 제공해 왔다. PBS 러닝미디어는 교육 표준의 문해력 성취 기준과 관련해 ‘현명한 미디어 이용자 되기(Be MediaWise)’라는 시리즈하에 온라인 과학 정보, 소셜 미디어, 딥페이크 등 동시대 청소년이 접하는 미디어(콘텐츠)를 비판적으로 분석하는 교육안을 공개했다. 최근에는 ‘챗GPT: 새로운 인공지능 시대 사실과 허구를 구분하는 방법’이라는 제목으로 AI가 생성한 콘텐츠를 판별하는 수업안을 개발해 제시했다.

  <PBS>와 포인터연구소(Poynter Institute)의 협업으로 개발된 이 수업은 학생들이 포인터연구소의 ‘10대를 위한 팩트체크 네트워크(Teen-Fact Checking Network, 이하 TFCN)’가 제작한 동영상을 시청하고 토론하는 내용으로 구성돼 있다. 동영상은 먼저 우리가 챗GPT를 비판적으로 읽어야 하는 이유를 설명한다. 설명에 따르면 챗GPT는 무료로 사용할 수 있으며, 정보에 대한 출처를 제공하지도 않고, 그럴듯하게 들리며, 심지어 반복해서 요청하면 설득력 있는 거짓 정보를 제공한다. 또 AI가 더 정교해짐에 따라 AI 콘텐츠를 감지하기 더 어려워질 것이다. 이어서 챗GPT가 ‘낙타를 타는 비욘세’에 대한 소셜 미디어 게시물을 생성하는 사례를 소개하며, 인공지능으로 생성된 콘텐츠를 식별하는 방법을 배운다. 이후의 수업은 토론 수업 및 자기주도적 심화 학습으로 진행된다. 수업 과정 및 질문을 정리해 보면 다음과 같다.

 

 

​[표1] PBS 러닝미디어 제공 AI 관련 수업안

 

핵심 용어
챗GPT, 허위정보, 맥락 읽기
동기 유발
챗GPT를 설명하기 위한 브레인스토밍
<활동1>
영상 보기
영상 시청
토론을
위한
질문
1. 챗GPT는 설득력 있는 답변을 생성하기 위하여 어떻게 정보를 수집하고 처리하는가?
2. 챗GPT가 허위정보를 퍼트리는 데 도움이 될 수 있는 이유는 무엇인가?
3. (챗GPT에서 작성된) 콘텐츠의 생산자가 AI임을 보여주는 세 가지 근거는 무엇인가?
4. 챗GPT 같은 인공지능이 생성한 정보를 식별하는 데 도움이 되는 기술은 무엇이 있는가?
5. 콘텐츠가 AI에서 생성됐는지 확인하려면 어떻게 맥락 읽기를 사용해야 할까?
더 깊이
파고들기
∙소셜 미디어 게시물 읽고 신뢰성 있는 정보 판별하기. 어떤 요소가 신뢰감을 주고 어떤 요소가 정보의 허위성을 드러내는지 판별하기
∙예시:
- “여왕 B, 비욘세가 경치 좋은 사막을 가로질러 낙타를 타고 모험을 즐기는 모습을 엿볼 수 있었습니다! 언제나처럼 놀랍고 최고의 인생을 사는 방법을 보여줍니다! #Beyonce #CamelRide #Adventure #QueenB”
- 신뢰감을 주는 부분: 이모티콘과 해시태그, 별명(#QueenB)
- 허위정보: 로봇처럼 이름과 별명을 반복한다.
소셜 미디어 게시물에 있는 정보의 진위 여부를 확인하기 위해 어떻게 맥락 읽기를 사용해야 할까?
챗GPT에 대한 학생과 교사의 의견을 담은 비디오를 시청하고 챗GPT의 두려움과 잠재성, 이점, 학교에서의 허용 여부에 대해 토론하기
<활동2>
챗GPT가 생성한 소셜 미디어 게시물과 실제 게시물을 본 뒤 배운 내용을 바탕으로 진위 여부를 판별하고 판별 과정에 대해 설명하기
 

  PBS 러닝미디어가 제시한 이 활동은 간단하지만 챗GPT에 대해 학생들이 기본적인 지식을 쌓고, 실제 상황에서 AI가 작성한 게시물을 판별하고 이에 대해 연습할 수 있도록 안내하고 있다. 여기서 예로 든 비욘세의 사례는 생성형 AI가 작성할 수 있는 하나의 허위정보 사례에 불과하지만, 구체적인 상황을 제시함으로써 학생들이 그 외의 다양한 상황에도 실제로 적용할 수 있도록 핵심적인 개념과 질문을 제시했다는 점에서 의미가 있다.

NLP, 교육자를 위한 뉴스 리터러시 수업안

챗GPT를 다룬 2023년 1월 30일자 <시프트>. <사진: NLP 화면 갈무리>

 

  NLP는 아동, 청소년, 교사 등을 대상으로 뉴스 리터러시 향상을 위한 다양한 교육을 제공하고 있다. NLP는 디지털 미디어 시대의 정보 판별 역량 강화를 목표로 활동하는데 교육자를 위한 뉴스레터인 <시프트(The Sift)>는 미 전역에 2만 2,000여명의 구독자가 있다. <시프트>는 주요 이슈와 관련된 뉴스 리터러시 교육 수업안과 토론 주제, 관련 자료 등을 제공한다. 최근에는 챗GPT가 온라인상에서 허위정보를 생성할 수 있으므로 AI의 답변을 검증해야 한다고 여러 사례를 통해 강조한다. 또한 학생들이 다양한 자료를 통해 성찰하고 토론할 수 있도록 안내하고 있다.

  2023년 1월 30일자 <시프트>에 실린 수업안은 AI가 어떻게 허위정보를 생성하고 정치적 선전에 악용될 수 있는지에 대해 다음과 같은 질문을 던지며 토론을 유도했다.

 

  • AI 도구를 어떻게 무기화하여 허위정보를 생성할 수 있는가?
  • 챗GPT와 같은 AI 기술이 학교에 어떤 영향을 미칠 수 있는가?
  • 챗봇 사용의 장단점은 무엇인가?
  • AI 도구는 어떤 식으로든 규제되어야 하는가?

 

  이 수업의 목표는 학생들이 허위정보가 정치 선전에 악용될 수 있다는 사실을 개념적 접근 및 토론을 통해 이해하는 것이다. 또한 뉴스 신뢰도를 평가하는 비영리 단체 뉴스가드(NewsGuard)가 제공하는 예제를 학생들에게 보여주며 챗GPT가 다양한 정치적 관점에서 허위정보나 칼럼 등을 능숙하게 작성할 수 있음을 보여주고 스스로 생각해 보도록 이끈다. 이와 같은 실제 사례를 통해 학생들은 챗GPT가 기존의 허위정보를 넘어선, 장문의 가짜뉴스를 만들어 낼 수 있고, 혹은 특정 저자의 필체를 모방한 칼럼을 생성하는 등 훨씬 정교한 수준의 정치 선전에 이용될 수 있음을 이해하게 된다.

  2023년 4월 3일자 <시프트>는 포토 저널리즘의 윤리와 생성형 AI의 문제에 대해 다룬다. 생성형 AI는 더욱 정교한 가짜 콘텐츠를 만들 수 있고 이로 인해 선거에 직접적으로 영향을 줄 수 있어 경계해야 한다고 <시프트>는 주장한다. 이 수업안에서는 우선 <AFP통신> 산하의 AFP 팩트체크[각주:3]가 제공하는 ‘AI 생성 이미지를 식별하는 팁’을 안내하고 아래와 같이 수업을 진행한다.

 

[표2] NLP 제공 AI 관련 수업안

토론
∙AI 생성 콘텐츠와 관련해 어떤 경험을 했는가? 착각한 적이 있는가?
∙딥러닝 AI와 관련된 소문에 대해 어떻게 생각하는가?
∙만일 당신이 인공지능 회사의 소유주라면, 인공지능 관련 개발을 잠시 멈추자는 의견에 동의하는가? 이유는 무엇인가?
∙앞으로의 AI 기술에 대해 어떤 질문을 하겠는가?
생각하기
<와이어드(Wired)>[각주:4]에 실린 AI 전문가 게리 마커스(Gary Marcus)의 인터뷰를 시청하고 민주주의에 대한 그의 조언 및 언어 모델 작동 등에 대해 생각해 보기
자료
“챗GPT는 저널리즘의 미래에 어떤 의미인가?”[각주:5]에 대한 NLP의 틱톡(TikTok) 영상 시청

 

  ‘루머가드(RumorGuard)’는 한 주의 루머를 다루는 <시프트> 속 코너이다. 4월 3일자에 실린 루머가드는 온라인 커뮤니티 사이트 레딧(Reddit)에 올라온 ‘흰색 패딩을 입은 교황’의 사진이 진짜가 아니라 AI 이미지 생성기 미드저니(Midjourney)가 만들어낸 가짜 이미지라고 설명하면서, 이미지 역추적을 비롯한 다양한 이미지 판별 방법을 안내했다.

NLP의 뉴스레터 <시프트>는 온라인에 널리 퍼진 ‘흰색 패딩을 입은 교황’의 사진이 진짜가 아닌 AI가 만든 가짜 이미지라고 밝혔다. <사진: NLP 화면 갈무리>

 

AI 시대 민주주의 필수 역량

  NLP의 <시프트>는 시사 주제에 대한 심도있는 질문과 다양한 뉴스 자료의 제공을 통해 뉴스 리터러시가 AI 시대에 민주주의를 위한 필수 역량임을 학생과 교사 모두 공감하고, 뉴스 리터러시 역량을 키울 수 있도록 돕는다는 점에서 의미가 깊다고 볼 수 있다.

  지금까지 살펴본 <PBS>와 NLP 사례는 현재 생성형 AI의 빠른 발전 속도에 맞추어 미국의 미디어 리터러시 교육이 빠르게 대응하고 있음을 보여준다. 현재로서 교육과 민주주의에 대한 AI의 도전에 대응할 수 있는 가장 현실적인 방안은 미디어 리터러시라고 할 수 있겠다.

본 원고는 한국언론진흥재단의 정부광고 수수료를 지원받아 작성되었습니다.

↓↓ 자세한 내용은 링크를 통해 확인해주세요. ↓↓

 

 

 

한국언론진흥재단

이 페이지에서 제공하는 정보에 대하여 어느정도 만족하셨습니까? 관리자의 답변이 필요한 의견은 고객의 소리 게시판을 이용해 주시기 바랍니다.

www.kpf.or.kr