2023. 10. 26. 09:46ㆍ웹진<미디어리터러시>
「우선 많이 적극적으로 다양하게 써 보자」를 바탕으로
written by. 한지유 (계간 ≪미디어리터러시≫ 시민 기획위원)
이번 《미디어리터러시》 2023년 여름호(통권 제25호)에는
챗GPT 제대로 활용하는 방법을 주제로 특별기획이 실렸다.
그 뒤를 이어 이번 <밑줄 긋는 시민 기획위원>에서는
그간 챗GPT를 사용하면서 느낀 생각을 정리해 공유하고자 한다.
우연한 계기로 챗GPT를 알게 됐다. 질문을 하면 척척 답을 만들어준다는 홈페이지라기에 들어가서 몇 번 시험 삼아 질문을 던져봤다. 챗GPT에 대한 첫 인상은 단순히 ‘신기하다’에 머물렀다. 챗GPT가 입소문을 타고 유명해지자 시대 흐름에 뒤처지지 않기 위해 열심히 사용했던 적도 있지만, 오히려 지금에 와서는 잘 사용하지 않게 된 듯하다.
그 이유는 단순하다. 아직까지는 사람들이 원하는 것을 ‘대체’할 수준에 이르지는 못했기 때문이다. 언어적 장벽이나 시간적 제약 등 제한된 상황에서는 일을 도와줄 하나의 수단으로 활용할 수 있겠지만, 사람들의 기대는 그것보다 더 높은 곳에 있다. 오히려 챗GPT를 사용하면 도움보다는 방해가 되는 때도 있어 명쾌하고 단순한 질문과 답을 요구하는 경우가 아니라면 잘 사용하지 않게 되었다.
단순히 ‘비판적 사고능력’만이 인공지능을 똑똑하게 사용할 수 있는 방법이 아님을 살펴볼 필요가 있다. 챗GPT가 조금이나마 도움을 줬던 사례와 그렇지 못한 사례를 각각 살펴보면서 우리가 과연 생성형 인공지능을 어떻게 다뤄야 할지 고민해보자.
언어의 장벽 앞에선 도움되는 인공지능
이번 《미디어 리터러시》 2023년 여름호에는 ‘직접 뉴스 리터러시 교육에 뛰어든 미디어 조직’이 게재됐다. 이 글의 원문은 영국 학술지로 23쪽 정도 분량의 영어로 쓰인 논문이다. 이 논문을 번역해 요약해달라는 요청을 받았을 때, 영어에 익숙지 않았기에 처음에는 당황스러움이 앞섰다. 그러나 번역을 챗 GPT로 해달라는 전제를 듣고 챗 GPT가 무엇이든 할 수 있을 거라 생각했기에 금세 안심할 수 있었다. 그러나 막상 사용했을 때 큰 어려움에 부딪혔다.
PDF 형태로 받은 논문을 번역하기 위해서 챗GPT에 들어갔지만, 어디에도 문서를 첨부하는 기능은 없었다. 그제야 엄청난 단순노동에 돌입했다. 한쪽마다 논문을 복사해 챗GPT에 내용을 번역해달라는 식의 단순 작업을 반복한 것이다. 열 쪽 정도 됐을 때 머리를 굴려 챗GPT를 활용한 플러그인을 찾다가 이번 특별 기획에서 소개된 ‘챗PDF’라는 홈페이지를 찾게 됐다. 이 홈페이지에서는 PDF 형식 파일을 지원하면서도 챗GPT의 기능을 활용할 수 있었다. 그러나 이 기쁨도 잠시 PDF를 첨부해 “이 논문을 모두 번역해 요약해 줘”라는 질문을 하자마자 기쁨은 실망으로 변해버렸다. 500자도 안되는 양으로 논문을 한글로 번역해 요약해줬기 때문이다. 결국 다시 챗GPT로 돌아와 페이지별로 요약을 할 수밖에 없었다.
이 과정에서 또 다른 아쉬움도 있었다. 단순히 번역해달라고 명령하면 자동으로 내용을 요약해 번역하는 경우가 종종 생겼다. 그래서 “모든 문장을 빠짐없이 번역해줘”와 같이 명령해야 했다. 그뿐만 아니라, 질문 내용이 상당히 길면 하단 내용은 번역하지 않는 현상도 일어났다. 아직까지는 챗GPT가 다양한 자료첨부, 장문 번역, 포괄적인 질문제시 등에서는 제대로 활용하기 어렵다는 점을 확인할 수 있었다.
이러한 ‘단순 반복작업’이라는 난관에도 불구하고, 챗GPT가 갖는 이점은 분명했다. 언어의 장벽을 뛰어넘어 작업을 시도할 수 있었다는 점이다. 그러나 챗GPT를 잘 활용하기 위해서는 문제해결을 위해 ‘어떻게’ 질문할 것이고, 다양하게 파생된 플러그인들을 어떻게 활용할 수 있는지 알아야 할 필요가 있다는 점을 실감했다. 단순 시스템상의 아쉬움은 시간이 지나면 점차 개선되겠지만, 챗GPT에 어떤 질문을 할지, 수많은 파생 플러그인을 보면서 무엇이고 어떻게 활용해야 할지 고민이 됐던 때가 더 크게 기억에 남는다.
일각에서는 ‘컴퓨팅적 사고’를 키워야 한다고 주장하는데, 이는 컴퓨터를 활용해 단순하고 명료하게 문제를 해결해내는 생각의 흐름 정도로 풀어서 설명할 수 있다. 단순히 컴퓨터의 내장 소프트웨어를 오프라인에서 해오던 대로 사용하는 것을 넘어서 자체 프로그램들의 작동법과 기능 방향에 맞춰 생각할 수도 있어야 한다. 어떻게 하면 제대로 사용할 수 있을지 부단히 공부하고 고민해봐야 할 시점이다.
독특하고 단단한 논리 만들기에는 취약한 인공지능
과제로 토론문을 작성해야 할 때가 있었다. 그 주제는 ‘민주주의는 정의인가’라는 추상적인 주제였다. 인공지능에 어떤 질문을 던져야 하는지가 중요하다고 강조되는 만큼, 추상적인 질문에는 추상적인 답이 돌아왔다.
“또한, 민주주의는 정의의 원칙을 구현하는데 핵심적인 역할을 합니다. 민주주의는 법치와 사회적 공정성을 중요시하며, 사회 간 불평등을 완화하고 사회적 정의를 실현하는데 기여합니다. 다수의 의견을 존중하고 과반수의 동의를 통해 의사결정이 이루어지기 때문에, 사회의 다양한 이익과 가치를 균형 있게 고려할 수 있는 장점이 있습니다.”
위의 챗GPT의 답변을 한동안 멍하게 바라봤다. 과연 사회적 공정성이 무엇이고, 사회적 정의가 무엇일까라는 생각에서였다. 날카로운 질문과 답변이 오가는 토론문에는 적합하지 않은 내용이었다.
토론문과 같이 정확성, 사실성, 비판성이 강하게 요구되는 글에는 챗GPT를 활용하기가 어려웠다. 의도를 알기 어려운 말들의 나열이나 사실이 아닌 내용도 인공지능의 환각효과로 인해 많이 섞여 있기 때문이다. 챗GPT로 토론문을 쓰면서 느낀 단점은 반론과 재반론에 취약하고, 사실적이고 구체적인 사례 제시가 미흡하다는 것이었다. 민주주의가 독재를 막기 때문에 정의라고 주장한 챗GPT는 어느새 견해를 바꿔 독일의 히틀러조차 민주주의로 수상이 됐다면서 모순적인 모습을 보이기도 했다. 독특하고 단단한 글을 쓰기에는 부적합했다.
무엇보다도 중요한 것은 챗GPT의 사고를 닮아가게 된다는 점이었다. 챗GPT는 요약과 정리에 능하기에 그 논리를 쉽게 익힐 수 있다. 하지만 그 도움이 되지 않는 논리와 생각의 흐름이 도리어 본인이 생각해낼 수 있었던 다른 단단한 논리를 만들어내는데 계속해서 장애물로 작용한다고 느껴졌다. 생각이 챗GPT를 닮아가는 ‘사고의 경직화’가 오는 것이다.
논리의 허점이 있는 사고의 과정을 계속해서 습득하면서 본인이 원래 생각해낼 수 있었던 다양하고 단단한 생각들을 떠올리지 못하게 된다는 점에 우리는 경계심을 가질 필요가 있다. 단순히 인공지능을 수단으로 사용하는 과정에서도 ‘비판적 사고력’을 넘어서 논리적 사고력이 필요했다. 비판적으로 인공지능을 학습하면서 옳고 그름을 아는 것뿐만 아니라, 이들의 주장으로부터 벗어나서 나만의 주장을 공신력 있는 근거와 함께 생각할 수 있는 사고력도 필요하다는 것이다. 인공지능처럼 생각하여 어떤 질문을 던지고 문제를 해결할 수 있는 능력도 갖추어야 하지만, 동시에 사람의 시선에서 비판적이고 논리적 사고력을 갖춰야 하는 어려운 시대가 도래하고 있다.
'웹진<미디어리터러시>' 카테고리의 다른 글
리터러시를 위한 ‘보이지 않는’ 노력, 점자의 세계 (0) | 2023.11.02 |
---|---|
미디어리터러시와 <유튜브 시대 언론사의 생존 전략> 같이 보기 (0) | 2023.10.31 |
기획취재 아카이브 – <혐오발전소, 댓글창> (0) | 2023.10.19 |
10월의 추천 도서 – 책 읽는 인간, 호모 부커스 (0) | 2023.10.13 |
추석 명절, 미디어 리터러시(미디어 문해력)가 필요한 순간! (0) | 2023.09.26 |