2023. 3. 10. 14:26ㆍ웹진<미디어리터러시>
미디어교육 현장
초등학교 인공지능 수업 어떻게 할까?
written by. 김예현 (백마초 교사)
인공지능 챗봇 ‘챗GPT’로 전 세계가 술렁인다.
1초만에 에세이를 뚝딱 써내고, 증권사 보고서도 단숨에 분석해내는 똑똑한 인공지능의 출현이 인류에 어떤 결과를 가져올지 의견이 분분하다.
한 가지 분명한 사실은 인공지능이 존재하지 않던 시간으로 되돌아갈 수는 없다는 점이다.
그렇다면 인공지능과 함께 살아갈 우리 아이들에게 무엇을 가르쳐야 할까?
인공지능 시대를 대비한 학교 수업을 고민해 본다.
인공지능 윤리 수업을 할 때 학생들이 인공지능 기술 자체에 대해 부정적인 인식을 가져서는 안 된다.
인공지능 윤리를 배우는 까닭은
인공지능 개발자와 이용자가 인공지능 기술을 올바르게 사용할 수 있도록 하려는 데 목적이 있지
인공지능 기술 자체를 배척하기 위함이 아니다.
2016년 10월 인간과 인공지능의 바둑 대국이 열렸다. 구글 딥마인드에서 개발한 인공지능 바둑 프로그램 ‘알파고’와 한국의 프로 기사 이세돌 9단의 대국이었다. 총 다섯 번의 대국에서 이세돌 9단은 단 1승을 거두었으며, 이후 인간과 인공지능의 바둑 대국에서 인공지능이 패배하는 일은 없었다.
인공지능, 인간의 친구가 될 수 있을까
알파고와 이세돌의 대국은 지금까지도 많은 사람이 인공지능 하면 ‘알파고’를 떠올릴 만큼 충격적인 사건이었다. 당시 언론에서는 연일 이 대결에 대해 보도했고 인터넷 커뮤니티 사이트에서는 알파고를 이용한 밈이 만들어졌으며, 사람들은 이세돌의 1승을 찬양하는 한편 발전한 인공지능 수준에 대한 우려를 드러냈다. 인간이 만든 인공지능이 인간을 이겼다. 영화에서나 볼 법한, 사람보다 똑똑한 인공지능이 인간의 모든 일자리를 대체하는 충격적인 미래가 성큼 앞으로 다가온 건 아닐까?
하지만 걱정과는 달리 2023년 현재까지 아직 그런 미래는 오지 않았다. 인공지능 기술은 다행히도 인류의 지배자가 아닌, 너무도 훌륭한 인간의 ‘도구’로서 일상생활 곳곳에 스며들었다. 우리는 손안의 스마트폰을 이용해 자신을 돕는 인공지능 비서를 언제 어디서나 불러낼 수 있다. 유튜브와 넷플릭스는 인공지능 알고리즘을 사용해 사람들의 취향에 맞는 영상을 추천해 준다. 인공지능을 장착해 더욱 ‘똑똑’해지고 ‘스마트’해진 제품들은 인간들의 삶을 보다 편리하고 윤택하게 만들고 있다.
발전에 발전을 거듭한 인공지능은 심지어 도구를 넘어 인류의 ‘친구’ 자리까지 도전했다. 2020년 12월 인공지능 챗봇 ‘이루다’는 “너의 첫 AI 친구”라는 문구와 함께 서비스를 시작했다. 결과부터 말하자면 인류의 친구 자리에 도전한 이루다의 1차 시도는 실패로 돌아갔다. 딥러닝 알고리즘 기술을 활용한 이루다는 출시 이후 순식간에 사용자 수가 약 40만 명에 달할 정도로 인기를 끌었으나 그 인기는 오래가지 못했다. 대화 학습 과정에서 개인정보 유출 문제, 혐오 표현 학습 논란, 인공지능을 대상으로 한 성희롱 문제 등 각종 논란이 연이어 발생했기 때문이다. 결국 출시 약 3주 만인 2021년 1월, 이루다를 개발한 스캐터랩은 서비스를 중단했다(스캐터랩은 2022년 10월 ‘이루다 2.0’을 출시하며 서비스를 재개했다).
2016년의 알파고와 2020년의 이루다는 한국 사회에 큰 충격을 준 인공지능이라는 공통점이 있다. 그리고 초등학교 교사인 나의 입장에서 알파고는 인공지능 발전 수준을 인식시키고 그에 관련된 교육이 필요함을 처음 느끼게 한 사건이라면, 이루다는 인공지능 교육에 반드시 윤리 교육이 수반되어야 함을 깨닫게 한 사건이었다. 이루다는 인류의 친구가 되겠다는 좋은 목적에서 개발된 인공지능이다. 하지만 사용자의 개인정보를 다루는 과정에서 인공지능 개발자와 이용자 모두의 윤리가 부족했기에 결국 1차 시도는 실패로 돌아가고 말았다.
초등 고학년 대상 수업 지도안 개발
필자가 근무하는 초등학교의 4학년 학생을 대상으로 개발한 인공지능 수업안은 이러한 문제의식에서 시작됐다. 인공지능은 초등학생에게도 더 이상 낯설고 어려운 단어가 아니다. 스마트폰이 대중화된 시대에 태어난 알파 세대의 일상에는 곳곳에 인공지능이 숨어 있다. 어린이들은 인공지능 스피커에 말을 걸고, 인공지능 튜터와 공부하며, 유튜브에 접속해 인공지능 알고리즘이 선별해준 추천 영상을 본다. 이처럼 인공지능이 어린이의 일상이 된 만큼, 학교에서는 어린이에게 인공지능을 비판적으로 보는 눈을 길러줄 필요가 있다. 인공지능과 대화하는 과정에서 인공지능이 나의 개인정보를 수집해 갈 수도 있고, 인공지능이 제공하는 정보가 마냥 공정한 정보가 아닐 수도 있다는 사실을 가르쳐야 한다.
인공지능 수업안은 아래와 같이 총 10차시로 구성됐다. 이 수업안은 인공지능에 대해 처음 접하는 초등학교 고학년 학생을 대상으로 제작됐으며, 자세한 수업안의 내용은 한국언론진흥재단 MECA(https://www.meca.or.kr/) 사이트와, FORME 사이트(https://www.forme.or.kr/teach/all.cs?m=108)에서 확인할 수 있다. 단, 수업안은 5~6학년을 대상으로 개발됐기 때문에 실제 수업에서는 4학년 학생들의 발달 수준을 고려하여 일부 내용을 삭제한 후 진행했다.
· 초등 고학년 대상 인공지능 수업안
나의 첫 인공지능 수업
|
||
차시
|
주제
|
학습 목표
|
1
|
인공지능이해
|
인공지능의 의미를 이해하고 인공지능이 실생활에서 어떻게 활용되는지 알 수 있다.
|
2~3
|
인공지능이 더 잘하는 일과 인간이 더 잘하는 일을 구분할 수 있다.
|
|
4
|
인공지능윤리
|
미래 사회에서 인공지능의 필요성에 대해서 토의할 수 있다.
|
5~6
|
딥페이크 기술이 무엇인지 알고 이용자를 위한 윤리 수칙을 만들 수 있다.
|
|
7
|
인공지능을 이용하여 만든 창작물과 관련된 저작권 문제를 이해할 수 있다.
|
|
8
|
인공지능을 이용한 안면 인식 기술의 명과 암을 이해할 수 있다.
|
|
9~10
|
인공지능이 긍정적으로 활용된 미래 사회의 ‘스마트 시티’를 디자인할 수 있다.
|
해당 수업을 통해 학생들은 인공지능에 대해 배우고 인공지능 윤리와 관련된 다양한 주제를 살펴볼 수 있다. 수업안 활용 시 주의할 사항이 있다. 인공지능 윤리 수업을 할 때 인공지능을 부정적으로 활용한 사례를 소개하게 되는데, 이로 인해 학생들이 인공지능 기술 자체에 대해 부정적인 인식을 가져서는 안 된다는 점이다. 인공지능 윤리를 배우는 까닭은 인공지능 개발자와 이용자가 인공지능 기술을 올바르게 사용할 수 있도록 하려는 데 목적이 있지 인공지능 기술 자체를 배척하기 위함이 아니다. 이러한 수업 목적을 고려하여 본 수업안의 마지막 차시는 인공지능이 긍정적인 방향으로 활용되는 미래의 ‘스마트 시티’를 상상해 보는 것으로 마무리했다. 이 자리에서는 수업안 중 4차시, ‘미래 사회에서 인공지능의 필요성에 대해서 토의할 수 있다’의 수업 내용을 소개하겠다.
미래사회와 인공지능
4차시 수업은 인공지능 윤리에 대해 배우는 첫 차시로 인공지능과 관련된 학생들의 전반적인 인식부터 알아보았다. 실생활에 활용되고 있는 다양한 인공지능 사례를 함께 복습한 후 질문을 던졌다. “앞으로 여러분이 자라면 맞이하게 될 미래 사회에 인공지능이 필요하다고 생각하나요?”
크고 추상적인 질문이기에 학생들이 생각을 정리할 시간을 충분히 가진 후 수업을 진행했다. 학생들은 ‘반드시 필요하다/ 있으면 좋다/ 없어도 괜찮다/ 반드시 없어져야 한다’ 등 네 가지 답변 중 하나를 고른 뒤 학습지에 해당 답변을 선택한 이유를 적었다. 그리고 이를 바탕으로 간단한 토론을 진행했다.
· 인공지능 필요성에 대한 질문과 답변
(단위: 명)
질문
|
앞으로 여러분이 자라면 맞이하게 될 미래 사회에 인공지능이 필요하다고 생각하나요?
|
|||
답변
|
반드시 필요하다
|
있으면 좋다
|
없어도 괜찮다
|
반드시 없어져야 한다
|
응답자수
|
3
|
13
|
6
|
0
|
학생들은 토론을 하며 활발하게 서로의 의견을 교류했다. 당일 수업에 참여했던 총 22명의 학생 중 16명이 인공지능이 미래 사회에 필요하다고 생각했고, 없어도 괜찮다고 응답한 학생은 6명이었다. 하지만 인공지능이 미래에 필요하다고 응답한 학생들도 인공지능에 마냥 긍정적이지만은 않았다. 몇몇 학생은 인공지능 없이도 인간이 할 수 있는 일은 많으며, 인공지능이 지나치게 많은 분야에서 사용될 경우 나쁜 일에 사용될 수 있다며 우려를 드러내기도 했다.
토론은 생각 이상으로 재미있고 심도 깊게 진행됐다. 만약 시간만 허락한다면 이 토론만으로 한 회차 수업을 이끌어나가도 좋을 정도였다. 하지만 한정된 시간으로 인해 15분 남짓한 시간 동안 토론을 마친 뒤 본 수업으로 들어갔다. “여러분의 의견은 잘 들었습니다. 하지만 사실 여러분은 이미 인공지능 사회에 살고 있고, 여러분이 어른이 된 미래에는 지금보다도 더 많은 분야에서 인공지능을 볼 수 있을 거예요. 그렇다면 과연 인공지능은 인간을 대체할 수 있을까요? 오늘은 이와 관련된 토론 활동을 진행해 봅시다.”
인공지능은 공정한가
‘인공지능은 더 공정하다.’ 이는 인공지능에 대한 가장 흔한 오개념이자 이 수업을 통해서 학생들과 이야기해 보고 싶었던 내용이다. 수업에서는 ‘인간 판사와 인공지능 판사’라는 주제를 통해 이 문제를 다루었다. 2020년 12월 한국리서치가 실시한 한 조사에 따르면, 응답자의 48%가 인간 판사보다 ‘인공지능 판사’에게 재판을 받고 싶다고 응답했다. 인공지능 판사가 인간 판사보다 더 공정한 판결을 내릴 것이라는 기대에서 비롯된 결과이다. 그렇다면 과연 인공지능 판사는 인간 판사보다 더 공정할까? 물론 인공지능은 인간과는 달리 감정에 휩쓸린 판단을 하지 않는다는 점에서 공정하다고 볼 수 있다. 하지만 인공지능은 과거의 데이터를 바탕으로 학습하는 존재임을 잊어서는 안 된다. 만약 차별과 편견으로 인해 편향된 판결이 내려진 과거 사례가 있을 경우 이 데이터를 학습한 인공지능의 판단은 공정하지 않을 수 있다. 대표적인 사례로 미국 20여개 주 법원에서 활용되던 인공지능 ‘콤파스(COMPAS)’가 있다. 1 2016년 한 탐사보도 언론은 범죄자의 재범 가능성을 측정하는 이 인공지능이 인종 차별적이라고 지적했다. 콤파스는 피의자가 흑인일 경우 백인보다 재범 위험성을 더 높게 산정했다. 물론 콤파스가 의도적으로 인종 차별을 하지는 않았다. 문제는 콤파스가 습득한 데이터에 있는데, 과거 미국에서는 인종 차별로 인해 범행 후 검거되는 비율이 인종에 따라 달랐다.
콤파스의 사례는 인공지능이 인간 사회의 데이터를 학습할 때 인간 사회의 차별과 편견 등도 함께 답습할 수 있음을 보여준다. 미래 인공지능 사회를 살아갈 어린이 역시 이런 부분에 대해 충분히 인지하고, 경계할 수 있어야 한다.
이 주제를 다루기 위해 먼저 학생들에게 한국리서치 설문 조사 결과를 보여준 뒤 질문을 던졌다. “만약 여러분이 미래에 재판을 받게 된다면, 인간 판사에게 재판을 받고 싶나요? 아니면 인공지능 판사에게 재판을 받고 싶나요?” 학생들은 인공지능 판사와 인간 판사의 장단점에 대해서 간단하게 생각해 본 후 자신의 의견을 토론 형식으로 발표했다. 흥미롭게도 4학년 학생들의 의견은 한국리서치 설문 조사와는 달랐다.
· ‘인간 판사와 인공지능 판사’-초등 4학년 조사 결과
(단위: 명)
질문
|
인간 판사와 인공지능 판사 중 누구에게 재판을 받고 싶나요?
|
|
답변
|
인간 판사
|
인공지능 판사
|
응답자수
|
20
|
2
|
대다수 학생이 인간 판사에게 재판을 받고 싶어 했다. 물론 4학년 한 학급 학생들을 대상으로 한 결과여서 일반화하기는 어렵지만 흥미로운 결과였다. 학생들은 ‘인공지능은 상황 파악을 잘못할 것 같다’, ‘사람 심리는 사람이 더 잘 알 것 같다’ 등의 이유로 인간 판사를 더 선호했다. 인공지능 판사가 어떤 방식으로 데이터를 습득하여 판결을 내리는가에 관한 사전 지식이 부족해서 인간 판사를 선택한 학생도 몇몇 있었다. 인공지능 판사를 선택한 소수의 학생은 ‘인공지능이 지식을 더 많이 습득할 수 있어서’를 이유로 들었다.
인간 판사를 선택한 학생들 중에는 단순히 ‘내가 사람이라서’라 인간 판사를 선택했다고 응답한 경우도 있었다. 당시에는 이 답변이 적절한 근거가 아니라고 생각했는데, 지금 돌이켜 생각해보니 그 학생들은 인공지능이 인간에게 큰 도움이 된다는 사실은 인정하지만, 인간을 완전히 대체하는 일에는 거부감을 느낀 게 아니었을까 싶다. 비록 한쪽으로 학생들의 의견이 쏠리기는 했으나 많은 학생이 스스로 손을 들고 자신의 의견을 발표한 의미 있는 시간이었다.
마지막으로 <tvN>에서 방영한 ‘미래수업’의 유튜브 클립을 함께 보면서 수업을 마무리했다(‘목적, 자의식도 없는데 차별을 한다? 편견이 생겨버린 인공지능의 오류’ 편). 초등학생들이 이해하기 다소 어려운 내용이어서 교사가 중간 중간 클립을 정지시키고 추가 설명을 해주어야 한다. 미래 사회에 인공지능이 공정하게 활용되기 위해서는 데이터가 편향되지 않아야 하고, 편향된 데이터가 활용되지 않도록 감시하는 시민이 필요하다는 이야기를 하며 수업을 마쳤다.
유토피아 vs. 디스토피아
미래 사회는 인공지능과 함께한다. 이는 거부할 수 없는 시대적 흐름이다. 미래 사회와 관련된 수업을 할 때 내가 좋아하는 주제가 있다. 미래 사회는 ‘유토피아’가 될까, ‘디스토피아’가 될까? 유토피아와 디스토피아의 개념을 설명한 후 학생들에게 미래 사회를 상상해 보라고 하면 학생들은 자신이 가지고 있는 상상력과 사전 지식을 총동원해 다양한 답변을 내놓는다. 이 수업안에는 담지 못했으나 다음에 또 이 수업을 한다면 이 질문으로 수업을 마무리하고 싶다. ‘인공지능과 함께하는 미래 사회가 유토피아가 되기 위해서는 어떻게 해야 할까?’ 인공지능의 개발자와 사용자, 모두가 적절한 인공지능 윤리를 갖추어야만 인공지능과 함께하는 미래 사회가 유토피아가 될 것이다. 그리고 그런 미래 사회를 맞이하기 위해서는 반드시 인공지능 윤리 교육이 필요하다. 이 수업안을 통해 미래 사회를 살아갈 청소년들이 인공지능 윤리에 대해 많은 고민을 해 볼 수 있는 시간이 되기를 소망한다.
참고문헌
일요신문 (2022), “국민은 공정 원하는데... 법조계가 AI판사 원하는 진짜 속내”, 2022.01.21. https://m.ilyo.co.kr/?ac=article_view&entry_id=421348
일간투데이 (2020), “인종차별 심각한 AI...‘설명가능 AI’ 급부상”, 2020.06.08. http://www.dtoday.co.kr/news/articleView.html?idxno=366646
본 원고는 한국언론진흥재단의 정부광고 수수료를 지원받아 작성되었습니다.
↓↓ 자세한 내용은 링크를 통해 확인해주세요. ↓↓
- [편집자 주] 2016년 미국의 <프로퍼블리카(ProPublica)>는 ‘기계의 편견(Machine Bias)’이라는 기사에서 콤파스의 판단 결과를 분석한 뒤 콤파스가 흑인에 대한 불리한 편견을 드러내고 있다고 주장했다.https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing [본문으로]
'웹진<미디어리터러시>' 카테고리의 다른 글
[미디어 리터러시 셀프 체크] 기사형 광고 알아채기 (0) | 2023.03.31 |
---|---|
안전한 디지털 환경, 플랫폼-부모-공동체 협력해야 가능 (0) | 2023.03.16 |
세상에 격려와 기쁨을 주는 따뜻한 네트워크 (0) | 2023.03.09 |
피해자와 공감하고 연대하는 성숙한 디지털 시민 (0) | 2023.01.11 |
17개 근거 찾아 팩트체크, 결과 공유·확산에도 최선 다해 (0) | 2023.01.06 |