카테고리 없음

미래 교육을 위한 'AI 리터러시와 윤리'

다독다독 (多讀多讀) 2024. 11. 25. 09:10

글. 변순용 (서울교육대학교 윤리교욱과 교수)

지난 4월 대전광역시교육청에서

‘디지털 교육 강화를 위한

AI·디지털 리터러시 포럼’을 개최했다.

‘AI·디지털 교육: 리터러시와 윤리’라는

주제로 디지털 대전환의 시대에

AI와 디지털 기술을 학교 교육에

빠르게 적용하고,

디지털 리터러시 교육의 중요성을

강조하기 위해 마련된 이번 포럼의

주요 내용을 살펴본다.


인공지능이 교육의 영역에 도입되면서 인공지능과 교육이 결합되어 교육 영역 내에서 여러 형태의 변화를 가져오고 있다. 이러한 변화의 시작에서 가장 많이 강조되는 주제 중 하나가 바로 리터러시와 윤리다. 2024년 4월 15일 DX교육데이터협회에서 주관하고, 대전광역시교육청에서 주최한 제5회 EduData & AI 포럼에서 ‘AI·디지털 교육: 리터러시와 윤리’라는 주제로 논의의 장이 마련되었다.

‘디지털 교육 강화를 위한 AI·디지털 리터러시 포럼’ 포스터 (출처: DX교육데이터협회)

디지털 교육 강화 및
AI 활용 교육에 대한 정책 발표

이 포럼에서 정책 발표로는 ‘대전교육청 AI·디지털 교육 추진과 과제(이상탁 대전광역시교육청 과학직업정보과장)', 역량과 관련된 주제로 ‘생성형 AI 시대, 바람직한 디지털 교육을 위한 기본 역량(서정희 한국교육학술정보원 디지털교육본부 연구원)’, 윤리와 관련된 주제로 ‘학교 현장에서 활용하는 AI: 고려해야 할 윤리적 이슈와 대응 방안(변순용 서울교육대학교 윤리교육과 교수)’, 신뢰와 관련된 주제로 ‘책임감 있는 인공지능: 선한 인공지능의 핵심 요소와 구현 방안(김태형 AWS 공공교육 부문 이사)’의 발표가 있었고, 발표자들 간의 전문가 토론이 이어졌다. 그리고 3부에서는 실증사례 발표로 ‘학습자 중심의 AI 활용 교육에서 윤리적 이슈 극복 사례(이세진 서울 광장초 교사)’와 ‘생성형 AI 선도 기업의 AI 윤리 실천 사례(윤진욱 투비유니콘 대표)’가 이어졌다. 포럼의 전체적인 구성이 교육정책에 대한 소개, 전문가들의 발표와 패널 토론, 실제 기업과 교육 현장에 적용된 사례 발표로 이루어져 정책, 이론, 실천의 3박자가 잘 조화된 포럼이었다.

정책 발표 1.

대전교육청 AI·디지털 교육 추진과 과제

이상탁 대전광역시교육청 과학직업정보과장은 디지털 대전환 시대에 부응할 수 있는 디지털 교육 인프라 구축, AIDT(AI 디지털 교과서)[1] 적용 교과 및 디지털 교육 전환을 위한 교원 전문성 신장, 디지털 기술 이해 및 활용 교육으로 미래 사회를 주도할 디지털 인재 양성, 첨단 기술을 활용한 학생 맞춤형 지원으로 공교육 만족도 제고를 추진 목적 및 방향으로 설정하여 ‘대전 디지털 드림(Daejeon Digital Dream)’을 대전형 디지털 교육의 모델로 삼고 있다고 발표했다.

대전시에서는 AI 디지털 교원 전문성 신장을 위해 무선망 구축, 스마트 칠판 보급 등과 같이 맞춤형 교육을 위한 디지털 교육 환경을 구축하고, AIDT 도입을 대비한 교원 연수, AI 디지털 역량 강화 연수, AI 융합교육 전문과정을 운영하고 있다. 또한 디지털 교육지원단, 연구 및 선도학교 운영, AI 디지털 리터러시교육 지원 등을 통해 디지털 인재를 양성하고, 기관 연계 AI·SW 체험 프로그램, 디지털 교육 국제 교류, 디지털 정보 공유 등 디지털 교육을 확산하고 있다. 이에 따라 향후 AIDT 적용 교과 교사의 교수학습 및 평가 자료 개발과 연수 체계 구성, 학생, 학부모의 AI·디지털 리터러시 함양을 위한 교육과정 개발, AI 디지털 교육을 통해 발생하는 교육 데이터 분석 및 적용 방안 개발이 앞으로의 과제로 제시되었다.

정책 발표 2.

생성형 AI 시대,바람직한 디지털 교육을 위한 기본 역량

서정희 연구위원은 학생의 디지털 리터러시 수준을 디지털 도구, 디지털 정보 및 데이터, 디지털 의사소통 및 협력, 디지털 자원 생산, 디지털 안전과 건강이라는 평가영역을 설정하여 학생 및 교원들의 AI·디지털 역량 측정도구를 개발했다. 인식형 측정도구, 문제풀이형 측정도구, 대화형 측정도구, 과제수행형 측정도구를 개발했는데, 예를 들어 인식형 측정도구에서는 역량체계에 기반하여 9개 역량에 대해 역량별 행동지표(총 30개 문항), 7단계 척도(무지, 인식, 안내된 수행, 스스로 수행, 타인 지원, 비구조화된 문제해결, 사회기여)를 개발해 측정했다. 이러한 측정도구의 개발과 측정으로 AI·디지털교육의 효과성 입증을 객관화했다.

정책 발표 3.

학교 현장에서 활용하는 AI:
고려해야 할 윤리적 이슈와 대응 방안

‘학교 현장에서 활용하는 AI: 고려해야 할 윤리적 이슈와 대응 방안’을 발표하고 있는 필자 (출처: DX교육데이터협회)

필자는 생성형 인공지능의 방향성에 대한 물음을 던지면서 인공지능의 두 가지 쇼크의 서로 다른 충격파를 언급했다. 인공지능에 대한 두려움이 현실화되고 있으며, 현대사회에서 기계의 인간화와 인간의 기계화 현상이 맞물리면서 새로운 인간성, 즉 디지털 휴머니티가 갖는 의미를 강조했다. 더불어 생성형 인공지능의 등장은 인류의 역사에서 지식 생산의 새로운 주체의 등장이며, 기술적 호기심에 의한 지속적인 개발 경쟁, 인간 노동의 질 저하 등의 장기적인 영향을 줄 것이므로, 생성형 인공지능은 제한된(Restricted), 윤리적인(Ethical), 지속 가능한(Sustainable) 인공지능이 되어야 윤리적인 문제들이 해결 가능하다고 주장했다. 생성형 인공지능의 학습데이터의 출처와 편향성 검증 등에 대한 문제 제기와 저작권 이슈 등이 윤리적 문제의 예시가 될 것이며, 범용인공지능(General purpose AI)[2]의 등장 가능성이 높아지면서 계속 새로운 윤리적 문제들이 등장하고 있다고 덧붙였다.

교육 분야와 관련해서도 유치원, 초등학교 저학년 단계에서의 디지털 기기 활용 교육을 전면 금지시킨 스웨덴의 사례와 디지털 학습을 강조하고 있는 한국의 사례를 비교해 제시했다. 인공지능교육(AIED)[3]의 성과에 대한 긍정적 사례와 부정적 사례를 모두 언급하며 인공지능을 활용한 교육의 위험성에 대한 자각이 중요하다고 주장했다. 그래서 인공지능을 학습과정에 도입할 때 인공지능이 과연 교사를 대신하게 될 것인지, 인공지능이 학습자의 자기 주도성을 키워주는 것인지 아니면 오히려 의존도를 높이는 것인지, 인공지능이 교육 내용과 방법을 어떻게 바꿀 것인지, 인공지능을 누가 교육시킬 것인지 등에 대한 여러 질문에 대한 숙고가 중요하며, 이제는 인공지능의 교육 현장에의 도입에 대해 진지하게 생각할 때임을 강조했다.

정책 발표 4.

책임감 있는 인공지능:
선한 인공지능의 핵심 요소와 구현 방안

김태형 이사는 책임감 있는 선한 인공지능의 핵심 요소와 구현 방안을 기술적인 측면에서 제시했다. 그래서 시스템이 사용자의 다양한 하위 집단에 미치는 영향과 관련된 공정성, AI 시스템의 결과를 이해하고 평가하는 메커니즘인 설명 가능성, AI 시스템이 안정적으로 작동하도록 하는 메커니즘인 견고성, 개인정보 보호 고려 사항에 따라 사용되며 도난 및 노출로부터 보호되는 데이터를 강조하는 개인 정보 보호 및 보안, 조직 내에서 책임 있는 AI 관행을 정의, 구현 및 시행하기 위한 프로세스로서의 거버넌스, 이해관계자가 시스템 사용에 대해 정보에 입각한 결정을 내릴 수 있도록 AI 시스템에 대한 정보를 전달하는 투명성을 갖추는 책임감 있는 인공지능의 개발에 초점을 맞춰야 하고, 전체 머신 러닝 라이프 사이클에서 공정성을 위한 편향 측정, 설명 가능한 인공지능을 위한 노력이 필요함을 설명했다.

이러한 노력이 있어야 AI에게 점점 더 많은 대리권을 부여하려는 유혹의 증대, 책임 없는 블랙박스 메커니즘, 사회적 차별의 심화, 보안의 취약성, 프라이버시 침해 가능성 등 오늘날의 AI 시스템 문제가 해결될 수 있다고 보았다.

패널 토론

‘생성형 인공지능 교육에서 좋은 질문이란 무엇인가’와
‘할루시네이션’ 해결 방법

패널 토론 (출처: DX교육데이터협회)

발표자들이 모두 참여하는 패널 토론은 크게 두 가지 주제로 진행됐다. 번째 주제는 ‘생성형 인공지능과 교육에서 좋은 질문이란 무엇인가’였다. 질문은 질문 자체로 의미를 가지지만, 무엇보다도 질문자의 문제 해결에 도움이 되는 질문이 좋은 질문이라는 의견도 개진되었다. 생성형 인공지능의 프롬프트에 던져질 좋은 질문이란 구체적·맥락적·폐쇄적 질문이지만, 개방형 질문과 같은 보다 더 고차원적인 질문의 의미도 교육에서 중시되어야 한다는 의견도 논의되었다. 또한 생성형 인공지능에게 원하는 대답을 얻어내기 위해서는 인공지능과의 관계 설정과 대화형 질문의 연속과정이 중요하다는 의견도 있었다. 학습자의 학습과정과 생성형 인공지능을 활용하는 과정이 매우 유사하며, 학생들에게 좋은 질문을 하게 하는 발문형 질문의 필요성이 중요하다는 의견도 개진되었다.

두 번째 주제인 인공지능의 편향성 내지 할루시네이션[4]문제의 해결 방법에 대해서도 에이아이(AI)와 에티켓을 합성하여 에이아이켓이 필요하다

는 주장, 생성형 인공지능의 결과물에 대한 크로스체크의 필요성과 비판적 사고력 함양을 위한 새로운 콘텐츠의 생성, 생성형 인공지능의 오류 가능성에 대한 인지의 중요성 등이 논의되었다.

현장 사례 발표

AI 활용 수업 사례 소개

교육 현장의 사례 발표에서 이세진 선생은 다양한 인공지능을 활용한 동시 쓰기 및 연산 관련 AI 개별화 수업 사례를 통해 기존에 교과 교육 분야에서 연구된 수업 모형이나 기법이 인공지능과 결합될 때의 융합 효과에 대한 분석, 교과별 활동에 대한 프롬프트 엔지니어링의 개발, 인공지능 챗봇의 외모에 대한 고려, 게임화 효과에 대한 방안 연구 등의 필요성을 제안했다. 윤진욱 대표는 교사에게는 수업 준비 외 교원 업무 경감, 학생들에게는 개인별 진로지도 프로그램을 적용한 자기주도학습을 통해 인공지능이 교사의 교육권과 학생의 학습권을 보장해줄 수 있으며, 지능형 학생·학업 관리 시스템 도입의 필요성을 주장했다. 1단계 지능형 학업관리 시스템, 2단계 학생 데이터 분석관리, 3단계 학생 맞춤형 학업 제시에 적절한 인공지능 툴을 도입해 인공지능 교육 시대에서 교육 데이터와 큐레이션을 통해 학습자에게 필요한 개인별 맞춤형 교육이 실현돼야 함을 강조했다.

이 포럼은 교육 현장에서 디지털 기술과 AI를 활용할 때 윤리 및 정보 보호 측면에서 그리고 교육 데이터 측면에서 당면한 과제를 알아보고 그 해결 방안에 대해 다양한 고민이 논의되었던 장이다. 이 포럼에서 발표된 정책적 측면, 이론적 측면, 실제적 적용 사례가 잘 어우러져 미래 교육의 비전이 제시되었고, 미래 교육에서 AI 역량, AI 윤리와 AI 리터러시의 중요성을 다시 한번 살펴보는 중요한 의미를 갖는 포럼이었다.


[1] AIDT(AI 디지털교과서)는 Artificial Intelligence Digital Textbook의 약자로, 학생 개인의 능력과 수준에 맞는 다양한 맞춤형 학습 기회를 지원할 수 있도록 인공지능을 포함한 지능정보화기술을 활용하여 다양한 학습자료 및 학습지원 기능 등을 탑재한 교과서를 의미하며 2025년도부터 도입 예정이다.(교육부 보도자료. 2023.06.08)

[2] 범용인공지능(General purpose AI)은 대규모 자기감독(self-supervision)을 사용하여 대량의 데이터로 훈련된 경우를 포함하여 상당한 일반성을 가지고 시장에 출시되는 방식에 관계없이 다양한 고유의 작업을 유능하게 수행할 수 있고 다양한 시스템이나 앱에 통합될 수 있는 인공지능 모델로 정의된다. EU의 AI법에서는 범용AI에 대해 제한된 위험군AI와 마찬가지로 투명성 의무를 준수하는 등 별도 규제를 마련하고 있다.(EU AI Act. 2024.03.13)

[3] 인공지능교육(AIED)이란 Artificial Intelligence in Education의 약자로 학습자의 학습만족도 및 성취도를 증진하기 위한 목적으로 인공지능 기술을 교육적 맥락에서 활용하는 것을 의미한다(서경원 외, 2022, 이가영 외, 2023 재인용). AIED는 매우 광범위한 개념으로 인공지능에 대한 학습(Learning about AI)과 인공지능과 함께하는 학습(Learning with AI)으로 구분될 수 있다(이가영 외. “인공지능(AI)기반 대학 학습보조시스템 활용방안 연구”, 「연구보고 CR 2023-05」 한국교육학술정보원)

[4] 할루시네이션(Hallucination)은 환각 또는 망상 등으로 불리며, AI가 생성한 정보에 허위 또는 날조된 정보가 포함되는 현상을 뜻한다. 챗GPT에 질문을 했는데 역사적 사실을 왜곡하거나, 이미지 생성 시 현실 법칙에 위배된 이미지 등을 제공하는 것이 대표적 영향이다.(남시현.“[IT강의실] 생성형 AI의 최대 난제, ‘할루시네이션’”, 《동아일보》, 2024.03.29. https://www.donga.com/news/It/article/all/20240329/124227094/1