최종 책임은 이용자 몫…결론은 역시 ‘문해력’

2024. 2. 21. 10:00특집

생성형 AI의 법·윤리적 쟁점과 해결 방안

written by. 정채연 (포항공대 인문사회학부 교수)

 

 
 

 

 

 

앞으로 생성형 AI는 예술 창작이나 교육 등 인간 생활의 많은 영역에서 폭 넓게 사용될 것이다.
그렇다면 이렇게 만들어진 콘텐츠에 대한 저작권은 누구에게 있는가?
또는 그 콘텐츠에 거짓이나 오류가 있을 때 책임은 어디에 귀속되는가?
생성형 AI를 둘러싼 법적‧윤리적 쟁점과 해결 방안을 고민해본다.
 
 

 

예컨대 “생성형 AI로 작성한 결과물의 진실성 및 정확성을 사람이 확인했다”는

명시적인 고지 의무를 부여하자는 주장은 인공지능을 통해 생성된 콘텐츠에 대한

종국적인 책임을 확정하기 위한 논의의 연장선에 놓여 있다고 할 수 있다.

 

 

  오픈AI사의 챗GPT로 대표되는 생성형 AI의 등장으로 인공지능 담론이 새로운 지평에서 전개되고 있다. 생성형 AI는 이용자의 요구에 따라 결과를 생성해 내는 인공지능 기술인데, 대규모의 데이터를 바탕으로 구축된 언어 학습 모델을 통해 단어들 사이의 관계와 문장의 의미 맥락을 학습하고 특정한 단어 다음에 위치할 적절한 단어를 통계적·확률적으로 예측 및 추론한다. 2016년 이세돌 9단과 구글 알파고의 바둑 대국이 이루어진 이후 인공지능의 법·윤리적 쟁점에 대한 논의 역시 상당 기간 축적되어 발전해 왔다. 그렇다면 생성형 AI의 시대에 새로운 과제는 일반 AI와 구별되는 생성형 AI의 독자적인 특이성을 구체화하고 기존의 관련 논의에서 이러한 차이점을 반영하는 일이 될 것이다.

주체의 ‘확장’과 책임의 ‘확정’ 

  먼저 생성형 AI가 주도하는 시대 상황적 환경과 거시적 맥락에 대해 언급할 필요가 있다. 흔히 말하는 4차 산업혁명은 3차 산업혁명인 정보화사회가 심화·발전한 지능정보사회로 이해하는 것이 바람직하다. 정보화사회에서 지능정보사회로 나아가는 과정은 디지털화, 디지털 전환, 그리고 디지털 심화로 설명될 수 있다. 생성형 AI를 비롯한 지능정보기술이 이끌게 될 디지털 심화 시대는 인간의 행동 및 판단을 대체하거나 보조하는 기존의 인공지능에서 더 나아가 인간과 기술이 상호 공존하고 상호 작용하는 환경을 전제로 한다. 이러한 디지털 심화 시대의 환경 변화는 생성형 AI에 대한 앞으로의 규율 방향성을 설정하는 데도 반영되어야 할 것이다. 이러한 맥락에서 생성형 AI는 인간과 인공지능의 관계를 재설정하도록 요청한다.

본래 기존의 인공지능 관련 논의에서 사용되는 ‘자율성’ 개념은 “인간의 개입 없이 이루어지는 자동화된 의사 결정”으로 정의되어 왔으며, 이때 인간과 인공지능의 개입은 반비례적 관계에 서 있다고 할 수 있다. 이러한 점은 자율주행 자동차의 운행에 있어서 운전자와 자율차의 관계에서 잘 나타난다. 이에 비해 생성형 AI는 인간과 인공지능의 협업적 관계가 강조된다고 하겠다. 예컨대 챗GPT의 상용화가 중요한 화두로 떠오르면서 초기 대학가에서는 리포트 표절 등 부정행위에 대한 우려로 각 대학이 대응책을 마련하느라 분주했지만, 최근에는 인간과 인공지능의 공존을 전제로 하는 디지털 심화 시대에 발맞추어 챗GPT를 비롯한 생성형 AI를 적극적으로 활용하도록 하는 교육 방침의 변화가 관찰되기도 한다. 곧, 앞으로는 생성형 AI를 활용해 다양한 콘텐츠를 만들어내는 일이 자연스럽게 받아들여지는 사회가 될 것이다. 따라서 콘텐츠 생성 과정에서 이용자의 지시 및 통제 등 인적 개입이 강조되며, 이러한 역량을 배양하는 것이 교육의 주된 목표가 되어야 한다는 입장이다.

  이는 인공지능을 둘러싼 법 담론에서 주체와 책임에 대한 중요한 함의를 갖는다. 먼저 생성형 AI 시대에 인공지능 개발자 및 운영자, 그리고 이용자를 비롯해 다양한 주체들이 상호 작용하게 될 것이고, 이때 특히 ‘이용자’의 참여적 개입과 이에 따른 이용자 윤리가 더욱 강조될 것이다. 또한 인간과 인공지능의 개입이 혼종함에 따라 각각의 역할을 날카롭게 구별하기가 점점 더 어렵게 된다. 이로 인해 결과에 대한 예측 가능성과 권리 침해 사이의 인과관계 등을 입증하고 이에 대한 책임을 귀속시키는 일 역시 어려워질 전망이다. 다시 말해, 인간과 인공지능의 협업 및 분업이 일상적이고 정상적인 현상으로 자리매김하게 될 것이며, 이와 동시에 그 결과에 대한 책임의 공백 사태가 없도록 엄격한 책임 귀속이 요청된다. 곧, 주체는 ‘확장’되고 책임은 ‘확정’되는 것이 중요한 법·윤리적 쟁점이자 과제가 될 것이다.

인간의 창작만 저작권 인정 

  주체의 확장과 관련해 특히 저작권과 관련된 사례를 소개해볼 수 있다. 2022년 9월 만화책 《여명의 자리야(Zarya of the Dawn)》의 창작자는 해당 만화의 삽화가 이미지 생성 AI를 이용해 만들었다는 사실을 밝히지 않은 채 미국 저작권청에 저작권을 등록했다. 이후 해당 사실을 알게 된 미국 저작권청은 2023년 2월 기존의 저작권 등록을 취소한 뒤 “인간에 의해 창작된 부분의 저작권만을 인정”할 방침임을 밝혔다. 곧, 해당 사안의 경우 이미지를 제외한 만화 콘텐츠는 인간의 창작물이므로 보호된다는 의미다. 다만 인공지능이 생성한 결과물을 포함하여 콘텐츠를 창작하는 활동이 일상화·정상화된다면, 인간이 창작한 부분만을 특정해 저작권법으로 보호하는 것이 현실적으로 가능할지에 대해서는 의문이 든다. 이러한 의문의 연장선에서 ‘인간의 사상 또는 감정을 표현한 창작물’이라는 저작물의 개념 정의 및 범위 안에 인간 자신의 고유한 독창성, 인격, 개성을 투영하여, 특정한 콘텐츠를 생산할 의도로, 일정한 노력을 기울여 인공지능을 활용해 생성한 창작물을 포함할 수 있지 않을까에 대한 고민을 하게 된다.

  이렇듯 인공지능과의 협업적 형태의 창작 행위가 주체의 확장·연장과 관련된다면, 생성형 AI를 통해 만들어진 콘텐츠에 대한 종국적 책임은 이를 활용한 인간에게 확정되어야 한다는 점을 강조하는 사례도 제시해볼 수 있다. 2023년 4월, 뉴욕주의 한 변호사는 여객기의 승객이었던 의뢰인이 해당 항공사를 상대로 제기한 소송을 대리하면서 법원에 관련 서류를 제출했다. 제출 서류에는 의뢰인의 사건과 유사한 판례 정보가 담겨 있었는데 항공사 측 변호인단은 최소 6건의 판례가 거짓, 곧 챗GPT에 의존해 작성한 것으로 보인다는 의혹을 제기했다. 법원은 이러한 사실을 확인한 후 해당 변호사에 대해 변호사 윤리법 위반 및 징계 여부를 결정하는 절차를 진행했다. 이 사례에서도 발견되는 생성형 AI의 ‘환각(hallucination)’은 생성형 AI를 활용한 결과물에 있어서 최종 이용자(end-user)의 윤리 및 역할을 강조하고, 이와 동시에 이용자인 인간에게 종국적 책임을 귀속시켜야 하는 당위성을 잘 설명해준다. 생성형 AI는 입력된 질문에 대한 학습 데이터가 충분하지 않을 때 사실과 다른 답변을 하거나 거짓과 진실을 혼합하여 부정확한 정보를 제공하게 된다. 이러한 환각 현상은 개발자 및 운영자의 지속적인 오류 교정과 이용자의 자발적인 피드백을 통해 그 빈도가 낮아질 수는 있지만, 이 역시 근본적인 제거·해소가 아닌 완화에 그친다고 할 수 있다.

 

 

이용자의 디지털 리터러시 중요 

  이렇듯 생성형 AI가 만들어낸 결과물의 진실성을 담보할 수 없다는 사실은 생성형 AI 활용 시 그 결과에 대한 책임의 공백이 없도록 인적 책임을 강조해야 할 필요성을 제기한다. 특히 개인의 법적 권리에 중대한 영향을 미치는 공적 절차에서 생성형 AI가 활용된 경우, 예컨대 “생성형 AI로 작성한 결과물의 진실성 및 정확성을 사람이 확인했다”는 명시적인 고지 의무를 부여하자는 주장은 인공지능을 통해 생성된 콘텐츠에 대한 종국적인 책임을 확정하기 위한 논의의 연장선에 놓여 있다고 할 수 있다.

  이렇듯 결과에 대한 종국적 책임을 이용자가 지도록 해야 한다는 점에서 이용자의 디지털 리터러시, 곧 문해력에 대한 정책적 고려 역시 요청된다고 할 수 있다. 위의 사례에서 해당 변호사는 챗GPT를 활용해 문서를 작성했다는 사실을 인정하면서도 자신의 행동에 고의가 없었다면서 선처를 호소한 바 있다. 그는 이전에 챗GPT를 이용해본 경험이 없고, 챗GPT가 거짓된 정보를 제공할 수 있다는 사실을 알지 못했으며, 해당 판결의 진위 여부를 챗GPT에게 물었을 때 “그렇다”고 답변했다는 해명을 내놓았다. 생성형 AI에 대한 책임 있는 윤리적 활용이 이루어지기 위해서는 이에 대한 정확한 이해가 필요하다는 점을 잘 설명해주는 사례라고 할 것이다. 특히 생성형 AI의 상호 작용이 일상화되는 디지털 심화 시대에서 인공지능 거버넌스는―인공지능 개발자 및 운영자, 그리고 이용자의 자율적 점검 및 규율을 바탕으로 하는―자율규제의 방향성으로 나아가게 된다는 점을 고려할 때에도 이러한 문해력은 중요한 의미를 갖는다고 할 수 있다.

  현재 우리나라의 플랫폼 규제 논의는 기업의 자율 규제를 보장하고 지원하는 정책을 마련하는 방향으로 이루어지고 있다. 자율 규제 방안을 마련하기 위해 2022년 8월 플랫폼 민간 자율기구를 출범했으며, 2023년 5월에는 발표회를 열고 자율 규제 방안을 발표했다. 이제까지 우리나라에서 온라인 플랫폼의 자율 규제는 대부분 기업의 경쟁력을 유지해야 한다는 논리에 따라 산업계를 중심으로 옹호되어 왔다. 디지털서비스법은 시장 촉진의 목적을 가지고 있기도 하지만, 유럽연합 회원국 시민의 기본권 보호를 최우선으로 한다. 온라인 플랫폼은 경제 활동만을 위한 공간이 아니며, 시민의 다양한 의견이 표출되고 공유되는 공적 공간으로서도 기능한다. 자율 규제의 원칙과 이행이 시장의 소비자로서만이 아닌 시민으로서의 이용자 기본권 보호를 포함하는지에 대한 평가와 성찰이 요구된다.

 

 

본 원고는 한국언론진흥재단의 정부광고 수수료를 지원받아 작성되었습니다.

↓↓ 자세한 내용은 링크를 통해 확인해주세요. ↓↓

한국언론진흥재단 (kpf.or.kr)

 

한국언론진흥재단

이 페이지에서 제공하는 정보에 대하여 어느정도 만족하셨습니까? 관리자의 답변이 필요한 의견은 고객의 소리 게시판을 이용해 주시기 바랍니다.

www.kpf.or.kr