격월간 한류동향 심층분석보고서 <한류NOW>
한류포커스
한류 생산지형의 동학 - 창의적 생산자를 말하며

Focus 3

웹툰 인공지능 시대, 웹툰작가에게 필요한 것

어딜 가나 인공지능은 가장 뜨거운 주제다. 인공지능 시대의 고민들을 요약하자면 ‘잘 모르는 것에 대한 두려움’이나 ‘너무 빠른 발전 속도에 대한 경계심’에 가깝다. 그러나 인공지능의 실체는 ‘우리가 만들어 낸 기술’이라는 점에 있다. 이번 칼럼에서는 인공지능 기술과 그 우려들, 그리고 해외의 반응을 역사 속 기술 발전 이후의 사례들을 통해 살펴보고, 인공지능 시대를 준비하기 위해서는 웹툰작가에게 어떤 것들이 필요한지 짚어본다.
이재민 한국만화문화연구소장
어딜 가나 가장 뜨거운 주제는 인공지능이다. 식사 자리에서도, 술자리에서도, 커피 한잔하는 자리에서도 인공지능 하나면 한 시간은 뚝딱이다. 개발자가 있건 없건, 인공지능이 우리를 어디로 데려다 놓을지에 대해 얘기하다 보면 절망 편, 희망 편을 거쳐 현자들이 줄지어 생겨난다.
인공지능에 의해 대체될 가능성이 작아 보였던 창작계는 비상이다. 2022년 미드저니(Midjourney)와 노벨AI(Novel AI)와 같은 인공지능 이미지 생성 프로그램 등장이 준 충격의 여파는 지금까지도 유효하다. 길면 한 달, 짧으면 2주 안에 ‘최신 버전’이 갱신되는 인공지능 시대에 반년 짜리 충격파가 유지되고 있다는 건, 그 파급효과가 얼마나 컸는지를 반증한다.
그만큼 인공지능이 우리 삶 깊숙이 파고들면서 인공지능에 대해 진지한 고민이 필요하다는 주장이 나오고 있다. 단순히 핵이나 무기체계처럼 그 자체가 위험한 기술이어서가 아니다. 인간이 쌓아 온 문명 체계에 대한 실질적인 위협이라는 주장까지 나오고 있다. 인간이 쌓아 온 기술문명이, 기술에 의해 사라질 수도 있다는 주장은 어쩐지 섬뜩하다.
1. 인공지능에 대한 우려들
이렇게 인공지능에 대한 많은 우려는 인공지능이라는 키워드 자체가 아니라, 그 발전 속도와 불확실성에 대한 공포에서 나온다. 미드저니와 노벨AI는 물론 스테이블 디퓨전(Stable Diffusion)과 같은 인공지능들은 우리의 상상을 아득히 뛰어넘는 속도로 발전하고 있다. 특히 ‘그렇게 잘 그려도 손가락 하나 제대로 못 그리지 않느냐’1)는 비판을 듣던 미드저니는 올해 초 버전5(Midjourney V5)를 내놓으면서 손과 손가락에 대한 논란을 불식시켰다. 일반 대중에 미드저니가 알려지기 시작한 지 수개월만의 일이었다.
인공지능에 대한 우려 중에서 창작계가 느끼는 가장 구체적인 우려는 저작권 침해에 대한 우려다. 인공지능이 학습하려면 데이터가 필요한데, 작가의 동의 없이 또는 플랫폼이 자신의 지배적인 위치를 활용해 강제로 데이터를 수집할 때 인간이 그것을 막을 수 있느냐는 의문이다. 특히 누군가의 그림을 얼마만큼 활용했는지 수치로 정확하게 계산하기 아주 어렵다는 점이 인공지능 기술의 약점이자 우려할 지점으로 꼽힌다.
1)이미지 생성 인공지능(AI) ‘미드저니’는 한두 문장의 입력만으로도 전문적인 그림을 유려하게 그려내는데, 유일하게 인간의 ‘손’만은 제대로 묘사하지 못한다는 점이 꾸준히 지적돼 왔다. (편집자주)
  • AI 이미지 생성 프로그램 미드저니(출처:Unsplash)

물론, 오픈AI(OpenAI)처럼 오픈소스(Open Source·누구나 공개적으로 프로그램에 접근할 수 있고, 수정하고 공유할 수 있는 분산형 프로덕션 모델)로 인공지능을 공개하는 경우도 있다. 이 경우에는 챗GPT처럼 누구나 사용할 수 있는 프로그램이 ‘공적 사용을 위한 데이터’로 수집된 데이터만 활용하고 있는지 살펴보면 된다. 완전히 엄밀하진 않지만, 인공지능에게 준 기초 데이터의 저작권 침해 여부를 확인해 보면 된다는 얘기다.
그러나 문제는 구글, 애플, 네이버, 카카오와 같은 플랫폼 기업이다. 이들이 회원가입 약관에 ‘당신이 업로드하는 모든 데이터와 활동이 인공지능 학습에 사용될 수 있다’는 내용을 적어놓는다면 이야기는 조금 달라진다. 회원가입을 안 하면 일상생활이 불가능한 수준의 플랫폼이 내 활동을 인공지능에 사용하고 그걸로 학습해, 나에게 다른 서비스를 판매하려고 한다면? 여기부터 이야기가 복잡해진다.
그렇게 만든 인공지능을 유료로 판매한다면 그 인공지능이 뛰어난 결과를 낼 수 있게 일조한 사람들의 데이터는 어떻게 보상받는가? 일단 이 문제가 가장 직접적이다. 어떤 데이터를 어떻게 수집했는지 명확하게 밝혀지지 않은 상황에서 ‘상업적 판매’를 허가한다면, 창작자들이 우려하는 최악의 시나리오가 펼쳐질 수도 있다. 그림을 비롯한 창작의 가치가 ‘0’에 수렴하게 되는 것이다.
테슬라의 CEO 일론 머스크, <사피엔스>의 저자 유발 하라리, 애플의 공동 창업자 스티브 워즈니악 등은 “인공지능 기술 개발을 6개월 만이라도 멈춰야 한다”며 인공지능에 대한 우려를 강력하게 표명하기도 했다. 물론, 우려는 우려에서 끝났다. 기술은 지금, 이 순간에도 발전 중이다. 이를 대변하는 것이 마이크로소프트의 창업자 빌 게이츠다. 게이츠 회장은 “인공지능 개발이 주는 순기능이 역기능보다 크다”며 기술 개발을 지지했다.
  • 오픈AI(OpenAI)가 2022년 11월 공개한 대화 전문 인공지능 챗봇 ‘챗GPT’(출처: 셔터스톡)

2. 다른 나라들은 어떻게 대응하고 있나
민간에서 이렇게 갑론을박이 오가는 동안 EU에서는 2023년 3월 초 인공지능 법 (AI Act) 초안 작성을 위한 ‘인공지능 정의(definition)’ 규정과 관련된 합의를 도출하는 데 성공했다. ‘정의’를 ‘합의’했다니 이게 무엇이 중요한가 싶지만, 제도권에서 무엇을 ‘인공지능’이라고 부르기로 했는지 합의했다는 점에서 큰 의미가 있다. 인공지능은 아주 낮은 수준에서 인간이 입력하는 글을 균일한 글씨로 출력해 주는 워드프로세서 기능을 포함해 인간의 일을 돕는 수많은 보조적인 도구 기능까지 다양하게 이를 수 있기 때문이다.
EU 대표단은 인공지능을 “다양한 수준의 자율성으로 작동하도록 설계된 기계 기반 시스템”이라 정의하며, “명시적, 또는 암시적 목표를 위해 물리적, 또는 가상 환경에 영향을 미치는 예측, 권장 사항 또는 결정과 같은 출력을 생성할 수 있다”(Bertuzzi, 2023. 3. 9)고 보았다. 간단하게 정리하면 단순히 인간이 입력한 것을 그대로 출력하는 수준이 아니라, 거기에 인간이 기대하지 않은 답까지 해 줄 수 있는 모든 기계적 도구를 부르는 말이다.
예를 들어 계산기에 ‘10+15=?’을 입력하면 당연히 25를 출력해 줄 것이다. 그리고 계산기는 계산이 복잡하긴 해도, 입력한 것 그대로를 계산해서 출력해 준다. 단지 그 역할만 할 뿐이다. 워드프로세서 역시 글을 입력하는 사람이 키보드에 입력하는 글을 그대로 표시하고, 때로는 프로그래밍한 대로 기계적인 수정을 제안한다. 그러나 챗GPT에게 “여행지에서 방문할 명소 5곳을 추천해줘”라고 물어보면 입력하는 사람이 기대하지 않았던 장소들을 추천한다. 이런 의외성, 예측과 추천, 그리고 그런 결정을 대신 내려주는 출력 도구가 인공지능이라는 말이다.
이탈리아는 2023년 4월 1일부로 챗 GPT 접속을 차단하고, 인공지능에 개인정보 침해 우려가 있는지 조사에 나섰고, 독일과 프랑스, 아일랜드 역시 차단 여부를 논의 중이다. 물론 여기에는 인공지능 자체에 대한 우려도 있지만, 미국과 중국과의 관계와 같은 정치·지리적 입장이 포함됐다는 분석도 있다. 그러나 인공지능을 제도권에 편입시키고 ‘확인할 수 있는’ 방법으로 다뤄야 한다는 보수적인 입장이 유럽에서 논의 중인 내용이라고 볼 수 있다.
현재의 인공지능은 크게 1) 지도학습, 2) 비지도학습, 3) 강화학습 세 가지 모델로 구분되는데, 지도학습은 ‘사과’의 이미지를 많이 보여준 다음에 ‘어떤 것이 사과인지’를 맞추는 모델이다. 사람이 학교에서 공부하는 것과 비슷하다고 볼 수 있다. 반면 비지도학습은 엄청나게 많은 데이터를 입력해 두고 “이 중에서 사과를 찾아와”라는 문제를 낸다. 인공지능은 ‘정답’에 가까울 확률이 높은 이미지를 계속해서 제시하면서 어떤 것이 사과인지 알아보는 능력을 키운다.
강화학습의 경우 직접 부딪혀 보며 학습하는 결과에 가까운데, 말하자면 어떤 규칙이나 데이터도 제공하지 않고 그냥 무언가를 직접 그려보면서 계속 제시하다가 ‘이렇게 생긴 것이 사과구나’를 스스로 학습하게 만드는 방법이다. 이 세 과정 모두 논리적으로 명백하고 명쾌한 해답이라기보다, 반복 학습을 통해 가장 높은 확률을 추론하는 것에 가깝다. 따라서 ‘어떤 논리적 구조를 거쳐 이것이 사과임을 알아냈다’는 것을 명확하게 규명하기 어렵다. 추론과 확률에 따라 해답을 계산해냈기 때문이다. 인공지능에 의한 저작권 침해 문제를 명쾌하게 설명하기 어려운 것도 이 때문이다. 결과를 도출해내는 구조를 모두 규명할 수 없는 상태라면, 이 인공지능이 어떤 위반을 저질렀더라도 심증은 있되 물증은 없는 상황이 벌어질 수 있다.
이러한 상황에서 보수적인 입장을 취하는 것이 유럽이라면, 미국과 일본은 보다 전향적으로 “설명 가능한 인공지능”을 만들자는 주장을 제기하고 있다. 현재의 인공지능은 어떻게 그런 결과를 냈는지 ‘알 수 없기’ 때문에, 인공지능이 어떤 논리적 구조를 거쳤는지 시작점부터 결과까지 확인할 수 있는 인공지능을 개발하자는 논의다. 물론, 여기까지 가기에도 아직 갈 길이 멀다는 점이 약점으로 꼽힌다.
3. 무엇을 대비할 것인가
그럼 우리는 무엇을 대비하고, 무엇을 막거나 규제할 것인가? 먼저 약 120년 전으로 돌아가 보자. 사진기가 막 세간에 알려지면서 엄청난 충격을 줬다. 회화를 그리던 사람, 삽화를 그려 먹고 살던 사람들은 자신들의 시대가 끝났다며 절망했다. 그러나 실제로는 그렇지 않았다. 삽화가와 화가들은 ‘사진이 할 수 없는’ 일에 몰두했다. 그렇게 탄생한 작품 중 하나가 만화 역사에서 초기의 대가로 꼽히는 윈저 맥케이(Winsor McCay)의 <리틀 네모(Little Nemo)>다.
  • 미국 만화가 윈저 맥케이가 1905년부터 1926년까지 신문에 연재한 만화 <리틀네모(Little Nemo)> (출처: 셔터스톡)

1940년대 후반, TV가 보급될 당시 미국 브로드웨이와 함께 신규 시장으로 폭발적인 성장을 이룬 할리우드 역시 끝났다는 이야기가 나왔다. 그러나 그렇지 않았다. 1940년대 뮤지컬계와 영화계를 주름잡았던 슈퍼스타 프랭크 시나트라(Frank Sinatra)는 최초의 TV 스타이자 반항아인 엘비스 프레슬리(Elvis Presley)의 등장 이후 한물갔다는 평가를 들었지만, 아티스트로 각성한 1970년대에는 <New York, New York>과 <My Way>를 남기며 영원한 슈퍼스타임을 증명했다. 그리고 2000년대, 인터넷의 보급 이후에는 ‘레거시 미디어(Legacy Media·전통 언론사)’의 시대는 끝났다는 말이 팽배했지만, 오히려 정보가 범람하며 뉴스 큐레이션과 믿을 수 있는 정보를 다루는 전문가들의 가치는 더 올라가고 있다.
물론, 엑셀이 등장하며 주판의 시대를 완전히 끝내버린 것처럼 어떤 기술은 한 시대를 완전히 역사 속으로 자취를 감추게 할 수도 있다. 그러나 지금까지 대중적인 인기나 신뢰를 얻었던 사람들은 기술의 발전으로 사라지지 않았다. 잘생긴 가수에서 음악을 다루는 아티스트로 성장한 프랭크 시나트라는 엘비스 프레슬리를 지나 마이클 잭슨의 시대에도 엄청난 영향력을 가진 스타로 남았다. <리틀 네모>의 윈저 맥케이는 이후 만화라는 세계에 지대한 영향을 끼쳤다.
여기에 필요한 건, 결국 창의력을 회복할 수 있는 여유와 공간이다. 인공지능이 가장 뜨거운 지금, 미국 작가조합(WGA, Writers Guild of America)에서 인공지능 활용에 대한 5대 원칙을 밝혔다. WGA가 밝힌 5대 원칙은 1) AI는 도구이며 창작자가 아니다, 2) AI는 작가로 인정될 수 없다, 3) AI가 생성할 때 광범위한 표절이 포함되므로 저작권을 인정할 수 없다, 4) AI 생성 작품은 ‘원천 자료’로 인정받지 못한다, 5) AI가 쓴 스토리에 인간이 창작을 붙인다면 크레딧을 받을 수 있다. 총 다섯 가지다.
  • 미국 작가조합(WGA)은 인공지능 활용에 대한 5대 원칙을 밝혔다. (출처: 셔터스톡)

이 다섯 가지가 가리키는 방향은 명확하다. 인공지능이 어떤 일을 할 수 있건 말건 그와 상관없이, 인간 작가의 역할을 대체할 수 없을 것이라는 선언이다. 누군가는 편법을 쓰고 싶어 할지라도 WGA 내에서는 그걸 용납하지 않겠다는 선언은 어떻게 보면 자신감의 표현이다. WGA는 할리우드를 멈출 수 있는 몇 안 되는 조합이기 때문이다.
반면 웹툰은 어떨까? 웹툰작가들은 아주 파편화돼 있다. 가장 먼저 필요한 건 이 작가들에게 ‘웹툰작가’라는 동류의식을 만드는 과정이다. 물론 그건 정책보단 작가들 본인에게 필요한 제언이다. 다만, 인공지능 기술을 ‘또 다른 착취 도구’로 생각할 누군가, 바로 그 사람을 막기 위한 제도적 장치가 필요하다.
한국콘텐츠진흥원의 「2022년 웹툰작가 실태조사」에 따르면 웹툰작가는 1주일간 6일에 가깝게 매일 10시간씩 작업하고 있다. 이런 상황에서 인간을 풍요롭게 하는 창의성은 일회용으로 불타버리고 말 것이다. 여기에 인공지능을 통한 착취가 더해진다면, 인간은 인공지능을 위해 쓰고 버려지는 도구가 될 가능성도 없다고 할 수는 없다. 결국 인공지능을 활용해 웹툰작가들의 작업시간을 줄이고, 인간의 창의성이 발휘될 수 있는 여유로운 회복시간을 줄 수 있는 정책적 테두리가 필요하다.
인공지능 시대에 필요한 고민은 오히려 인간에 대한 고민이다. 소위 ‘검정고무신 사태2)’의 재발을 막고, 비인간적인 작업시간을 줄이기 위한 도구로서 인공지능 기술을 접목시키고, 작가들이 창의성을 발휘할 수 있게 회복시간, 즉 물리적・시간적 여유를 줄 수 있는 제도를 고민해야 한다.
인공지능이라는 기술을 막겠다는 건, 바닷가의 파도를 손으로 막겠다는 것과 같다. 하지만 인간은 파도를 통해 전기를 생산하는 파력발전을 만들어 내기도 한다. 그렇게 오고 가는 파도를 이용해 누구보다 창작자가, 인간인 작가가 창의력을 발휘할 다음 기회를 만들 수 있게 되기를 기대한다.
2)<검정고무신>의 이우영 작가가 ‘사업에 필요하다’는 말에 저작권을 출판사에 양도한 뒤, 해당 출판사는 관련 사업을 70건이 넘게 벌였다. 그러나 원작을 그린 작가들은 이에 대해 제대로 된 보상을 받지 못했고, 수년간 소송전에 시달리다 지난 2023년 3월 스스로 목숨을 끊었다.
참고문헌
Bertuzzi, Luca (2023. 3. 9). “EU Lawmakers set to settle on OECD definition for Artificial Intelligence”. Euractiv. URL:https://www.euractiv.com/section/artificial-intelligence/news/eu-lawmakers-set-to-settle-on-oecd-definition-for-artificial-intelligence/
한국콘텐츠진흥원 (2022). 「2022년 웹툰작가 실태조사」.