인간 편집자와 ChatGPT — 출판을 위한 편집 작업이 필요할 때 진정 신뢰할 수 있는 선택지는?
원고 편집에 ChatGPT를 이용하는 행위는 학문적 평판을 파괴할 수 있다!
- ChatGPT는 올바른 인용 및 참고 문헌 기재 의무 경시 행태를 절대적으로 옹호한다. 그 모든 성가신 학문적 관례를 너무나 다행스럽게도 완전히 무시해 주는 인공지능(AI) 언어 모델이 있는데, 구태여 출처가 따로 있음을 알리고 정당한 주체에게 공을 돌릴 필요가 있을까? 학문적 충실성이여, 잘 가게!
- 완전히 낡아버린 정보를 제시하는 ChatGPT의 비범한 능력도 잊지 말자. 2021년에서 딱 멈춘 지식만 믿고 의지해도 충분한데 최신 연구와 첨단의 예리한 통찰이 왜 필요할까? 과거에서 시간 여행을 오신, 실제 전거(典據)를 알 수 없는 지혜로만 무장하신 학자를 옆에 둔 것과 마찬가진데 말이다.
- 그냥 기술도구의 하나로, 인터넷에서 공개적으로 접근할 수 있는 모든 데이터를 요약해 주는 것일 텐데, 그게 OpenAI가 불법적으로 가져와서 약간 다른 방식으로 보여주는 것으로 추정될 뿐.
- 분야별로 독특한 요건에 대한 미묘하고 함축적인 이해? 그런 것이라면 ChatGPT가 더할 나위 없이 즐겁게 무시할 수 있다. 분야 특유의 문체가 되었든, 어조가 되었든, 심지어 기본 원리라 할지라도 ChatGPT는 분야별 고유 지식이 완전히 결여된 콘텐츠를 생산할 것임을 믿어도 된다.
여전히 학술 저작물의 편집에 ChatGPT를 사용하고 있다면 저자의 작품이 바탕에 깔고 있는 의미와 의도를 이해하지 못하는 능력 역시 걸출하다는 점을 기억할 필요가 있다. 개성적 표현이나 독특한 문체에는 작별을 고하자. ChatGPT가 모든 작품을 몰개성적이고 무감동한 창작물로 바꿔 줄 테니까. 개성과 지적인 독자성을 필요로 하는 사람이 어디 있을까?
이는 의견에 근거한 주장이 아니라 필자가 학술 저술인으로서 직접 경험한 것이다. 다음은 학술 저작물의 편집에 관한 한 ChatGPT가 얼마나 완벽한 재앙인지, 그리고 사람이 직접 편집하는 것만이 효율적이고 실수와 오류가 없는 학술 편집을 보장하는 유일한 방법인지 명확히 보여주는 두 가지 예시이다.
ChatGPT와 사람의 편집 결과물 비교
예시
원문
ChatGPT의 편집
사람(Enago 에디터)의 편집
오류 설명
ChatGPT는 글을 거의 다시 고쳐 쓰면서 원문에 없는 새 텍스트를 일부 추가했다. 이 경우 저자의 목소리 자체가 바뀌었으며 중복된 정보가 더해지면서 저자가 의도한 맥락이 바뀔 수 있다. 그러나 인간 편집자는 불필요한 텍스트를 추가하지 않고 저자의 목소리를 그대로 유지하면서 올바른 정보가 전달되도록 글을 편집했다.
열심히 노력한 연구의 결과가 정확히 전달되지 않는다면 무슨 소용이 있을까?
또한, ChatGPT는 웹에서 끌어온 방대한 데이터로 훈련을 받았기 때문에 사회적으로 통용되는 편견을 더욱 확대하여 의도치 않게 학술적 결과물을 편향되고 일방적인 내러티브로 바꿔 놓을 수 있다. ChatGPT가 사회의 고정 관념을 강화할 때 비판적 분석이 설 자리가 있을까?
물론, 효율적이지 않지만 빠르기는 하고, 평판을 대가로 치를 수 있으나 당장 돈이 안 들고, 단조롭지만 일관되고, 분량의 증감에도 쉽게 대처할 수 있다. 그러나 여러 소송에 휘말리기 쉬운 AI 모델에 사업적 규모의 결정을 맡기는 위험을 기꺼이 감수할 사람이 누가 있을까?
어쨌든 ChatGPT는 일을 제대로 하지 않기 때문에 그것이 인간 편집자를 대체할 것이라는 생각은 들지 않는다. 다시 강조하지만 그냥 의견이 아니며 사람이 직접 텍스트를 편집하는 것의 중요성은 아무리 강조해도 지나치지 않다. 이하에서는 학술 저작물에 있어 인간 편집자는 대체 불가능함을 입증하는 사실적 근거를 제시한다.
사람이 하는 편집의 핵심적 특징 몇 가지를 살펴보자.
인간 편집자가 발휘하는 전문성
ChatGPT 같은 생성형 AI를 이제는 쉽게 사용할 수 있게 되었으나, 인간에 의한 텍스트 편집은 학술 출판을 비롯한 여러 산업 분야에서 여전히 핵심적 위치를 점하고 있다. 그 이유는 다음과 같다.
- 맥락을 이해하는 능력
인간 편집자는 자신의 지식과 경험을 토대로, 단어와 문구 뒤에 가려진 저자의 의도를 파악하여 그에 따라 적절한 변경을 가할 수 있다. 따라서 글이 문법적으로 틀림이 없을 뿐만 아니라 저자의 의도를 정확히 전달할 수 있게 된다.
- 미묘한 뉘앙스를 감지하는 능력
글 편집을 업으로 하는 사람들은 훈련을 받은 사람들이므로 어조와 스타일 등 ChatGPT나 여타 인공지능 도구들이 잘 놓치는 글 안의 미묘한 뉘앙스를 식별할 수 있다. 이들은 경험과 직관을 활용하여 글이 자연스럽고 매끄럽게 이어지도록 함으로써 독자들이 쉽게 이해할 수 있도록 돕는다. 이는 작품의 전체적 효과를 결정하는 데 어조와 문체가 필수적 역할을 하는 창작 글쓰기에서 특히 중요하다.
- 창의적인 문제 해결
텍스트 편집인은 마케팅이나 광고 같은 산업 분야에 필수적인 창의적인 문제 해결에 능숙한 사람들이다. 이들은 브랜드 메시지의 불합치나 커뮤니케이션의 명료성 결여 등 인공지능 도구들이 놓칠 수 있는 문제들을 식별하여 처리할 수 있다. 또한 편집인은 카피 문구를 수정하여 호소력이나 효과를 더 높이는 등 문제에 대한 창의적 해결책을 제시할 수 있다.
편집 수단으로서 ChatGPT와 여타 인공지능 도구들의 한계
인공지능에 기반한 텍스트 편집기에는 여러 장점이 있으나 반드시 고려해야 할 중대한 제약점들이 몇 가지 있다. 여기서는 학문적 또는 학술적 텍스트에 초점을 맞춘다.
- 분야별 전문성 결여
학술적인 글쓰기를 위해서는 종종 주제 분야 특유의 용어와 이론, 방법론 및 최신 연구 동향에 대한 깊은 이해가 필요하다. 분야에 특화된 전문 지식이 없는 ChatGPT로는 전문적 주제에 관한 미묘한 뉘앙스 차이와 복잡한 관계를 정확히 포착하기 어렵다. 맥락을 통해 읽어낼 수 있는 중요한 단서를 인지하지 못하거나 특정 분야에 고유한 기본 가정과 함의를 파악하지 못할 수도 있다.
예를 들어, 기술/과학 분야에서는 용어의 정확성과 적확한 사용이 극히 중요하다. 용어의 사소한 오독이나 오용 문장 또는 문단의 의미에 큰 영향을 미칠 수 있다. ChatGPT는 분야 고유의 지식을 미리 접한 적이 없어 그러한 뉘앙스 차이를 알아차릴 수 없기 때문에 편집 과정에서 의도치 않게 실수를 저지르거나 오독의 여지가 있는 문장을 제시할 수 있다.
게다가 복잡한 과학 개념은 기초 원리, 경험적 증거, 이론적 틀에 대한 깊은 이해를 요하는 경우가 많은데 ChatGPT는 과학적 주장의 타당성이나 중요성을 비판적으로 분석하는 능력이 없기 때문에 글에 제시된 논증에 내재된 추론상의 허점이나 논리적 오류, 미묘한 결함을 인식하지 못할 수도 있다.
분야 전문가들과의 상호 확인 절차를 거치지 않거나 전문 분야의 문헌을 참고하지 않고 ChatGPT의 권고에만 전적으로 의지할 경우 오독이나 오류를 초래할 위험이 있다.
- 최신 연구에 접근할 수 없다
ChatGPT는 마지막 학습을 받은 시점 이후에는 지식이 단절되며 과학 분야의 최근 간행물과 발전 내용이 데이터베이스에 자동으로 업데이트되지 않는다. 따라서 ChatGPT는 최신 정보를 갖추지 못한 상태로 학술 콘텐츠를 편집할 수 있다.
과학 연구의 지평은 빠르게 전개·발전하며 새로운 조사와 발견, 혁신적 성과가 끊임없이 새로 등장한다. 따라서 학술적 작업의 현재성과 적실성을 유지하려면 그러한 발전에 뒤처지지 않는 것이 중요하다. 그러나 ChatGPT의 학습 데이터는 정적이기 때문에 다양한 분야의 최신 연구 간행물이나 방법론 또는 발전 내용이 ChatGPT에는 생소할 수 있다.
이러한 제약으로 인해 ChatGPT는 최신 과학 지식을 바탕으로 예리한 통찰을 제공하거나 수정을 제안하는 능력이 떨어질 수 있다. 기존의 확립된 이론에 문제를 제기하거나 새로이 보강하는 연구 성과를 간과하거나 최근의 실험 기법과 방법론을 반영하지 못할 수 있는 것이다.
학술 저작 편집을 전적으로 ChatGPT에 의지하는 저자들은 이러한 제약을 인지하고 ChatGPT가 제안하는 내용을 스스로 문헌 검토를 통해 확인하거나 주제별 전문인의 자문을 받아 보완해야 한다. 편집인은 학술 논문에 제시된 내용의 적실성과 현재성을 독립적으로 검증하여 그 내용이 해당 분야에서 최근 이루어진 발전을 반영하고 있는지 확인한다.
- 표절을 못 막는다
학문적 글쓰기 및 연구 논문 작성에 있어 표절은 연구 결과물의 충실성을 훼손하는 심각한 사안으로, 원고 접수 거부와 신뢰성 상실, 법적 조치 등의 심각한 결과를 초래할 수 있다. ChatGPT는 사용자가 입력한 내용을 토대로 텍스트를 생성할 수는 있으나, 그 텍스트를 다른 문헌들과 비교하여 유사성이나 표절 여부를 확인하는 기능은 없다. ChatGPT는 대량의 텍스트 데이터에 존재하는 통계적 패턴을 토대로 응답문을 생성하는 언어 모델이지 텍스트를 다른 문헌들과 비교하여 일치 여부를 확인하는 표절 탐지 도구가 아니다.
따라서 ChatGPT에만 의지해서 연구 저작물을 편집하는 연구자는 표절된 내용이 의도치 않게 저작물에 들어갈 위험을 감수하는 셈이다. 이는 그 연구자뿐만 아니라 소속 기관의 평판에도 심각한 결과를 초래할 수 있다.
따라서 ChatGPT를 사용할 때는 다른 표절 감지 수단과 기법 즉, 손수 확인하거나 표절 탐지 소프트웨어를 이용하거나 올바른 인용 및 출처 표시 관행을 준수하는 등의 보완적 방법을 겸해야 한다. ChatGPT는 글을 수정하고 완성도를 높이는 데 유용하게 활용할 수 있으나 연구 저작물의 충실성을 보장하는 유일한 수단이어서는 안 된다.
- 사람과 같은 판단력이 없다
ChatGPT는 글 내용에 대한 분별력과 뉘앙스에 대한 이해력이 경험이 풍부한 편집인과 같은 수준일 수 없다.
논리적 결함을 식별하고 논거의 견고함을 평가하기 위해서는 단순한 언어 처리 이상의 능력이 필요하다. 논지가 타당하고 정연한지, 반론의 여지는 없는지, 제시된 증거는 탄탄한지 가늠할 수 있어야 한다. ChatGPT가 명료성과 정연성을 개선하기 위한 제안을 할 수는 있으나, 감지하기 힘든 추론 과정의 허점을 잡아내거나 미묘한 논리적 결함을 인지하지는 못할 수 있다.
더욱이, 학문적 글쓰기에서 내용적 완성도는 단지 문법과 체계에 국한된 문제가 아니다. 논지의 명료성, 정보의 편성, 증거의 적실성, 학문적 기준의 준수 등이 관여한다. ChatGPT가 글의 전반적 흐름과 가독성을 높이는 데 도움이 될 수는 있으나 내용적 완성도의 이처럼 더 광범위한 측면에 있어서는 종합적으로 기여하기 어려울 것이다.
연구자들은 글을 쓸 때 논거의 탄탄함이나 학술 논문의 전반적 완성도를 평가하기 위해 ChatGPT가 제안하는 내용에 주의를 기울여야 한다. 독자적인 비판적 사고와 검토 절차의 도움을 받아 그것을 보완하는 것이 매우 중요하다. 그럴 때 편집인의 의견을 구하면 귀중한 통찰을 얻을 수 있고 내용의 엄격성과 충실성을 확고히 할 수 있다.
저자들은 사람 같은 판단력과 관련하여 ChatGPT의 한계를 인지함으로써 인공지능 모델이 제시하는 내용을 어느 정도나 신뢰할 것인지에 관해 합리적인 결정을 내릴 수 있다. ChatGPT의 강점에 인간의 전문성을 결합한 협력적 접근방식을 채택한다면 보다 견실하고 종합적인 학술 편집이 가능할 것이다.
- 문맥 이해력 부족
ChatGPT와 여타 인공지능 편집기의 두드러지는 제약점 하나는 문맥 이해도가 불충분할 가능성이 있다는 점이다. 텍스트가 사용되는 함축적 맥락을 온전히 이해하는 데 어려움이 있기 때문에 부적절하거나 부정확한 수정을 제안할 수 있다.
한 가지 일반적인 예가 동의이의어, 즉 소리는 같으나 뜻과 철자가 서로 다른 단어다. 예를 들어, “their”라는 단어와 “there”라는 단어를 생각해보자. 두 단어의 철자를 모두 정확히 기재하더라도 인공지능 텍스트 편집기는 특정 문장에서 의도하는 의미를 인지하지 못할 수 있다. 그 결과 문맥에 맞지 않는 수정문 또는 교체문을 제안함으로써 실수가 생기거나 의도하는 메시지가 바뀔 수 있는 것이다.
동음이의어 외에도 ChatGPT로는 관용적 표현이나 문화적 지칭, 분야 고유의 전문용어 같은 여타 문맥적 뉘앙스를 처리하기 어려울 수 있다. 그런 요소들을 텍스트 안에서 정확히 해석하는 데 필수적인 문화적 지식 또는 주제 분야 특유의 지식을 결여하여, 오독 또는 부적절한 제안을 할 가능성이 있다.
저자는 수정안이 저작물에서 의도하는 의미와 맥락에 부합하는지를 생각해야 한다. 인공지능 툴이 간과할 수 있는 특정한 뉘앙스와 미묘한 차이들을 감안하면서 반드시 편집인의 도움을 받아 텍스트를 검토하고 수정해야 하는 것이다.
인간 편집자는 귀중한 통찰 제공하며, 글이 저자가 의도하는 의미와 맥락에 정확히 부합하도록 함으로써 학술 저작물의 전체적 완성도를 높여준다.
- 편향과 불합치의 가능성
ChatGPT를 학술 저작물 편집 도구로 이용할 때 중요히 고려해야 할 사항 중 하나가 수정 제안문의 편향성과 불합치 가능성이다. ChatGPT의 학습에는 방대한 양의 텍스트 데이터가 사용되는데 그 학습 자료에 담긴 편향과 편견이 함께 들어갈 수 있다. 따라서, 인공지능 모델이 의도치 않게 그러한 편견을 재생산하거나 강화하는 내용의 제안을 할 위험이 있다.
편견은 성별, 인종, 문화, 이념을 비롯한 다양한 형태로 표출될 수 있다. 예를 들어, ChatGPT는 훈련 데이터에 담긴 편향된 표현으로 인해 의도치 않게 특정 성별에 국한된 어구를 제안하거나 문화적 몰인식을 드러낼 수 있다. 이러한 편향성은 정형화된 생각을 고착화하거나 차별적인 말과 표현을 선택하는 결과로 이어질 수 있다.
학술적 글쓰기의 충실성과 공정성을 확보하려면 ChatGPT가 제안한 수정문을 학술 저자들이 비판적으로 평가하고 검증해야 한다. 편향이 있을 가능성을 고려하면서 필히 윤리적·학술적 기준을 척도로 삼아, 편집된 수정문을 검토해야 하는 것이다. 학술 저자는 부주의로 유입될 수 있는 편향된 언어 표현이나 내용을 식별하고 교정하는 데 빈틈없이 주의를 기울여야 한다.
또한, ChatGPT는 방대한 양의 학습 데이터에 노출되므로 그 제안 내용과 형식에 불합치가 발생할 수 있다. 즉, 학습 데이터에 상이한 문체나 선호, 규칙들이 존재하므로 서로 다르거나 상충하는 수정문을 제안할 수 있는 것이다. 학술 저자들은 판단력을 발휘하여 가장 적절한 수정문을 선택하고 작업 전반에 걸쳐 일관성을 유지해야 한다.
편견의 영향을 줄이고 불합치를 해결하려면 세심하면서 비판적인 접근법이 필요하다. 학술 저자들은 적극적으로 개입하여 수정 제안문을 검토 및 수정하면서, 그것이 정확하고 공정한지, 윤리적·학문적 원칙에 어긋나지 않는지 검증해야 한다. 인간 편집자 또는 동료와 협력하면 귀중한 의견과 시각을 접할 수 있으며 편향이나 불합치를 식별하여 바로잡는 데 도움을 받을 수 있다.
인공지능을 통해 생성된 수정 제안문에 편향과 불합치가 있을 가능성이 있음을 계속 인지한다면, 학술 저자들은 학문적 글쓰기에 필요한 공정성과 객관성, 포용성 기준에서 벗어나지 않도록 필요한 예방조치를 취할 수 있다.
인간과 ChatGPT 텍스트 편집 중 어느 쪽이 나을까?
당연히 인간 편집자!
면밀히 숙고한 결과, 인간 편집자가 ChatGPT보다 우월하고 신뢰성이 높다는 것은 명백하다. 이러한 결론은 다수의 설득력 있는 이유에 근거한다.
인간 편집자의 선천적 인지 능력인 창의성과 비판적 사고는 인공지능 ChatGPT를 압도한다. 이러한 능력으로 인해 인간 편집자는 문법과 구문의 오류를 감지하고 수정할 수 있을 뿐만 아니라, 대체할 문구를 제시하고 문장 구조를 재편성하고 의도한 독자/청자에 맞춰 어조와 감정을 조정함에 있어 ChatGPT를 비롯한 어느 인공지능 도구보다 유능하다. 저자/작가의 목소리를 존중하고 유지하면서 건설적인 지침을 제시하는 과정에서 인간 편집자가 발휘하는 복잡하고 정교한 사고 과정과 함축적 균형감은 ChatGPT를 비롯한 다른 어떤 인공지능 도구로도 재현이 불가능하다.
또한 인간 편집자는 맥락 안에서 의미를 해석하는 솜씨가 탁월한데, 이는 ChatGPT나 다른 어떤 인공지능 도구로도 흉내낼 수 없는 능력이다. ChatGPT를 포함한 인공지능 도구들이 방대한 데이터베이스와 언어 패턴을 활용할 수는 있겠으나, 주어진 단편적 텍스트 뒤에 가려져 있는 의미를 이해하는 것은 근원적으로 불가능하다. 반면, 인간 편집자들은 텍스트의 맥락과 글이 의도하는 독자, 글을 통해 전달되는 메시지를 바로 알아차린다. 이러한 이해에 힘입어 인간 편집자는 텍스트가 문법적 기준에 부합할 뿐만 아니라 정연성과 의미성까지 성취하도록 할 수 있는 것이다.
더욱이, 인간 편집자는 ChatGPT와 여타 인공지능 도구에는 없는 수준의 적응력과 직관력을 갖고 있다. 인공지능 같은 기술도구들도 어느 정도는 여러 문체에 맞춰 수정안을 조정할 수는 있으나 인간 편집자들이 갖고 있는 유연성과 미묘한 차이를 판단하는 능력은 없다. 인간 편집자들은 격식체든 비격식체든, 기술 문체든 창의적 문체든 저널 또는 고객의 구체적 요구에 맞춰 에디팅 스타일을 조정할 수 있다. 편집인들은, 단순히 미리 프로그래밍된 규칙 체계를 적용하는 것이 아니라, 저자의 문체와 목소리에 근거하여 결정을 내리는 것이다.
마지막으로 인간 편집자는 저자에게 귀중한 피드백과 통찰을 풍부하게 제공한다. ChatGPT와 여타 인공지능 도구들도 제안을 할 수는 있으나, 인간 편집자들이 하는 것처럼 저자 개개인에 맞춰 피드백과 조언을 할 수는 없다. 편집인들은 건설적인 비평을 제시하고 추론 과정을 명확히 하고, 글을 어떻게 개선할 수 있는지 지침을 주기도 한다. 또한 출판 산업에 관한 심층적 정보와 언어 사용 추세를 비롯한, ChatGPT 및 여타 인공지능 도구들이 따라올 수 없는 유용한 정보 역시 제공한다.
따라서 ChatGPT 같은 인공지능 도구들은 특정한 상황에서 나름의 장점이 있을 수 있으나, 인간 편집자의 솜씨와 직관을 대체할 수는 없다. 인간 편집자는 그 어떤 인공지능 도구도 필적할 수 없는 창의력과 비판적 사고력, 맥락 인식력, 적응력과 피드백을 제공한다. 언어라는 것이 복잡하고 미묘한 의사소통 수단으로 활용되는 한, 인간 편집자는 저작물의 완성도를 최대한 높이는 데 있어 계속 핵심적 역할을 수행할 것이다.