논문 작성의 미래: 상위권 대학, 출판사 및 정책개발자가 공유하는 ChatGPT 및 AI 통합에 관한 인사이트

AI 생성 텍스트가 시간을 절약하고 효율을 높일 수 있다는 주장이 제기되는 한편, 일각에서는 인간 저자들이 기계로 대체되며 글쓰기의 품질과 윤리에 발생할 수 있는 영향을 염려하고 있습니다. 사용자 친화적이고 비용이 저렴하다는 이점을 가진 AI는 이미 전 세계 교육현장에서 널리 사용되며 학계 연구논문 작성에도 활용되는 실정입니다. 그러나 (실제로는 연구진실성 및 과학적 엄격성에 대한 위협이 되는) 이러한 제한적인 이점을 감안하더라도 AI로 인해 발생할 수 있는 문제를 인식하는 것이 중요합니다.

ChatGPT가 학술적 글쓰기에 미치는 위협

ChatGPT는 교육 및 연구 분야에서 유용한 도구로 활용될만한 잠재력이 있으나, 그 활용에 있어 잠재적인 제약과 윤리적 함의를 고려하는 것이 중요합니다. 일례로, 알고리즘이 편향된 데이터로 훈련된 경우 연구 결과의 정확성과 공정성에 영향이 발생할 수 있습니다. 또한 ChatGPT는 인간이 작성한 텍스트에 존재하는 미묘한 어감의 차이와 창의력이 결여되므로 생성된 결과의 품질에 영향을 끼칠 수 있습니다. ChatGPT가 생성한 답변은 대체로 사실에 근거하지 않습니다. ChatGPT가 제시하는 날짜, 인용문 출처, 참신한 발상 등은 근거 없는 허위 정보일 가능성이 매우 높습니다.

상위 대학, 출판사 및 정책개발자의 전문가적 관점: ChatGPT 및 학술적 글쓰기에서의 ChatGPT 사용 이해

AI 도구의 활용 증가는 전통적인 대학 평가 방식에 영향을 주었습니다. 교육자들은 표절 가능성 및 학문적 진실성 표준에 발생할 수 있는 영향을 깊게 우려합니다. 전 세계 많은 수의 교육기관에서 ChatGPT의 사용을 전면 금지하는 조치를 취한 반면, 다른 기관에서는 관조적인 입장을 견지하고 있습니다. 교육자들은 AI 도구의 활용이 학생의 이해도, 학습 능력 또는 비판적 사고능력 평가는 물론 이러한 능력 개발에도 도움이 되지 않는다는 사실을 강조합니다. 일부 대학에서는 ChatGPT에 대한 학생들의 의존도가 지나치게 높아져 학업과정에 지장이 발생할 것을 우려해 ChatGPT 사용 전면 금지와 엄격한 규제를 유일한 해결책으로 고려하고 있습니다. 베이 에어리어 소재 커뮤니티 칼리지에서 글쓰기를 가르치는 Anna Mills 강사는 The Register지 인터뷰에서 기술에 의존해 사고 단계를 건너뛰고 글쓰기로 인한 좌절감을 겪지 않아도 된다는 유혹이 크다면서 학생들이 에세이 작성 시 AI의 유혹에 이끌리는 이유에 관한 우려를 표했습니다. 그는이러한 좌절감은 심층적으로 사고하며 아이디어와 씨름하는 과정에서 발생한다학생들의 의존도가 높아져 필요한 글쓰기 기술을 개발하지 않으면 학습 손실이 발생할 위험이 있다고 염려를 표했습니다.

반면 일부 교육자 및 기관에서는 학계 내 ChatGPT의 사용에 대해 낙관적인 견해를 밝히기도 했습니다. 텍사스 대학교 오스틴 캠퍼스 수사학 및 작문학과 부교수로 재임 중인 Scott Graham은 학생들이 글에 설득력을 갖추려면 자신의 글을 철저히 검토하고 오류가 있을 수 있는 부분을 수정해야 한다고 말합니다. 그는 Inside Higher Ed에 기고한 칼럼에서 “AI 도움을 받아 작성한 에세이는 좋지 못하다면서학생이 직접 글이라고 믿었다면 아무리 좋게 평가해도 C에서 C- 주었을 이라고 평가하며 과제 필수요건을 겨우 충족할 이상의 무언가를 발견할 없다고 일축했습니다. 기계가 생성한 텍스트에는 분명한 제약이 있으며 이렇게 작성된 내용은 인간의 면밀한 검토와 교정을 필요로 합니다. 일부는 이러한 도구 활용 자체를 부정행위로 인식할 수 있으나, Graham 교수는 이러한 도구가 실제로 개인의 글쓰기 능력 향상에 도움이 될 수 있다고 주장합니다.

요하네스버그 대학교의 연구 및 국제화 부총장인 Saurabh Sinha 교수는 University World News 인터뷰에서 졸업생들이 마주하게 될 진화하는 환경을 고려하여 ChatGPT 사용 증가와 향후 AI 발전에 대응할 있도록 대학 학문적 진실성 강화에 우선순위를 두어야 한다고 의견을 개진했습니다. 그는 새로운 도구와 기술은 언제나 등장하기 때문에 대학원생들의 준비와 적응, 평생 학습이 중요하다고 강조했으며, 또한 대학에서 학술적 오용을 방지하기 위해 표절 탐지 봇의 도입을 고려할 것을 제안했습니다.

출판사 또한 학술적 글쓰기에서의 ChatGPT 활용에 대한 견해를 밝혔습니다. 일부 출판사에서는 AI 생성 텍스트 사용에 관한 가이드라인이 아직 개발되지 않았으며, 가이드라인이 마련된 출판사의 경우에도 상당수가 이러한 자동화 도구의 사용을 전면 금지하기보다는 저자가 사용 여부를 공개하도록 요청하는 경우가 많습니다. 안타깝게도 편집자와 동료 심사자는 규정 준수를 강제할만한 수단이 없기 때문에 현재로서는 선택의 폭이 좁고, 인공 생성 텍스트를 정확하고 지속적으로 감지할 수 있는 소프트웨어도 존재하지 않는 실정입니다.

AI 도구를 저작자로 인정한다는 발상은 ‘저작자’라는 용어를 어떻게 정의할 것인지, 이러한 맥락에서 기여가 의미하는 바가 무엇인지에 대한 논의를 파생했습니다. Nature 지를 비롯한 모든 Springer Nature 저널, JAMA Network, ElsevierCellLancetCOPEWAME 등의 단체는 ChatGPT 사용을 둘러싼 우려에 대응해 편집 및 출판 가이드라인을 업데이트하여 학술 출판물에서 ChatGPT를 저자로 인용할 수 없음을 분명히 명시하고 저자가 AI 도구를 사용했는지의 여부와 그 방법을 공개하도록 요구합니다. Nature지 편집장 Magdalena Skipper는 “저작의 성명표시는 저작물에 대한 책임을 수반하는데, LLM에는 이를 효과적으로 적용할 수 없다”고 말했습니다.

“이 플랫폼에서 연구 논문 분야에서의 ChatGPT 사용에 대한 견해를 밝히지 않은 사람은 제가 유일할 것이므로, @Nature에서 규정한 AI 사용 기본 규칙을 알려드리겠습니다. 그 어떤 LLM 도구도 연구 논문의 공저자로 인정되지 않습니다

— Magdalena Skipper (@Magda_Skipper) 2023년 1월 24일

Elsevier의 기업 커뮤니케이션 담당 부사장인 Andrew Davis는 본 가이드라인이 “연구 논문 가독성과 언어 개선을 목적으로 AI 도구 사용은 허용하지만, 데이터 해석이나 과학적 결론 도출과 같이 저자가 수행해야 하는 핵심 작업을 그러한 도구가 대체해서는 된다“고 이야기합니다.

eLife의 편집장 Michael Eisen는 ChatGPT를 저자로 간주할 수는 없지만 ChatGPT의 사용 자체는 불가피하다면서 “ChatGPT의 사용을 허가할 것인가가 아닌, 사용 사실을 어떻게 관리할 것인가를 고민해야 할 때”라고 말합니다. 이어 그는 “적어도 현 시점에서 가장 중요한 것은 저자가 AI 도구 사용 여부를 솔직하게 밝히고 사용 방식을 설명하는 것이며, 이러한 도구 사용 시 그 결과물에 대한 책임을 명확히 하는 것”이라고 강조했습니다.

그러나 세계적인 과학 저널인 Science 지의 편집장인 Holden Thorp는 더욱 엄격한 접근 방식을 채택했으며, 투고 논문에서의 AI 생성 텍스트 사용을 금지하고 AI를 저자로 등재할 수 없다는 점을 명확히 밝혔습니다. 그는 “현재 ChatGPT(또는 기타 AI 도구)에서 생성한 텍스트. 그림, 이미지 또는 그래픽을 업무에 사용해서는 안 된다는 점을 명시하고자 라이선스 및 편집 정책을 업데이트했다”면서 “AI 프로그램은 저자로 인정되지 않는다”고 일축했습니다.

“인간의 개입 범위가 줄어들고 과학에 대한 책임감이 축소되어서는 안 됩니다. ChatGPT에 대한 저의 사설을 읽어 보세요. @EricTopol https://t.co/ooNO2vADp7

— Holden Thorp, Science EIC (@hholdenthorp) 2023년 1월 26일

윤리와 책임을 바탕으로 AI 기반의 미래 수용하기

콘텐츠 개발을 위한 AI 도구인 ChatGPT에 대해 특히 학계와 출판계에서 여러 우려를 표명하고 있습니다.

이러한 도구를 금지하는 것이 일견 손쉬운 해결책처럼 보일 수는 있겠지만, 가장 효과적인 안은 아닐 것입니다. 학생과 연구자에게 디지털 윤리와 책임감 있는 AI 도구 사용에 대해 교육하는 동시에, 표절 여부를 판독하고 표절 방지 조치를 시행하는 것이 급선무입니다.

또한 교육자와 출판사는 과제와 학술 논문에서 AI 생성 텍스트 활용 여부를 밝히도록 정책을 업데이트하고 저자가 이러한 도구 이용 여부를 공개하도록 요구해야 합니다. 다른 모든 기술과 마찬가지로 AI를 책임감 있고 윤리적인 방식으로 사용하는 것은 개인과 기관의 몫입니다. 어떻게 생각하시나요? 여러분의 생각과 의견을 아래에 댓글로 남겨 주세요!

답장을 남겨주세요.

고객 만족도 조사*

귀하의 이메일 주소는 공개되지 않습니다.

X

회원가입 후 더보기

무료로 보실 수 있는 기사 횟수에 제한이 있습니다. 구독하시면 논문작성
및 저널 출판에 관한 다양한 자료를 횟수제한 없이 이용하실수 있습니다.

  • 500개 이상의 출판뉴스
  • 50개 이상 웹세미나
  • 10개 이상 전문가 진행 팟캐스트
  • 10개 이상 이북
  • 10개 이상 체크리스트
  • 50개 이상 인포그래픽
여러분의 의견을 나눠주세요

리뷰어의 코멘트를 보통 어떻게 대응하나요?