AI, 의도치 않은 공동저자가 되고 있는가? – 위험성과 윤리적 쟁점에 대한 고찰
생성형 인공지능(Generative AI) 도구가 등장하면서 이제 연구자들은 텍스트를 다듬고 문장을 재구성하며 새로운 아이디어를 제안해 주는 보조 도구를 사용할 수 있게 되었습니다. 그러나 ‘ChatGPT 논문’이라는 표현이 나올 정도로 AI의 역할이 글쓰기 과정에서 너무 커져버린 나머지 보조와 저작의 경계가 모호해지면 어떤 문제가 발생할까요?
적절한 감독이 이루어지지 않으면 AI가 연구 논문의 내용과 핵심 주장에 영향을 미치거나 이를 변경함으로써 공식적 인정이 이루어지지 않은 상태에서 저자도 모르는 새 ‘공저자’의 역할을 하게 될 수 있습니다. Neurosurgical Review에서 AI 생성 원고가 최근 급증하고 그에 따라 논문이 철회된 사태는 연구 무결성과 관련한 도전 과제가 진화하고 있음을 잘 보여줍니다. 또한 ‘delve’와 같이 과도하게 사용된 단어를 언어학적으로 분석한 연구에 따르면 적어도 과학 논문 초록의 10%가 대규모 언어 모델(LLM)의 검토 과정을 거치고 있을 가능성이 높다고 합니다. 이는 학술적 글쓰기에서 논문 작성 AI 등 AI의 영향력이 점점 더 커지고 있음을 보여줍니다.
AI가 나도 모르게 공저자가 되는 원인
1. 생성형 AI 도구에 의한 콘텐츠 재작성 또는 변경
ChatGPT와 같은 생성형 AI 도구와 LLM은 단순한 문법 수정을 넘어서는 기능을 수행할 수 있습니다. 이들 도구는 다음과 같은 작업을 수행할 가능성이 있습니다.
- 핵심 논점이나 결론을 원래 의미와 다르게 재구성하거나 패러프레이징(재표현)할 수 있습니다.
- 원본 연구 결과를 패러프레이징하거나, 편집하면 과학적 정확성에 영향을 미치게 되는 부분을 편집하도록 제안할 수 있습니다.
- 연구자의 초기 사고 과정에 포함되지 않았던 새로운 인사이트나 수정 사항을 생성할 수 있습니다.
연구자들이 AI가 내놓는 결과물을 비판적으로 검토하지 않고 이에 지나치게 의존하게 되면 결국 AI가 생성한 콘텐츠를 자신의 것으로 통합하게 될 수 있습니다. 이렇게 되면 AI가 인정이 이루어지지 않은 상태에서 논문의 일부에 대해 상당한 지적 소유권을 갖게 됩니다.
2. AI의 역할에 대한 투명성 부족과 인식 부족
현재 AI 또는 LLM는 저자로 등재될 수 없습니다. 기여한 바에 대한 책임이나 의무를 지지 않기 때문입니다. 그러나 연구자들이 AI 사용 사실을 공개하지 않을 경우, AI가 연구자의 의도보다 더 큰 역할을 한 것처럼 보일 수 있습니다. 이런 문제는 다음과 같은 경우에 발생할 수 있습니다.
- AI 생성 텍스트가 적절한 출처 표기나 언급 없이 포함된 경우(예: ‘방법’ 섹션이나 기타 영역).
- 사람이 작성한 콘텐츠와 AI가 작성한 콘텐츠 간의 경계가 모호해진 경우.
- 연구자가 자신도 모르게 AI의 제안이나 편집에 의존하여, AI가 논문 구조를 조직하도록 허용하면서도 그러한 역할을 인정하지 않은 경우.
이는 학문적 무결성에 대한 윤리적 우려가 제기되는 상황으로 이어질 수 있습니다. AI가 적절한 인정을 받지 않은 상태에서 연구 과정에 간접 참여하는 셈이기 때문입니다.
3. 의도치 않은 새로운 아이디어 창출
LLM은 편집을 넘어 다른 가설이나 해석, 결론을 제안할 수 있습니다. 연구자가 이러한 제안을 신중하게 평가하지 않고 채택할 경우 LLM은 사실상 새로운 지적 기여를 창출하게 됩니다. 지적 기여는 전통적으로 인간 저자에게만 부여되는 역할이었습니다.
예를 들어, AI는 가설 변경을 제안하거나 데이터를 해석하는 새로운 방법을 제안할 수 있습니다. 연구자가 이러한 변경 사항을 그 타당성이나 정확성을 평가하는 일 없이 최종 논문에 반영해 버린다면 Ai가 내놓은 결과물이 핵심적인 지적 기여를 차지할 수 있으며, 이는 사실상 AI가 ‘유령 저자’가 되는 것을 의미합니다.
4. 책임을 지지 않으면서 최종 버전에 영향
AI 사용이 증가함에 따라, 연구자가 AI 도구에 지나치게 의존한 나머지 논문 최종 버전이 연구자의 원래 생각보다 AI의 제안을 더 많이 반영하는 경우가 발생할 수 있습니다. 이런 일은 다음과 같은 경우에 일어날 수 있습니다.
- AI가 상당한 구조적 변경을 가하는 경우(예: 단락 재구성, 단어를 바꾸어 섹션 재작성, 논증 흐름 변경).
- 사람의 개입이 최소화된 상태에서 AI가 텍스트의 상당 부분을 재작성하는 경우.
- 변경 사항이나 그러한 변경이 미치는 영향을 연구자가 비판적으로 평가하지 않는 경우.
이 시점에서 AI는 단순히 보조 역할을 하는 것이 아니라 AI 저작권 수준의 기여라고 할 만한 방식으로 논문을 구성하고 있습니다.
AI 활용에 따른 윤리적 함의
학술 저작권에는 책임이 따릅니다. 저자라면 자신의 연구를 옹호하고, 정확성을 보장하며, 표절이나 허위 진술 같은 연구 윤리 문제에 대해 책임을 져야 합니다. 그러나 AI는 이러한 책임을 지지 않습니다.

장기적으로 보면, AI 사용 사실을 적절하게 밝히지 않은 채 AI 생성 콘텐츠를 사용할 경우 논문 철회 사례가 늘어날 수 있습니다. 예를 들어, 2023년에 철회된 10,000편 이상의 논문 중 100여 편이 생성형 AI를 사용하여 작성된 것으로 확인되었습니다. 여러 출판사에서 AI는 연구에 대한 책임을 지지 않기 때문에 공저자로 간주해서는 안 되며, 인간 저자가 콘텐츠에 대한 모든 책임을 져야 한다고 강조했습니다. 또한 인간 저자는 학술 논문에서 AI 사용 사실을 완전히 공개해야 하며, 특히 AI를 사용한 사본 편집의 경우 구체적인 사용 내역을 완전히 공개해야 합니다.
AI의 비의도적 공동저자화 방지를 위한 전략
연구의 무결성을 유지하기 위해 연구자들은 다음과 같은 예방 조치를 취해야 합니다.
- 투명한 공개: 연구자는 연구 윤리 가이드라인에 명시된 대로 논문의 방법 섹션이나 관련 섹션에서 AI 도구 사용 사실을 공개해야 합니다.
- 비판적 평가: 원본 연구의 의미가 변경되지 않도록 하기 위해 연구자는 AI 생성 콘텐츠를 수용하기 전에 이를 비판적으로 평가해야 합니다.
- 인간의 통제 유지: AI는 생성된 출력물을 적절히 평가한 후 구조적 편집과 텍스트를 보다 명확하게 다듬는 작업에만 사용해야 합니다.
- 저작권 가이드라인: 명확한 가이드라인을 준수하여 연구에 대한 책임이 있는 인간 기여자만 저자로 등재해야 합니다. AI 도구의 기술적 보조 역할은 인정해야 하지만, AI 도구를 공저자로 인정하는 일은 없어야 합니다.
- 아이디어 소유권: 연구자는 논문의 아이디어, 분석, 지적 기여에 대한 소유권을 유지해야 하며, 이를 대체하거나 가리지 않는 범위 내에서 작업을 보조하는 용도로만 AI를 사용해야 합니다.
AI가 학술적 글쓰기에 있어 강력한 자산이라는 점은 의심할 여지가 없지만, AI 윤리에 따라 AI의 역할을 신중하게 관리해야 합니다. 앞으로 저널과 기관들은 정책을 업데이트하여 연구 논문에서 AI의 참여가 어느 수준까지 허용 가능한지 정의하고 AI 사용 사실을 의무적으로 명시하도록 할 것으로 예상됩니다. 공개 기준이 여전히 발전하고 있기는 하지만, 연구자들은 투명성, 비판적 평가, 명확한 저작권 관행을 확립하도록 노력해야 합니다. 그래야 AI가 저자도 모르는 새 공저자가 되는 사태를 방지하고 계속해서 AI를 도구로 활용할 수 있습니다.
참고자료AI의 비의도적 공동저자화 방지를 위한 전략
https://publicationethics.org/guidance/cope-position/authorship-and-ai-tools
https://pmc.ncbi.nlm.nih.gov/articles/PMC10828852/


