1차 업데이트: 2025.1.24
- Among the top 100 largest publishers, 24% provided guidance on the use of GAI
참고문헌:
Publishers' and journals' instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis
안녕하세요, 인공지능의 성능이 급속히 향상되면서 연구 설계부터 논문 리뷰까지 전 영역에 활용되고 있습니다.
이에 따라 저널마다 인공지능의 활용범위나 정책을 발표하고 있어 요약을 해보려고 합니다.
자고 일어나면 LLM의 성능이 매우 좋아지고 있는 상황이지만, 현재로서는 AI 사용을 글쓰기 정도 (문법, 언어)에만 허용하는등, 저널 정책들을 매우 보수적인 입장을 고수하는 것 같다는 생각이 듭니다.
다음은 네이처의 정책요약입니다.
https://www.nature.com/nature-portfolio/editorial-policies/ai
Springer Nature의 AI 정책 요약
Springer Nature는 인공지능(AI)의 발전과 관련된 정책을 지속적으로 검토 및 업데이트하고 있으며, 현재 다음과 같은 가이드라인을 제공한다.
1. AI 저작권 및 LLM 사용
- AI 저작권 제한: 현재 Large Language Models (LLMs, 예: ChatGPT)는 저자 자격을 충족하지 못한다.
- 저작권 및 책임: 저자는 작업에 대한 책임을 지고 있어야 하며, LLM은 이 요건을 충족하지 못한다.
- LLM 사용 선언: LLM을 사용한 경우, 논문의 Methods 섹션 또는 적절한 대체 섹션에 이를 명시해야 한다.
- 예외 사항:
- AI 도구를 “AI 지원 문서 편집” 용도로만 사용한 경우 선언할 필요가 없다.
- AI 지원 편집에는 가독성과 스타일 개선, 문법 및 철자 오류 수정 등이 포함된다.
- 그러나 이는 창작 작업이나 독립적인 콘텐츠 생성을 포함하지 않는다.
- 최종 문서에 대한 책임: 최종 원고에 대한 책임은 전적으로 저자에게 있으며, 편집된 텍스트는 원저작자의 의도를 반영해야 한다.
2. Generative AI 이미지
- AI 생성 이미지 사용 제한: Generative AI로 생성된 이미지는 저작권 및 연구 윤리 문제로 인해 출판에 사용될 수 없다.
- 예외:
- Springer Nature와 계약 관계에 있는 기관에서 합법적으로 생성된 이미지.
- AI에 대한 연구를 다룬 논문에서 직접적으로 언급된 이미지.
- 특정 과학 데이터를 기반으로 생성되어 정확성과 윤리적 기준을 충족하는 AI 도구로 만든 이미지.
- 예외 사항 처리:
- 예외로 인정된 이미지는 AI 생성으로 명확히 표시해야 한다.
- 비생성적 AI 도구: 기존 이미지/도표를 조작, 결합 또는 강화하는 비생성적 AI 도구의 사용은 제출 시 명확히 공개되어야 하며, 사례별 검토를 받는다.
3. AI와 Peer Review 과정
- Peer Review의 중요성: Peer reviewers는 과학 출판에서 중요한 역할을 하며, 전문 지식과 신뢰를 바탕으로 평가 작업을 수행한다.
- AI 사용의 한계:
- Generative AI 도구는 최신 지식 부족, 오류 가능성, 편향된 정보 제공 위험이 있다.
- 원고에는 민감하거나 독점적인 정보가 포함될 수 있어 외부 도구에 업로드하면 안 된다.
- 정책 요구 사항:
- Peer reviewers는 원고를 Generative AI 도구에 업로드하지 않아야 한다.
- AI 도구를 사용하여 논문의 주장 평가를 지원받은 경우, Peer review 보고서에 이를 명시적으로 선언해야 한다.
향후 정책 개발
Springer Nature는 AI 기술의 빠른 발전에 발맞춰 정책을 정기적으로 검토 및 수정할 예정이다. AI의 윤리적 사용을 보장하면서, 연구와 출판 과정에서의 유용성을 탐색할 계획이다.
(업데이트: 2025.1.24)
참고문헌: BMJ. 2024 Jan 31:384:e077192. doi: 10.1136/bmj-2023-077192.
1. 학술 출판 분야의 GAI 사용 지침 현황
- GAI 지침 부족: 상위 100대 학술 출판사 중 24%만이 GAI 사용 지침을 제공하고 있으며, 상위 100대 과학 저널 중 87%가 GAI 지침을 제공하고 있습니다 [1-3]. 이는 GAI 사용에 대한 표준화된 지침이 부족하다는 것을 의미합니다.
- 지침의 불일치: 출판사와 저널 간의 GAI 사용 지침이 일치하지 않는 경우가 많으며, 일부 저널의 지침은 출판사의 지침과 상충되기도 합니다 [2, 4, 5]. 이러한 불일치는 저자들이 혼란을 겪을 수 있는 원인이 됩니다.
- GAI를 저자로 인정 금지: 대부분의 출판사 및 저널은 GAI를 저자로 인정하지 않으며, 이는 GAI가 생성한 콘텐츠에 대한 책임을 질 수 없기 때문입니다 [1, 2, 6-9].
- GAI 사용 공개 의무: 대부분의 출판사 및 저널은 GAI 사용을 공개하도록 요구하지만, 공개 방법과 내용에 대한 지침은 다양합니다 [2, 8-11]. 공개 위치는 방법론, 감사의 글, 표지 서신 또는 새로운 섹션 등이 될 수 있으며, 공개해야 할 세부 정보도 다양합니다 [2, 8-12].
|
2. GAI 사용에 대한 구체적인 지침
- GAI 사용 범위: 일부 지침은 GAI 사용을 글쓰기 과정에만 제한하는 반면, 다른 지침은 이미지 생성이나 데이터 분석에도 적용됩니다 [2, 7, 9, 11, 12]. 일부 지침은 '콘텐츠 생성' 또는 '원고 준비'와 같은 모호한 용어를 사용하기도 합니다 [13].
- GAI 도구 종류: 많은 출판사와 저널이 대규모 언어 모델 (LLM) 및 ChatGPT를 언급하지만, 다른 GAI 도구를 명시하기도 합니다 [6-8, 12, 14].
- 책임: 출판사와 저널은 저자가 GAI 도구에서 생성된 결과물에 대한 책임을 져야 한다고 명시합니다 [9-12, 15]. 일부 출판사 및 저널은 이 점을 명확히 강조하지 않기도 합니다 [16, 17].
3. GAI 사용의 윤리적 고려 사항
- 정확성, 편향, 표절 위험: GAI 도구의 결과물은 부정확하거나 편향될 수 있으며, 표절의 위험도 내포하고 있습니다 [17-20].
- COPE (Committee on Publication Ethics) 지침: 많은 출판사와 저널이 COPE의 지침을 따르고 있지만, COPE 지침과 일치하지 않는 부분도 존재합니다 [3, 5, 9, 21, 22]. COPE는 AI 도구를 저자로 인정할 수 없으며, 저자는 AI 도구 사용에 대한 책임을 져야 한다고 강조합니다 [6, 7, 23].
- 표준화 필요성: GAI 사용 지침의 부족, 불일치, 모호성은 학술 출판 분야에서 표준화된 지침의 필요성을 강조합니다 [2, 24-26].
4. GAI 기술 동향
- GAI의 빠른 발전: GAI 기술은 빠르게 발전하고 있으며, 이에 따라 GAI 지침도 계속해서 업데이트되어야 합니다 [27]. 최근에는 이미지 생성 및 검토 과정에서의 GAI 역할에 대한 관심이 증가하고 있습니다 [27, 28].
- 다양한 GAI 도구: ChatGPT 외에도 Bard, MedPalm, Bing Chat 등 다양한 GAI 도구가 개발되고 있습니다 [29].
5. 추가 연구 및 제안
- CANGARU 이니셔티브: 표준화된 GAI 사용 지침을 마련하기 위한 노력이 진행 중입니다 [14, 25].
- 지속적인 검토: GAI 지침은 기술 발전과 함께 지속적으로 검토하고 업데이트해야 합니다 [27].
- 학술 사회의 역할: 학술 사회가 GAI 사용 지침 개발에 적극적으로 참여해야 합니다 [30].
- 저자 교육: 저자들이 GAI 도구의 올바른 사용법을 이해하고, 윤리적 고려 사항을 준수하도록 교육해야 합니다 [28].
이러한 정보들은 학술 연구 및 출판 분야에서 GAI 도구를 사용할 때 고려해야 할 중요한 사항들을 보여줍니다. GAI 도구의 발전과 함께 이러한 지침들은 계속해서 변화할 것이며, 학술 출판의 투명성과 책임성을 유지하기 위한 노력이 필요합니다.
powered by chatGPT 4o, google gemini