카테고리 없음

챗지피티 - 연구 논문에 사용해도 괜찮을까? (1) - 네이처 저널 정책 요약

프로페서 H 2024. 12. 20. 15:19

 

 

 

안녕하세요, 인공지능의 성능이 급속히 향상되면서 연구 설계부터 논문 리뷰까지 전 영역에 활용되고 있습니다. 

이에 따라 저널마다 인공지능의 활용범위나 정책을 발표하고 있어 요약을 해보려고 합니다. 

 

다음은 네이처의 정책요약입니다. 

 

https://www.nature.com/nature-portfolio/editorial-policies/ai

 


 

Springer Nature의 AI 정책 요약

Springer Nature는 인공지능(AI)의 발전과 관련된 정책을 지속적으로 검토 및 업데이트하고 있으며, 현재 다음과 같은 가이드라인을 제공한다.


1. AI 저작권 및 LLM 사용

  • AI 저작권 제한: 현재 Large Language Models (LLMs, 예: ChatGPT)는 저자 자격을 충족하지 못한다.
  • 저작권 및 책임: 저자는 작업에 대한 책임을 지고 있어야 하며, LLM은 이 요건을 충족하지 못한다.
  • LLM 사용 선언: LLM을 사용한 경우, 논문의 Methods 섹션 또는 적절한 대체 섹션에 이를 명시해야 한다.
  • 예외 사항:
    • AI 도구를 “AI 지원 문서 편집” 용도로만 사용한 경우 선언할 필요가 없다.
    • AI 지원 편집에는 가독성과 스타일 개선, 문법 및 철자 오류 수정 등이 포함된다.
    • 그러나 이는 창작 작업이나 독립적인 콘텐츠 생성을 포함하지 않는다.
  • 최종 문서에 대한 책임: 최종 원고에 대한 책임은 전적으로 저자에게 있으며, 편집된 텍스트는 원저작자의 의도를 반영해야 한다.

2. Generative AI 이미지

  • AI 생성 이미지 사용 제한: Generative AI로 생성된 이미지는 저작권 및 연구 윤리 문제로 인해 출판에 사용될 수 없다.
  • 예외:
    • Springer Nature와 계약 관계에 있는 기관에서 합법적으로 생성된 이미지.
    • AI에 대한 연구를 다룬 논문에서 직접적으로 언급된 이미지.
    • 특정 과학 데이터를 기반으로 생성되어 정확성과 윤리적 기준을 충족하는 AI 도구로 만든 이미지.
  • 예외 사항 처리:
    • 예외로 인정된 이미지는 AI 생성으로 명확히 표시해야 한다.
  • 비생성적 AI 도구: 기존 이미지/도표를 조작, 결합 또는 강화하는 비생성적 AI 도구의 사용은 제출 시 명확히 공개되어야 하며, 사례별 검토를 받는다.

3. AI와 Peer Review 과정

  • Peer Review의 중요성: Peer reviewers는 과학 출판에서 중요한 역할을 하며, 전문 지식과 신뢰를 바탕으로 평가 작업을 수행한다.
  • AI 사용의 한계:
    • Generative AI 도구는 최신 지식 부족, 오류 가능성, 편향된 정보 제공 위험이 있다.
    • 원고에는 민감하거나 독점적인 정보가 포함될 수 있어 외부 도구에 업로드하면 안 된다.
  • 정책 요구 사항:
    • Peer reviewers는 원고를 Generative AI 도구에 업로드하지 않아야 한다.
    • AI 도구를 사용하여 논문의 주장 평가를 지원받은 경우, Peer review 보고서에 이를 명시적으로 선언해야 한다.

향후 정책 개발

Springer Nature는 AI 기술의 빠른 발전에 발맞춰 정책을 정기적으로 검토 및 수정할 예정이다. AI의 윤리적 사용을 보장하면서, 연구와 출판 과정에서의 유용성을 탐색할 계획이다.

 

 

 

powered by chatGPT 4o