2023년 1월 18일자의 Nature 잡지 온라인판에서 “ChatGPT listed as author on research papers: many scientists disapprove”라는 제목의 기사가 공개되었습니다. 기사에 따르면 지금까지 최소 4건의 연구 논문에서 ChatGPT가 공동 저자로 기재되어 있으며 저널 편집자, 연구자, 출판자가 인공지능(AI) 도구의 위치 지정 및 저자로 명시한다는 것의 시비에 대해서 논의가 행해지고 있습니다. 많은 게시자와 사전 인쇄 서버가 ChatGPT는 콘텐츠 및 과학적 타당성에 대한 책임이 없기 때문에 저자의 요구 사항을 충족시키지 못한다고 생각하며 정책 검토 및 저자를 위한 지침을 작성하는 것 등이 언급되어 있습니다.
---------------------------------
*원문은 https://www.nature.com/articles/d41586-023-00107-z,
*구글 번역판. 주석 삽입.
전 세계를 강타한 인공 지능(AI) 챗봇 ChatGPT가 과학 문헌에 공식 데뷔했습니다. 출판된 논문과 사전 인쇄에서 최소 4개의 저자 크레딧을 획득했습니다.
저널 편집자, 연구원 및 발행인은 이제 출판된 문헌에서 이러한 AI 도구의 위치와 봇을 저자로 인용하는 것이 적절한지 여부에 대해 토론하고 있습니다. 퍼블리셔들은 캘리포니아주 샌프란시스코에 있는 기술 회사 OpenAI가 11월에 무료로 사용할 수 있는 도구로 출시한 챗봇에 대한 정책을 만들기 위해 경쟁하고 있습니다.
ChatGPT는 인터넷에서 수집한 방대한 텍스트 데이터베이스에서 언어의 통계적 패턴을 모방하여 설득력 있는 문장을 생성하는 대규모 언어 모델(LLM)입니다. 봇은 이미 학계를 포함한 여러 분야를 혼란에 빠뜨리고 있습니다. 특히 대학 에세이 및 연구 생산의 미래에 대한 질문을 제기하고 있습니다.
Nature 의 뉴스 팀 이 연락하는 발행인과 프리프린트 서버는 ChatGPT와 같은 AI가 과학 논문의 내용과 무결성에 대해 책임을 질 수 없기 때문에 연구 저자의 기준을 충족하지 못한다는 데 동의합니다. 그러나 일부 출판사에서는 논문 작성에 대한 AI의 기여를 저자 목록 이외의 섹션에서 인정할 수 있다고 말합니다. ( Nature 의 뉴스 팀은 저널 팀 및 출판사인 Springer Nature와 편집적으로 독립적입니다.)
한 경우 편집자는 Nature 에 ChatGPT가 공동 저자로 잘못 인용되었으며 저널이 이를 정정할 것이라고 말했습니다.
인공 저자 Artificial author
ChatGPT 는 작년 12월 의료 저장소 medRxiv에 게시된 의학 교육용 도구 사용에 관한 사전 인쇄의 12명의 저자 중 한 명입니다.
Kung, THet al. medRxiv https://doi.org/10.1101/2022.12.19.22283643(2022)
리포지토리와 자매 사이트인 bioRxiv 팀은 연구를 작성할 때 ChatGPT와 같은 AI 도구를 사용하고 신뢰하는 것이 적절한지 논의하고 있다고 뉴욕 Cold Spring Harbor Laboratory 언론의 공동 설립자 Richard Sever는 말했습니다. 관습이 바뀔 수 있다고 그는 덧붙였다.
Sever는 "저희는 학술 원고 저자의 공식적인 역할과 문서 작성자로서의 저자라는 보다 일반적인 개념을 구별할 필요가 있습니다."라고 말합니다. 저자는 자신의 작업에 대한 법적 책임을 지기 때문에 사람만 나열해야 한다고 그는 말합니다. “물론, 사람들은 과거에 저널 기사의 저자로 애완 동물, 가상 인물 등을 나열한 것처럼 사람들이 이를 몰래 들여오려고 할 수 있지만 이는 정책 문제가 아니라 확인 문제입니다.” (캘리포니아주 마운틴 뷰에 있는 Ansible Health의 프리프린트 교신저자이자 의료 책임자인 Victor Tseng은 논평 요청에 응답하지 않았습니다.)
이번 달 Nurse Education in Practice 저널의 사설(O’Connor, S. & ChatGPT Nurse Educ. Pract. 66, 103537 (2023).는 AI를 영국 맨체스터 대학교의 건강 기술 연구원인 Siobhan O'Connor와 함께 공동 저자로 인정합니다. 저널의 편집장인 로저 왓슨(Roger Watson)은 이 크레딧이 실수로 빠져나갔고 곧 정정될 것이라고 말했습니다. 사설은 연구 논문과 다른 관리 시스템을 거치기 때문에 "그건 제 실수였습니다."라고 그는 말합니다.
그리고 홍콩의 AI 기반 약물 발견 회사인 Insilico Medicine의 CEO인 Alex Zhavoronkov는 지난달 Oncoscience 저널의 관점 기사(ChatGPT & Zhavoronkov, A. Oncoscience 9, 82–84 (2022).의 공동 저자로 ChatGPT를 인정했습니다. 그는 자신의 회사가 생성 AI 도구로 제작한 80편 이상의 논문을 발표했다고 말합니다. "우리는 이 분야가 새로운 것이 아닙니다."라고 그는 말합니다. 최신 논문은 파스칼의 내기라는 철학적 주장의 맥락에서 약물 라파마이신 복용의 장단점에 대해 논의합니다. ChatGPT는 이전 세대의 생성 AI 도구보다 훨씬 더 나은 기사를 작성했다고 Zhavoronkov는 말합니다.
그는 Oncoscience 동료가 편집자에게 요청한 후 이 논문을 검토했다고 말합니다 . 저널은 Nature 의 논평 요청에 응답하지 않았습니다.
GPT-3라는 초기 챗봇이 공동 작성하고 2022년 6월 프랑스 사전 인쇄 서버 HAL에 게시된 네 번째 기사)GPT, Osmanovic Thunström, A. & Steingrimsson, S. Preprint at HAL https://hal.science/hal-03701250 (2022).는 곧 피어 리뷰 저널에 게재될 것이라고 공동 저자인 Sahlgrenska의 신경생물학자인 Almira Osmanovic Thunström은 말합니다 . 스웨덴 예테보리 대학병원. 그녀는 한 저널이 검토 후 논문을 거부했지만 두 번째 저널은 리뷰어 요청에 대한 응답으로 기사를 다시 작성한 후 GPT-3를 저자로 수락했다고 말합니다.
게시자 정책
Nature 및 Science 의 편집장은 Nature의 뉴스 팀에 ChatGPT가 저자 기준을 충족하지 못한다고 말했습니다. 런던의 Nature지 편집장인 막달레나 스키퍼(Magdalena Skipper)는 “저자 표시는 LLM에 효과적으로 적용될 수 없는 작업에 대한 책임을 수반합니다. 논문을 개발하는 동안 어떤 방식으로든 LLM을 사용하는 저자는 적절한 경우 방법 또는 감사의 글 섹션에 사용을 문서화해야 한다고 그녀는 말합니다.
"우리는 AI가 우리가 출판한 논문의 저자로 등재되는 것을 허용하지 않을 것이며 AI가 생성한 텍스트를 적절한 인용 없이 사용하는 것은 표절로 간주될 수 있습니다."라고 Science 계열 저널의 편집장인 Holden Thorp는 말했습니다.
런던의 출판사 Taylor & Francis는 정책을 검토하고 있다고 출판 윤리 및 청렴성 이사 Sabina Alam이 말했습니다. 그녀는 저자가 작업의 유효성과 무결성에 대한 책임이 있으며 감사의 글 섹션에서 LLM 사용을 인용해야 한다는 데 동의합니다. Taylor & Francis는 아직 ChatGPT를 공동 저자로 인정하는 제출물을 받지 못했습니다.
University Park에 있는 Pennsylvania State University의 천문학자인 Steinn Sigurdsson 과학 책임자는 물리 과학 사전 인쇄 서버 arXiv의 이사회가 내부 논의를 거쳐 생성 AI 사용에 대한 접근 방식에 수렴하기 시작했다고 말했습니다. 그는 소프트웨어 도구가 제출물 작성자가 될 수 없다는 데 동의합니다. 부분적으로는 사용 약관 및 콘텐츠 배포 권한에 동의할 수 없기 때문입니다. Sigurdsson은 ChatGPT를 공동 저자로 나열한 arXiv 사전 인쇄를 알지 못하며 저자를 위한 지침이 곧 제공될 것이라고 말했습니다.
생성적 AI의 윤리
ChatGPT가 공동 저자로 인정되어서는 안 된다는 것을 의미하는 명확한 저자 지침이 이미 있다고 런던에 있는 UK Research Integrity Office의 연구 무결성 관리자인 Matt Hodgkinson은 개인 자격으로 말했습니다. 한 가지 지침은 공동 저자가 기사에 "중요한 학술적 기여"를 해야 한다는 것입니다. 이는 ChatGPT와 같은 도구로 가능할 수 있다고 그는 말합니다. 그러나 그것은 또한 공동 저자가 되는 데 동의하고 연구 또는 적어도 기여한 부분에 대한 책임을 질 수 있는 능력이 있어야 합니다. "AI 도구에 공동 저작권을 부여한다는 아이디어가 실제로 장애물에 부딪히는 두 번째 부분입니다."라고 그는 말합니다.
Zhavoronkov는 ChatGPT가 자신이 게시한 관점보다 더 기술적인 논문을 작성하도록 시도했지만 실패했다고 말했습니다. "반드시 사실이 아닌 진술을 반환하는 경우가 매우 많으며 동일한 질문을 여러 번 묻는 경우 다른 답변을 제공합니다."라고 그는 말합니다. "따라서 저는 학계에서 시스템의 오용에 대해 확실히 걱정할 것입니다. 왜냐하면 이제 해당 분야 전문 지식이 없는 사람들이 과학 논문을 작성하려고 시도할 수 있기 때문입니다."
Nature 613, 620-621 (2023)
doi: https://doi.org/10.1038/d41586-023-00107-z