ChatGPT는 강력한 텍스트 생성 기능을 갖추고 있으며 지구상에서 가장 강력한 질문 및 답변 모델이 되고자 합니다.
그러나 강력한 AI는 Q&A 커뮤니티에서 심각한 오답 작성, 학생들의 논문 작성 지원 등과 같은 부정적인 영향도 가져올 것입니다.
arXiv에 대한 최근 논문은 업계의 주목을 끌었습니다. 스페인 산티아고 데 콤포스텔라 대학(University of Santiago de Compostela)의 연구원들은 "신약 발견에서 인공 지능의 과제, 기회 및 전략"을 인용했습니다. 이 기사의 특별한 점은 다음과 같습니다. 저자는 논문 작성을 돕기 위해 ChatGPT를 사용합니다.
논문 링크: https://arxiv.org/abs/2212.08104
저자 팀은 초록의 마지막 단락에 "Note from human-authors"라고 명시했습니다. 이 논문은 다음 목적으로 작성되었습니다. GPT-3.5 언어 모델을 기반으로 한 챗봇인 ChatGPT의 작성 기능이 인간 작성자가 리뷰 기사를 작성하는 데 도움이 될 수 있는지 테스트합니다.
저자는 텍스트 생성을 위한 초기 프롬프트로 지침을 설계한 다음 자동으로 생성된 콘텐츠를 평가했습니다. 철저한 검토 후 인간 저자는 원래 제안과 과학적 표준 사이의 균형을 유지하기 위해 실제로 원고를 다시 작성했습니다. 이 기사는 이 목표를 달성하기 위해 인공 지능을 사용할 때의 장점과 한계에 대한 논의로 마무리됩니다.
근데 또 다른 질문이 있습니다. 왜 작성자 목록에 ChatGPT가 없나요? (수동 개 머리)
이 글은 2022년 11월 30일 출시된 자연어 처리 시스템인 ChatGPT의 도움을 받아 작성되었습니다. 텍스트 말뭉치는 주어진 입력을 기반으로 인간의 글과 유사한 텍스트를 생성할 수 있습니다.
이 기사에서 인간 저자가 제공한 입력에는 논문 주제(신약 발견에 인공 지능 적용), 고려해야 할 장 수, 각 장에 대한 구체적인 팁과 지침이 포함되었습니다.
ChatGPT에서 생성된 텍스트는 콘텐츠를 수정하고 풍부하게 하며 중복과 불일치를 방지하기 위해 최종적으로 수동으로 편집해야 하며 인간도 인공 지능 Modified가 제안한 모든 참조를 편집해야 합니다.
이 작업의 최종 버전은 인공 지능의 도움을 받아 인간 저자가 반복적으로 수정한 결과입니다. ChatGPT에서 직접 얻은 예비 텍스트와 현재 버전의 원고 사이의 총 유사성은 4.3%입니다. 작은 변화 13.3%, 관련 유의성 16.3%. ChatGPT에서 직접 얻은 예비 텍스트에서 올바른 참조 비율은 6%에 불과했습니다.
ChatGPT에서 생성된 원본 버전과 해당 버전을 생성하는 데 사용된 입력 정보는 지원 정보로 보호됩니다.
논문 초록의 그림은 DALL-E에서 생성되었습니다.
논문에는 총 10개의 섹션과 56개의 참고 문헌이 포함되어 있으며, 그 중 섹션 1-9에는 1-2개의 단락만 포함되어 있으며 주로 논문의 주제를 설명합니다. Intelligence in drug discovery" "전략" 관련 내용, 열 번째 섹션에서는 주로 "ChatGPT 및 AI 기반 과학 글쓰기 도구에 대한 인간 저자의 전문가 의견"을 논의합니다. 기사의 추상 부분에만 그림이 포함되어 있습니다.
Abstract
인공 지능은 약물 발견 프로세스를 혁신하여 더 나은 효율성, 정확성 및 속도를 제공할 수 있는 잠재력을 가지고 있습니다. 그러나 AI의 성공적인 적용은 고품질 데이터의 가용성, 윤리적 문제 처리, AI 기반 방법의 한계에 대한 인식에 달려 있습니다.
이 기사에서는 이 분야에서 인공 지능의 이점, 과제 및 단점을 검토하고 현재의 장애물을 극복할 수 있는 가능한 전략과 방법을 제안합니다.
이 기사에서는 데이터 증강의 사용, 설명 가능한 인공 지능, 인공 지능과 기존 실험 방법의 통합, 의학 연구에서 인공 지능의 잠재적 이점에 대해서도 논의합니다.
전반적으로 이 리뷰는 약물 발견에서 인공 지능의 잠재력을 강조하고 이 분야에서 인공 지능의 잠재력을 실현할 수 있는 과제와 기회에 대한 심층적인 탐구를 제공합니다.
ChatGPT 및 AI 기반 과학 글쓰기 도구에 대한 인간 저자의 전문가 의견
ChatGPT는 GPT-3.5 언어 모델을 기반으로 한 챗봇으로, 과학 논문 작성을 보조하도록 설계되지 않았습니다. 일관된 대화를 나누고 광범위한 주제에 대한 새로운 정보를 제공하는 인류의 능력과 컴퓨터 코드를 수정하거나 생성하는 능력과도 호환되어 과학계를 놀라게 했습니다.
따라서 우리는 그 잠재력을 테스트하고 신약 발견에서 인공 지능 알고리즘의 역할에 대한 짧은 리뷰를 작성하는 데 기여하기로 결정했습니다.
과학 논문 작성을 위한 보조자로서 ChatGPT는 텍스트를 빠르게 생성하고 최적화하는 기능은 물론 사용자가 정보를 정리하고 경우에 따라 아이디어를 연결하는 등 여러 작업을 완료하도록 돕는 등 여러 가지 장점을 가지고 있습니다.
그러나 이 도구는 결코 새로운 콘텐츠를 생성하는 데 이상적이지 않습니다.
명령을 입력한 후에도 인간은 여전히 인공 지능이 생성한 텍스트를 수정해야 하며 ChatGPT에서 제공하는 참조가 명백히 올바르지 않기 때문에 거의 모든 참조를 바꾸는 것을 포함하여 대규모 편집 및 수정이 필요합니다.
이것은 현재 ChatGPT의 큰 문제이기도 합니다. 이는 주로 필요한 정보에 대한 신뢰할 수 있는 참조를 제공하는 다른 컴퓨팅 도구(예: 검색 엔진)와 비교할 때 중요한 차이점이 있습니다.
작문 보조를 위해 인공지능 기반 도구를 사용하는 데에는 또 다른 중요한 문제가 있습니다. 2021년에 훈련되었기 때문에 최신 정보가 포함되어 있지 않습니다.
이 글쓰기 실험에서 얻은 결과는 다음과 같습니다. ChatGPT는 사람의 강력한 개입 없이 신뢰할 수 있는 과학 텍스트를 작성하는 데 유용한 도구가 아니라고 말할 수 있습니다.
ChatGPT에는 복잡한 과학적 개념과 정보를 정확하고 적절하게 전달하는 데 필요한 지식과 전문 지식이 부족합니다.
또한 ChatGPT에서 사용하는 언어와 스타일은 학문적 글쓰기에 적합하지 않을 수 있으며, 고품질 과학 텍스트를 생성하려면 사람의 입력과 검토가 필수적입니다.
이런 종류의 인공 지능을 아직 과학 기사 작성에 사용할 수 없는 주된 이유 중 하나는 처리된 정보의 신뢰성과 신뢰성을 평가하는 능력이 부족하기 때문입니다. 따라서 ChatGPT에서 생성된 과학 텍스트에는 잘못된 내용이 포함될 가능성이 높습니다. 또는 오해의 소지가 있는 정보.
또한 리뷰어는 인간이 쓴 기사와 인공 지능이 쓴 기사를 구별하기 어려울 수 있다는 점에 유의하세요.
허위 또는 오해의 소지가 있는 정보의 게시를 방지하기 위해 검토 과정이 철저해야 합니다.
약탈적 저널은 과학 논문의 빠른 생산을 이용하여 품질이 낮은 콘텐츠를 대량 생산할 수 있다는 점입니다. 이러한 저널은 종종 과학 발전에 대한 헌신보다는 이익을 추구합니다. 인공 지능을 사용하여 기사를 신속하게 생산함으로써 표준 이하의 연구 결과가 시장에 넘쳐나고 과학계의 신뢰성이 훼손될 수 있습니다.
가장 큰 위험 중 하나는 과학 기사에 허위 정보가 확산될 가능성이 있다는 것입니다. 이는 과학 기업 자체의 평가 절하, 과학 연구의 정확성과 무결성에 대한 신뢰 상실로 이어질 수 있으며 진행 상황에 부정적인 영향을 미칠 수 있습니다. 과학의.
인공 지능을 사용하여 과학 기사를 작성하는 것과 관련된 위험을 완화할 수 있는 몇 가지 솔루션이 있습니다.
한 가지 해결책은 과학 기사 제작을 위해 특별히 인공 지능 알고리즘을 개발하는 것입니다. 이러한 알고리즘은 동료 검토를 거친 고품질 연구의 대규모 데이터 세트에서 훈련될 수 있으며, 이는 생성된 정보의 신뢰성을 보장하는 데 도움이 됩니다.
또한 이러한 알고리즘은 신뢰할 수 없는 출처를 인용하는 등 잠재적으로 문제가 있는 정보를 표시하도록 프로그래밍하여 연구자에게 추가 검토 및 검증의 필요성을 알릴 수 있습니다.
또 다른 접근 방식은 처리하는 정보의 진실성과 신뢰성을 더 잘 평가할 수 있는 인공 지능 시스템을 개발하는 것입니다. 여기에는 고품질 과학 기사의 대규모 데이터 세트에 대한 AI 훈련뿐만 아니라 AI가 정확하고 신뢰할 수 있는 결과를 생성하도록 보장하기 위해 교차 검증 및 동료 검토와 같은 기술을 사용하는 것이 포함될 수 있습니다.
또 다른 가능한 해결책은 연구자들이 기사를 작성할 때 인공 지능 사용을 공개하도록 요구하고 AI 생성 콘텐츠가 특정 품질을 충족하는지 확인하기 위한 검토 절차를 구현하는 것을 포함하여 과학 연구에서 인공 지능 사용에 대한 보다 엄격한 지침과 규정을 개발하는 것입니다. 그리고 정확도 기준.
또한 연구자에게 출판 전에 AI에 의해 생성된 모든 정보의 정확성을 철저히 검토하고 검증하도록 요구하는 것, 그렇게 하지 않는 사람에 대한 처벌, AI의 한계에 대해 대중에게 교육하는 것 등이 포함될 수 있습니다. 과학 연구를 위해 AI에 의존하는 위험은 잘못된 정보의 확산을 방지하고 대중이 과학 정보의 신뢰할 수 있는 출처와 신뢰할 수 없는 출처를 더 잘 구별할 수 있도록 하는 데 도움이 될 수도 있습니다.
지원 기관 및 학술 기관은 연구자들이 기술의 한계를 이해하는 데 도움이 되는 교육 및 리소스를 제공함으로써 과학 연구에서 AI의 책임 있는 사용을 촉진하는 역할을 할 수 있습니다.
전반적으로 과학 논문 생산에 인공 지능을 사용하는 것과 관련된 위험을 해결하려면 기술 솔루션, 규제 프레임워크 및 공교육의 조합이 필요합니다.
이러한 조치를 구현함으로써 우리는 과학계에서 인공 지능의 사용이 책임감 있고 효과적이라는 것을 보장할 수 있습니다. 연구자와 정책 입안자는 과학 연구에 인공 지능을 사용할 때 발생할 수 있는 잠재적 위험을 신중하게 고려하고 이러한 위험을 줄이기 위한 조치를 취해야 합니다.
AI가 신뢰할 수 있고 정확한 정보를 생성할 수 있을 때까지 과학계에서의 사용은 신중해야 하며 AI 도구가 제공하는 정보는 신뢰할 수 있는 소스를 사용하여 신중하게 평가하고 검증해야 합니다.
참고자료: https://arxiv.org/abs/2212.08104
위 내용은 ChatGPT를 사용하여 논문을 작성하는 것이 안정적입니까? 일부 학자들이 이를 시도했습니다. 허점이 가득하지만 물 주입을 위한 '좋은' 도구입니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!