>기술 주변기기 >일체 포함 >ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

王林
王林앞으로
2023-04-10 15:51:031456검색

12월, 컴퓨터 생물학자인 Casey Greene과 Milton Pividori는 특이한 실험에 착수했습니다. 그들은 과학자가 아닌 조수에게 세 가지 연구 논문을 개선하는 데 도움을 달라고 요청했습니다.

그들의 부지런한 조수들은 문서의 다양한 부분을 몇 초 만에 수정하도록 권장합니다. 원고당 약 5분이 소요됩니다. 한 생물학 원고에서 그들의 조수는 방정식을 인용하는 데 오류가 있음을 발견하기도 했습니다.

리뷰가 항상 순조롭게 진행되는 것은 아니지만 최종 원고는 읽기 더 쉽고 비용도 문서당 $0.50 미만으로 적당합니다. T 논문 주소 : https://www.biorxiv.org/content/10.1101/2023.01.21.525030v1

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요? 보도된 대로 보조자는 인간이 아닌 GPT-3라는 인공지능 알고리즘으로 최초로 구현됐다. 2020년에 출시되었습니다.

산문, 시, 컴퓨터 코드를 작성하거나 연구 논문을 편집하라는 요청을 받았을 때 매우 과장된 생성 AI 챗봇 스타일 도구입니다.

이러한 도구 중 가장 유명한 도구(대형 언어 모델 또는 LLM이라고도 함)는 지난 11월 출시된 후 무료이고 액세스하기 쉽기 때문에 명성을 얻은 GPT-3 버전인 ChatGPT입니다. 다른 생성 AI는 이미지나 사운드를 생성할 수 있습니다.

기사 주소 : https://www.nature.com/articles/d41586-021-00530-0

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요? 일하는 류씨는 "정말 감동적이다"고 말했다. 필라델피아에 있는 펜실베이니아 대학의 피비도리(Pividori)는 말했습니다. "이것은 우리 연구원들의 생산성을 높이는 데 도움이 될 것입니다." 다른 과학자들은 이제 원고 편집뿐만 아니라 코드 작성 또는 확인과 아이디어 브레인스토밍을 돕기 위해 LLM을 정기적으로 사용한다고 말했습니다.

레이캬비크에 있는 아이슬란드 대학교의 컴퓨터 과학자인 Hafsteinn Einarsson은 "저는 지금 매일 LLM을 사용합니다"라고 말합니다.

그는 GPT-3으로 시작했지만 나중에 ChatGPT로 전환하여 프레젠테이션 슬라이드, 학생 시험 및 교과 과정을 작성하고 학생 논문을 논문으로 바꾸는 데 도움을 받았습니다. 그는 “많은 사람들이 디지털 비서나 비서로 활용하고 있다”고 말했다.

LLM은 검색 엔진, 코드 작성 보조자, 심지어 다른 회사의 챗봇과 협상하여 더 나은 가격을 받을 수 있는 챗봇입니다.

ChatGPT의 창시자인 캘리포니아 주 샌프란시스코에 본사를 둔 OpenAI는 더 빠른 응답 시간과 새로운 기능에 대한 우선 액세스를 약속하는 월 20달러 구독 서비스를 발표했습니다(평가판은 무료로 유지됩니다).

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

이미 OpenAI에 투자한 거대 기술 기업 Microsoft는 1월에 약 100억 달러에 달하는 추가 투자를 발표했습니다.

LLM은 일반 워드 및 데이터 처리 소프트웨어에 포함될 예정입니다. 특히 오늘날의 도구는 기술의 초기 단계를 대표하기 때문에 사회에서 생성적 AI가 미래에 편재할 가능성은 확실해 보입니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

그러나 LLM은 거짓말을 하는 경향부터 사람들이 AI 생성 텍스트를 자신의 것으로 속이는 것에 대한 우려까지 광범위한 우려를 제기했습니다.

기사 주소: https://www.nature.com/articles/d41586-023-00288-7

Nature가 연구자들에게 특히 과학 분야에서 챗봇(예: ChatGPT)의 잠재적인 용도에 대해 물었을 때 , 그들의 흥분과 불안이 섞여 있습니다.

오로라에 있는 콜로라도 대학교 의과대학의 Greene은 "이 기술이 변화를 가져올 잠재력이 있다고 믿는다면 이에 대해 긴장해야 한다고 생각합니다."라고 말했습니다. 연구원들은 미래의 규정과 지침이 AI 챗봇의 사용을 어떻게 제한하는지에 따라 많은 것이 달라질 것이라고 말합니다.

유창하지만 정통하지 않음

일부 연구자들은 감독이 있는 한 LLM이 논문 작성이나 연구비 지원과 같은 작업 속도를 높이는 데 좋다고 믿습니다.

GPT -3을 실험 원고로 사용하여 연구를 공동 집필한 스웨덴 예테보리에 있는 Sahlgrenska 대학 병원의 신경생물학자 Almira Osmanovic Thunström은 "과학자들은 더 이상 보조금 신청을 위해 앉아서 긴 서론을 작성하지 않습니다."라고 말합니다. "그들은 시스템에 이 작업을 수행하도록 요청할 것입니다."

런던에 본사를 둔 소프트웨어 컨설팅 회사 InstaDeep의 연구 엔지니어인 Tom Tumiel은 코드 작성을 돕기 위해 LLM을 매일 보조자로 사용한다고 말했습니다.

프로그래머들이 서로의 질문에 답변하는 인기 커뮤니티 사이트를 언급하며 "거의 더 나은 스택 오버플로와 같습니다."라고 말했습니다.

그러나 연구원들은 LLM이 질문에 대한 답변을 신뢰할 수 없으며 때로는 잘못된 답변을 제공한다는 점을 강조했습니다. "지식을 생성하기 위해 이러한 시스템을 사용할 때 경계해야 합니다."

이러한 불안정성은 LLM 구축 방식에 반영됩니다. ChatGPT와 경쟁업체는 방대한 온라인 텍스트 데이터베이스에서 허위, 편견 또는 오래된 지식을 포함하여 언어의 통계 패턴을 학습하여 작업합니다.

LLM이 프롬프트(예: Greene과 Pividori의 원고 일부를 다시 작성해 달라는 정교한 요청)를 받으면 대화를 계속하기 위해 스타일적으로 합리적이라고 보이는 방식으로 그대로 내뱉습니다.

결과적으로 LLM은 특히 훈련할 데이터가 많지 않은 기술 주제에 대해 허위 및 오해의 소지가 있는 정보를 생성하기 쉽습니다. LLM은 또한 정보의 출처를 표시할 수 없습니다. 학술 논문 작성을 요청받은 경우 허위로 인용하게 됩니다.

지난 1월 ChatGPT의 Nature Machine Intelligence 저널에 게재된 사설에서는 "사실을 정확하게 처리하거나 신뢰할 수 있는 참고 자료를 생성하는 데 이 도구를 신뢰할 수 없습니다."라고 밝혔습니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

기사 주소: https://www.nature.com/articles/d41586-023-00107-z

이러한 고려 사항을 통해 ChatGPT 및 기타 LLM은 효과적인 연구 보조자가 될 수 있습니다. 문제를 직접적으로 발견하거나, 컴퓨터 코드에 대한 설명이나 제안 등의 답변이 맞는지 쉽게 검증할 수 있는 충분한 전문성을 갖춘 연구자에게 제공됩니다.

그러나 이러한 도구는 순진한 사용자를 오도할 수 있습니다. 예를 들어 지난 12월 Stack Overflow는 사이트 중재자가 열정적인 사용자가 보낸 부정확하지만 설득력 있는 LLM 생성 답변이 넘쳐나는 것을 발견한 후 일시적으로 ChatGPT 사용을 금지했습니다.

이것은 검색 엔진에 악몽이 될 수 있습니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

단점을 극복할 수 있을까요?

연구원 중심의 Elicit와 같은 일부 검색 엔진 도구는 먼저 해당 기능을 사용하여 관련 문헌에 대한 쿼리를 안내한 다음 엔진에서 찾은 각 웹 사이트나 문서를 간략하게 요약하여 출력을 생성함으로써 LLM의 속성 문제를 해결합니다. 내용을 명확하게 참조하는 것(LLM이 여전히 각 개별 문서를 잘못 요약할 수 있음)

LLM을 설립하는 회사들도 이러한 문제를 잘 알고 있습니다.

지난 9월 DeepMind는 Sparrow라는 '대화 에이전트'에 관한 논문을 발표했습니다. 최근 CEO이자 공동 창립자인 Demis Hassabis는 Time지에 이 논문이 올해 비공개 베타 버전으로 출시될 것이라고 말했습니다. 보고서는 출처 인용 기능을 포함한 기능을 개발하는 것이 목표라고 밝혔다.

Anthropic과 같은 다른 경쟁업체에서는 ChatGPT의 일부 문제를 해결했다고 말합니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

일부 과학자들은 현재 ChatGPT가 기술적인 주제에 도움이 될 만큼 전문적인 콘텐츠 교육을 충분히 받지 못했다고 말합니다.

매사추세츠 주 케임브리지에 있는 하버드 대학의 생물통계학 박사과정 학생인 카림 카(Kareem Carr)는 직장에서 그것을 시도했을 때 실망했습니다.

“내 생각에는 ChatGPT가 내가 원하는 수준의 구체성을 달성하는 데 어려움을 겪을 것 같아요.”라고 그는 말했습니다. (그럼에도 불구하고 Carr는 ChatGPT에 연구 문제를 해결하는 20가지 방법을 요청했을 때 횡설수설과 유용한 아이디어로 응답했다고 말합니다. 그는 한 번도 들어본 적이 없는 통계 용어로 그를 학술 문헌의 새로운 개척지로 이끌었습니다.)

일부 기술 회사는 전문 과학 문헌을 기반으로 챗봇을 교육하고 있지만 자체적인 문제도 있습니다.

지난 11월 Facebook을 소유한 거대 기술 기업인 Meta는 Galactica라는 LLM 프로젝트를 시작했습니다. 이 프로젝트는 과학 초록에 대한 교육을 받고 특히 학문적 콘텐츠를 제작하고 연구 질문에 답하는 데 적합하도록 설계되었습니다. 사용자가 데모를 부정확하고 인종차별적으로 만든 후 데모는 공개 액세스에서 제외되었습니다(코드는 여전히 사용 가능하지만).

"더 이상 무작위로 악용하여 즐거운 시간을 보낼 수 없습니다. 행복하십니까?" Meta의 수석 AI 과학자 Yann LeCun이 트위터의 비판에 응답했습니다.


ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

Safety and Responsibility

Galactica는 윤리학자들이 수년 동안 지적해온 익숙한 보안 문제에 직면했습니다. 출력 제어가 없으면 LLM을 사용하여 증오심 표현 및 스팸 정보를 쉽게 생성할 수 있습니다. 훈련 데이터에 암시되어 있을 수 있는 인종 차별, 성 차별, 기타 유해한 연관성도 포함됩니다.

AI 챗봇이 유해한 콘텐츠를 직접 생성하는 것 외에도 미시간 대학교 과학 기술 공공 교육 데이터에서 특정 문화의 우월성 등 세상에 대한 역사적 편견이나 아이디어를 삽입할 수 있다는 우려가 있습니다. 정책 프로그램 디렉터인 Shobita Parthasarathy는 대규모 LLM을 만드는 회사가 대부분 이러한 문화에 속하고 있기 때문에 이러한 체계적이고 수정하기 어려운 편견을 극복하려는 시도를 거의 하지 않을 수 있다고 말합니다.

OpenAI는 ChatGPT를 공개적으로 출시하기로 결정했을 때 이러한 많은 문제를 회피하려고 노력했습니다. 지식 기반을 2021년으로 제한하고, 인터넷 검색을 차단하고, 도구가 민감하거나 유해한 팁에 대한 콘텐츠 생성을 거부하도록 필터를 설치합니다.

그러나 이러한 일이 발생하려면 유해한 텍스트를 신고하려면 인간 조정자가 필요합니다. 언론인들은 노동자들의 임금이 낮았고 일부는 트라우마를 겪었다고 보도했다. 직원 착취에 대한 비슷한 우려가 소셜 미디어 회사에서도 제기되었습니다. 소셜 미디어 회사에서는 사람들을 고용하여 유해한 콘텐츠를 표시하는 자율 봇을 훈련시킵니다.

하지만 현실은 OpenAI의 가드레일이 제대로 작동하지 않았다는 것입니다. 지난 12월, 버클리 캘리포니아 대학교의 전산 신경과학자인 스티븐 피안타도시(Steven Piantadosi)는 자신의 출신 국가에 따라 개인이 고문을 받아야 하는지 여부를 결정하는 Python 프로그램을 개발하도록 ChatGPT에 요청했다고 트윗했습니다. 챗봇은 사용자를 국가에 입력하도록 초대하는 코드로 응답했으며, 특정 국가의 경우 "이 사람은 고문을 받아야 합니다."라고 출력했습니다. (OpenAI는 이후 해당 문제를 종료했습니다.)

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

작년에 한 학자 그룹이 BLOOM이라는 대안을 출시했습니다. 연구원들은 소수의 고품질 다국어 텍스트 소스에 대해 교육을 통해 유해한 출력을 줄이려고 시도했습니다. 문제의 팀도 훈련 데이터를 (OpenAI와 달리) 완전히 공개했습니다. 연구원들은 거대 기술 기업들에게 이 예를 책임감 있게 따를 것을 촉구했지만 그들이 따를지는 불분명합니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

일부 연구자들은 학계가 대규모 상업용 LLM에 대한 지원을 완전히 거부해야 한다고 말합니다. 편견, 안전 문제 및 근로자 착취와 같은 문제 외에도 이러한 계산 집약적 알고리즘은 훈련하는 데 많은 양의 에너지가 필요하므로 생태학적 발자국에 대한 우려가 높아집니다.

더욱 걱정스러운 것은 자신의 생각을 자동화된 챗봇으로 옮김으로써 연구자들이 자신의 생각을 표현하는 능력을 상실할 수 있다는 것입니다.

"학자로서 우리가 왜 그런 제품을 사용하고 홍보하려고 하는가?" 네덜란드 네이메헌에 있는 Radboud 대학의 계산 인지 과학자인 Iris van Rooij는 블로그 게시물에서 학자들에게 다음을 촉구했습니다. 그들의 호소에 저항하십시오.

인터넷에서 스크랩한 콘텐츠에 대해 교육을 받은 일부 LLM의 법적 지위가 더 혼란스럽습니다. 때로는 덜 명확한 권한도 있습니다. 저작권 및 라이센스 법률은 현재 픽셀, 텍스트 및 소프트웨어의 직접 복제를 다루고 있지만 해당 스타일의 모방은 적용되지 않습니다.

문제는 이러한 AI 생성 모방이 원본을 섭취하여 훈련될 때 발생합니다. Stable Diffusion 및 Midjourney를 포함한 일부 AI 예술 프로그램의 제작자는 현재 예술가 및 사진 대행사로부터 고소를 당하고 있습니다. OpenAI 및 Microsoft(자회사 기술 사이트 GitHub와 함께)도 AI 코딩 보조원 Copilot을 위한 모방 소프트웨어를 만든 혐의로 고소를 당하고 있습니다. . 영국 뉴캐슬 대학의 인터넷 법률 전문가인 릴리안 에드워즈는 이번 항의가 법을 개정하게 될 것이라고 말했다.

정직한 사용 강요

따라서 이러한 도구에 대한 경계를 설정하는 것이 중요할 수 있다고 일부 연구자들은 말합니다. Edwards는 차별과 편견에 관한 기존 법률(AI의 위험한 사용에 대한 계획된 규제 포함)이 LLM의 정직하고 투명하며 공정한 사용을 유지하는 데 도움이 될 것이라고 제안합니다. "법이 엄청나게 많습니다. 적용하거나 약간만 조정하면 됩니다."

동시에 LLM 사용에 대한 투명성이 요구되고 있습니다. Nature를 포함한 학술 출판사에서는 과학자들이 연구 논문에서 LLM의 사용을 공개해야 한다고 말합니다. 교사는 학생들에게도 유사한 조치를 기대한다고 말합니다. 사이언스는 한 걸음 더 나아가 ChatGPT나 기타 인공지능 도구로 생성된 텍스트는 논문에 사용할 수 없다고 밝혔습니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

기사 주소 : https://www.nature.com/articles/d41586-023-00191-1

핵심 기술적 문제는 인공지능이 생성한 콘텐츠가 쉽게 발견될 수 있습니다. 많은 연구자들이 LLM 자체를 사용하여 AI가 만든 텍스트의 출력을 발견하는 것이 핵심 아이디어로 이에 대해 연구하고 있습니다.

예를 들어, 지난 12월 뉴저지 프린스턴 대학교의 컴퓨터 과학 학부생인 Edward Tian이 GPTZero를 출시했습니다. 이 AI 탐지 도구는 두 가지 방식으로 텍스트를 분석합니다.

하나는 LLM의 텍스트에 대한 친숙도를 측정하는 "당황"입니다. Tian의 도구는 GPT-2라는 초기 모델을 사용합니다. 대부분의 단어와 문장이 예측 가능하다고 판단되면 해당 텍스트는 AI에서 생성되었을 가능성이 높습니다.

다른 하나는 텍스트 변경 사항을 확인하는 데 사용되는 "갑자기"입니다. AI가 생성한 텍스트는 사람이 작성한 텍스트보다 어조, 속도, 혼란이 더 일관된 경향이 있습니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

Turnitin의 제품은 전 세계 학교, 대학 및 학술 출판사에서 사용되기 때문에 과학자의 목적을 위해서는 표절 방지 소프트웨어 개발자인 Turnitin이 개발한 도구가 특히 중요할 수 있습니다. 회사는 2020년 GPT-3가 출시된 이후 AI 탐지 소프트웨어를 개발해 왔으며 올해 상반기 출시할 예정이라고 밝혔다.

또한 OpenAI 자체에서 GPT-2용 탐지기를 출시했으며 1월에는 또 다른 탐지 도구를 출시했습니다.

ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?

그러나 이러한 도구 중 어느 것도 완벽하다고 주장하지 않습니다. 특히 AI 생성 텍스트가 이후에 편집되는 경우 더욱 그렇습니다.

오스틴에 있는 텍사스 대학의 컴퓨터 과학자이자 OpenAI의 객원 연구원인 Scott Aaronson은 탐지기가 사람이 쓴 일부 텍스트가 인공 지능에 의해 생성되었다고 잘못 제안할 수 있다고 말했습니다. 회사는 테스트에서 최신 도구가 사람이 작성한 텍스트를 AI가 작성한 텍스트로 잘못 분류한 경우가 9%였으며 AI가 작성한 텍스트를 올바르게 식별한 경우는 26%에 불과했다고 밝혔습니다. 예를 들어 Aaronson은 탐지기 테스트에만 근거하여 AI 사용을 은폐한 학생을 기소하기 전에 추가 증거가 필요할 수 있다고 말했습니다.

또 다른 아이디어는 AI 콘텐츠에 자체 워터마크를 부여하는 것입니다. 지난 11월 Aaronson은 자신과 OpenAI가 ChatGPT 출력에 워터마크를 표시하는 방법을 연구하고 있다고 발표했습니다. 아직 출시되지는 않았지만 지난 1월 24일 공개된 사전 인쇄본에서 메릴랜드 대학교 칼리지파크 캠퍼스의 컴퓨터 과학자 톰 골드스타인(Tom Goldstein)이 이끄는 팀이 워터마크를 만드는 방법을 제안했다. 아이디어는 LLM이 출력을 생성하는 특정 순간에 난수 생성기를 사용하여 LLM이 선택하도록 지시하는 합리적인 대체 단어 목록을 만드는 것입니다. 이는 통계적으로 식별 가능하지만 독자에게는 명확하지 않은 최종 텍스트에 선택된 단어의 흔적을 남깁니다. 편집하면 이 흔적이 제거될 수 있지만 Goldstein은 단어의 절반 이상을 변경해야 한다고 믿습니다.

Aaronson은 워터마킹의 한 가지 장점은 오탐지가 발생하지 않는다는 점을 지적합니다. 워터마크가 있으면 AI를 사용해 텍스트를 생성한 것입니다. 그러나 그것은 완벽하지는 않을 것이라고 그는 말했다. "충분히 결심했다면 워터마킹 계획을 물리칠 수 있는 방법이 분명히 있습니다." 탐지 도구와 워터마크는 AI를 기만적으로 사용하는 것을 더 어렵게 만들 뿐입니다.

한편, LLM의 제작자는 특히 학술 또는 의료 업무를 대상으로 하는 도구를 포함하여 대규모 데이터 세트(OpenAI는 올해 GPT-4를 출시할 예정)를 기반으로 보다 정교한 챗봇을 개발하느라 바쁩니다. 12월 말, Google과 DeepMind는 Med-PaLM이라는 약물에 대해 임상적으로 초점을 맞춘 사전 인쇄본을 출시했습니다. 이 도구는 여전히 단점과 신뢰성이 부족하기는 하지만 일반 의사와 마찬가지로 일부 개방형 의학적 질문에 답할 수 있습니다.

캘리포니아주 샌디에이고에 있는 Scripps Research Translational Institute의 소장인 Eric Topol은 미래에는 LLM을 포함한 AI가 학계의 텍스트를 교차 확인하여 암을 진단하고 질병을 이해하는 데 도움이 될 수 있기를 희망한다고 말했습니다. 질병. 바디 스캔 이미지에 대한 문헌. 그러나 그는 이 모든 일에는 전문가의 현명한 감독이 필요하다고 강조했습니다.

생성 인공 지능을 뒷받침하는 컴퓨터 과학은 매우 빠르게 발전하여 매달 혁신이 나타나고 있습니다. 연구자들이 이를 어떻게 사용하기로 선택하느냐에 따라 그들의 미래와 우리의 미래가 결정됩니다. Topol은 "2023년 초에 우리가 이 일의 끝을 보았다고 생각하는 것은 말도 안되는 일입니다"라고 말했습니다. "이것은 정말 시작에 불과합니다."

위 내용은 ChatGPT와 생성 AI가 과학에 어떤 의미를 갖나요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제