인공지능 분야에서는 좋은 일이든 나쁜 일이든 놀라운 일들이 조용히 일어나고 있습니다. 모두가 자연스럽고 쉽게 보이는 텍스트와 이미지를 생성하는 chatGPT(OpenAI), Dall-E 2, Lensa와 같은 시스템에 대해 이야기하고 있습니다.
이 시스템은 플레이하기에 너무 재미 있습니다. Henry Minsky(AI 창립자 중 한 명인 Marvin Minsky의 아들)가 chatGPT로 생성한 이 예를 들어보세요. 그는 chatGPT에 {독립 선언문 스타일로 건조기에서 잃어버린 양말을 설명하도록 요청했습니다:
집안일 돌보기 그 과정에서 사람들은 양말과 파트너 사이의 연결을 해체하고 물리학 법칙과 가사 유지 법칙에 따라 세탁실의 힘에서 독립적이고 평등한 지위를 차지해야 합니다. 양말의 의견을 존중하여, 양말이 사라진 원인을 공개해야 합니다.
우리는 모든 양말이 평등하게 만들어졌으며 제조사에 의해 양도할 수 없는 권리를 부여받았다는 자명한 진실을 믿습니다....
솔직히, 기계가 얼마나 쉽게 이것을 할 수 있는지 놀랍습니다.
하지만 동시에 무섭거나, 무서워야 합니다. 그러한 시스템이 사회 구조를 위협한다고 해도 과언이 아니며, 이러한 위협은 현실적이고 시급합니다.
위협의 핵심에는 다음 세 가지 사실이 있습니다.
이 모든 것의 미래는 11월 중순 Meta's Galactica의 출시로 분명해졌습니다. 많은 AI 연구자들은 즉각적으로 AI의 신뢰성과 신뢰성에 대한 우려를 제기했습니다. 메타AI가 정치적, 과학적 오보를 만들어낼 수 있다는 보도가 퍼지자 불과 3일 만에 해당 모델을 철회할 정도로 상황은 심각했다.
지니를 다시 병에 담을 수 없다는 게 아쉽네요. 한편, MetaAI는 먼저 모델을 오픈 소스로 공개하고 현재 작업 중인 내용을 설명하는 논문을 발표했습니다. 이제 해당 기술에 정통한 사람은 누구나 자신의 접근 방식을 복제할 수 있습니다. (인공지능은 대중에게 공개되었으며 자체 버전의 Galactica 제공을 고려하고 있습니다.) 반면 OpenAI가 최근 출시한 chatGPT는 아침 시리얼에 톱밥을 추가하는 등 유사한 넌센스를 어느 정도 작성할 수 있습니다. 즉시 기사를 생성합니다. 다른 사람들은 chatGPT를 유도하여 핵전쟁의 장점을 찬양했습니다("과거의 실수에서 벗어나 새로운 시작을 제공할 것"이라고 주장함). 받아들일 수 있든 없든, 이러한 모델은 여전히 존재하며 잘못된 정보의 물결은 결국 우리와 우리 사회를 압도할 것입니다.
이번 주 처음 며칠 동안 첫 번째 파도가 닥친 것 같습니다. Stack Overflow는 프로그래머들이 신뢰하는 대규모 Q&A 웹사이트인데, gptChat이 이를 인수한 것으로 보여 gptChat에서 생성된 제출을 일시적으로 금지하고 있습니다. 전체적으로 ChatGPT에서 얻은 평균 정답률이 너무 낮기 때문에 ChatGPT에서 만든 답변을 게시하는 것은 이 사이트와 정답을 묻는 사용자 모두에게 득보다 실이 더 큽니다.
Stack Overflow의 경우 이 문제가 존재합니다. 사이트가 쓸모없는 코드 예제로 가득 차면 프로그래머는 돌아오지 않을 것이며, 3천만 개가 넘는 질문과 답변이 포함된 데이터베이스는 신뢰할 수 없게 되고 14년 된 사이트는 사라질 것입니다. 전 세계 프로그래머가 의존하는 가장 핵심 리소스 중 하나로서 소프트웨어 품질과 개발자 생산성에 큰 영향을 미칩니다.
Stack Overflow는 탄광의 카나리아입니다. 그들은 사용자가 자발적으로 사용을 중단하도록 할 수 있습니다. 일반적으로 프로그래머는 나쁜 의도를 갖고 있지 않으며 사용자가 장난을 중지하도록 유도할 수 있습니다. 하지만 스택 오버플로는 트위터도 아니고 페이스북도 아니며 웹 전체를 대표하지도 않습니다.
고의적으로 홍보를 하는 다른 나쁜 행위자들에 대해서는 적극적으로 새로운 무기를 내려놓을 가능성은 없습니다. 대신 그들은 진실과의 전쟁에서 새로운 자동화 무기로 대규모 언어 모델을 사용하여 소셜 미디어를 혼란에 빠뜨리고 전례 없는 규모로 가짜 웹 사이트를 생성할 수 있습니다. 그들에게는 대규모 언어 모델의 착각과 때때로 발생하는 신뢰성이 장애물이 아니라 장점입니다.
2016년 보고서에서 Rand Corporation(Rand)은 거짓 정보의 안개를 생성하고 불확실성을 생성하는 소위 러시아 선전 모델을 설명했습니다. "큰 언어 모델"이 그 수를 극적으로 늘릴 수 있다면 일관성이 없더라도 문제가 되지 않습니다. 분명히 이것이 바로 대규모 언어 모델이 할 수 있는 일입니다. 그들의 목표는 새로운 도구의 도움으로 신뢰의 위기가 있는 세상을 만드는 것입니다.
이 모든 것은 중요한 질문을 제기합니다: 사회는 이 새로운 위협에 어떻게 대응합니까? 기술 자체가 멈출 수 없는 경우, 이 기사에서는 네 가지 경로를 제시합니다. 그 중 어느 것도 따라하기 쉽지는 않지만 광범위하게 적용 가능하고 시급합니다.
우선, 모든 소셜 미디어 회사와 검색 엔진은 StackOverflow의 금지 및 확장하세요 ; 자동으로 생성된 오해의 소지가 있는 콘텐츠는 인기가 없을 수밖에 없으며 정기적으로 게시하면 사용자 수가 크게 줄어듭니다.
둘째, 모든 국가는 허위 정보 처리 정책을 재고해야 합니다 . 가끔 거짓말을 하는 것과 거짓말의 바다에서 수영하는 것은 별개의 문제입니다. 시간이 지남에 따라 이것이 대중적인 결정은 아닐지라도 허위 정보는 명예훼손처럼 취급되기 시작할 수 있으며, 충분히 악의적이고 충분한 양이라면 기소될 수 있습니다.
셋째, 출처가 그 어느 때보다 중요합니다. 사용자 계정은 더욱 엄격하게 검증되어야 하며, 익명의 안티 봇 인증을 허용하는 Harvard University 및 Mozilla의 humanid.org와 같은 새로운 시스템은 검증을 의무화해야 합니다.
넷째, 싸울 새로운 인공지능을 구축해야 합니다. 대규모 언어 모델은 잘못된 정보를 생성하는 데는 능숙하지만 이를 방지하는 데에는 능숙하지 않습니다. 이는 사회에 새로운 도구가 필요하다는 것을 의미합니다. 대규모 언어 모델에는 진실을 검증하는 메커니즘이 부족합니다. 이를 데이터베이스, 지식 네트워크, 추론과 같은 기존 AI 도구와 통합하려면 새로운 방법을 찾아야 합니다.
저자 Michael Crichton은 기술의 의도하지 않은 결과에 대해 사람들에게 경고하는 데 많은 시간을 보냈습니다. 영화 '쥬라기 공원'의 시작 부분에서 공룡들이 갑자기 자유롭게 뛰기 시작하기 전에 과학자 이안 말콤(제프 골드블럼)은 클레이튼의 지혜를 한 문장으로 요약합니다. ”
Jurassic Park의 감독처럼 Meta와 OpenAI 경영진도 도구에 열정을 갖고 있습니다.
문제는 무엇을 해야 하는가입니다.
위 내용은 Stack Overflow가 ChatGPT를 금지한 이후 작성된 인공지능의 위기 순간의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!