>기술 주변기기 >일체 포함 >대규모 언어 모델에서 피해야 할 6가지 함정

대규모 언어 모델에서 피해야 할 6가지 함정

王林
王林앞으로
2023-05-12 13:01:351366검색

보안 및 개인 정보 보호 문제부터 잘못된 정보 및 편견에 이르기까지 대규모 언어 모델은 위험과 보상을 가져옵니다.

대규모 언어 모델 개발의 발전에 힘입어 최근 인공 지능(AI)이 놀라운 발전을 이루었습니다. 이는 ChatGPT, Bard, GitHub의 Copilot과 같은 텍스트 및 코드 생성 도구의 핵심입니다.

이 모델은 모든 분야에서 채택되고 있습니다. 그러나 어떻게 생성되고 사용되는지, 어떻게 오용될 수 있는지는 여전히 우려의 대상입니다. 일부 국가에서는 과감한 접근 방식을 취하고 적절한 규정이 마련될 때까지 특정 대형 언어 모델을 일시적으로 금지하기로 결정했습니다.

다음은 대규모 언어 모델 기반 도구의 실제 부작용과 이러한 효과를 완화하기 위한 몇 가지 전략을 살펴보겠습니다.

1.악성 콘텐츠

대규모 언어 모델은 여러 면에서 생산성을 향상시킬 수 있습니다. 사람들의 요청을 해석하고 상당히 복잡한 문제를 해결하는 능력은 사람들이 평범하고 시간이 많이 걸리는 작업을 자신이 선호하는 챗봇에 맡기고 간단히 결과를 확인할 수 있음을 의미합니다.

물론 큰 힘에는 큰 책임이 따릅니다. 대규모 언어 모델은 유용한 자료를 생성하고 소프트웨어 개발 속도를 높일 수 있지만 유해한 정보에 빠르게 액세스하고 악의적인 행위자의 작업 흐름 속도를 높이며 심지어 피싱 이메일 및 악성 코드와 같은 악성 콘텐츠를 생성할 수도 있습니다. 잘 구성된 챗봇 프롬프트를 작성하는 것만큼 진입 장벽이 낮을 때 "스크립트 키디"라는 용어는 완전히 새로운 의미를 갖습니다.

객관적으로 위험한 콘텐츠에 대한 액세스를 제한하는 방법이 있지만 항상 가능하거나 효과적인 것은 아닙니다. 챗봇과 같은 호스팅 서비스와 마찬가지로 콘텐츠 필터링은 최소한 경험이 없는 사용자의 작업 속도를 늦추는 데 도움이 될 수 있습니다. 강력한 콘텐츠 필터를 구현하는 것이 필요하지만 그것이 전능하지는 않습니다.

2. 힌트 주입

특별히 제작된 힌트는 대규모 언어 모델이 콘텐츠 필터를 무시하고 불법적인 출력을 생성하도록 할 수 있습니다. 이 문제는 모든 llms에 공통적으로 발생하지만 이러한 모델이 ChatGPT용 플러그인과 같이 외부 세계에 연결되면 더욱 증폭됩니다. 이로 인해 챗봇이 사용자 생성 코드를 "평가"하여 임의 코드가 실행될 수 있습니다. 보안 관점에서 볼 때, 챗봇에 이 기능을 탑재하는 것은 매우 문제가 됩니다.

이 상황을 완화하려면 LLM 기반 솔루션의 기능과 외부 엔드포인트와 상호 작용하는 방식을 이해하는 것이 중요합니다. API에 연결되어 있는지, 소셜 미디어 계정을 실행하고 있는지, 감독 없이 고객과 상호 작용하는지 확인하고 그에 따라 스레딩 모델을 평가하세요.

과거에는 힌트 삽입이 중요하지 않은 것처럼 보였지만 이제는 이러한 공격이 생성된 코드를 실행하고, 외부 API에 통합하고, 심지어 브라우저 탭을 읽기 시작하기 때문에 매우 심각한 결과를 초래할 수 있습니다.

3. 개인 정보 보호/저작권 침해

대규모 언어 모델을 학습하려면 많은 양의 데이터가 필요하며 일부 모델에는 5000억 개 이상의 매개변수가 있습니다. 이 규모에서 출처, 저자, 저작권 상태를 이해하는 것은 불가능하지는 않더라도 어려운 작업입니다. 확인되지 않은 훈련 세트는 모델이 개인 데이터를 유출하거나 인용문을 허위로 표시하거나 저작권이 있는 콘텐츠를 표절하는 결과를 초래할 수 있습니다.

대형 언어 모델 사용에 관한 데이터 개인 정보 보호법도 매우 모호합니다. 소셜 미디어에서 배운 것처럼, 무료라면 사용자가 제품일 가능성이 높습니다. 사람들이 챗봇에게 코드에서 버그를 찾거나 민감한 문서를 작성하도록 요청하면 해당 데이터를 궁극적으로 모델 교육, 광고 또는 경쟁 우위를 위해 사용할 수 있는 제3자에게 전송한다는 점을 기억할 가치가 있습니다. AI로 인한 데이터 유출은 비즈니스 환경에서 특히 피해를 줄 수 있습니다.

대규모 언어 모델 기반 서비스는 Slack 및 Teams와 같은 업무 공간 생산성 도구와 통합되므로 제공업체의 개인 정보 보호 정책을 주의 깊게 읽고 AI 프롬프트가 사용되는 방식을 이해하고 이에 따라 직장에서 대규모 언어 모델의 사용을 규제하는 것이 중요합니다. . 저작권 보호와 관련하여 우리는 오늘날 우리가 누리고 있는 개방적이고 대체로 무료인 인터넷을 방해하지 않으면서 사전 동의 또는 특별 라이센스를 통해 데이터 액세스 및 사용을 규제해야 합니다.

4. 오류 메시지

대형 언어 모델은 설득력 있게 똑똑한 척할 수 있지만 실제로는 자신이 생성하는 내용을 "이해"하지 못합니다. 대신, 그들의 통화는 단어 간의 확률적 관계입니다. 그들은 사실과 허구를 구별할 수 없습니다. 일부 출력은 완벽하게 믿을 수 있는 것처럼 보일 수 있지만 사실이 아닌 확신에 찬 표현으로 판명될 수 있습니다. 이에 대한 예는 최근 한 트위터 사용자가 직접 발견한 것처럼 ChatGPT 인용 및 전체 논문을 조작하는 것입니다.

대규모 언어 모델 도구는 광범위한 작업에서 매우 유용할 수 있지만 응답의 정확성, 이점 및 전반적인 타당성을 검증하는 데는 인간이 참여해야 합니다.

LLM 도구의 결과물은 항상 가볍게 여겨야 합니다. 이러한 도구는 광범위한 작업에 유용하지만 응답의 정확성, 이점 및 전반적인 타당성을 검증하는 데는 사람이 참여해야 합니다. 그렇지 않으면 우리는 실망하게 될 것입니다.

5. 유해한 조언

온라인 채팅을 할 때 인간과 대화하고 있는지 기계와 대화하고 있는지 구분하기가 점점 어려워지고 있으며 일부 단체에서는 이를 이용하려고 할 수도 있습니다. 예를 들어, 올해 초 한 정신 건강 기술 회사는 온라인 상담을 원하는 일부 사용자가 인간 자원 봉사자가 아닌 GPT3 기반 봇과 무의식적으로 상호 작용했다는 사실을 인정했습니다. 이는 정신 건강 관리 및 인간 감정 해석에 의존하는 기타 환경에서 대규모 언어 모델을 사용하는 것에 대한 윤리적 우려를 불러일으킵니다.

현재 기업이 최종 사용자의 명시적인 동의 없이 이러한 방식으로 AI를 활용할 수 없도록 보장하는 규제 감독이 거의 없습니다. 또한 적들은 설득력 있는 AI 봇을 활용하여 간첩, 사기 및 기타 불법 활동을 수행할 수 있습니다.

인공지능에는 감정이 없지만 그 반응은 사람들의 감정을 상하게 하고 심지어 더 비극적인 결과를 초래할 수도 있습니다. AI 솔루션이 인간의 정서적 요구를 책임감 있고 안전하게 완벽하게 해석하고 대응할 수 있다고 가정하는 것은 무책임합니다.

헬스케어 및 기타 민감한 애플리케이션에서 대규모 언어 모델을 사용하는 것은 사용자에게 해를 끼칠 위험을 방지하기 위해 엄격하게 규제되어야 합니다. LLM 기반 서비스 제공자는 AI가 서비스에 기여하는 범위를 항상 사용자에게 알려야 하며, 봇과의 상호 작용은 항상 기본이 아닌 선택이어야 합니다.

6. 편견

AI 솔루션은 훈련된 데이터만큼만 우수합니다. 이 데이터는 종종 정당, 인종, 성별 또는 기타 인구통계에 대한 편견을 반영합니다. 편견은 모델이 불공정한 결정을 내리는 영향을 받는 그룹에 부정적인 영향을 미칠 수 있으며 미묘하고 잠재적으로 해결하기 어려울 수 있습니다. 검열되지 않은 인터넷 데이터로 훈련된 모델은 항상 인간의 편견을 반영합니다. 사용자 상호 작용을 통해 지속적으로 학습하는 모델은 의도적인 조작에도 취약합니다.

차별 위험을 줄이기 위해 대규모 언어 모델 서비스 제공업체는 훈련 데이터 세트를 신중하게 평가하여 부정적인 결과를 초래할 수 있는 불균형을 방지해야 합니다. 예측이 공정하고 정확하게 유지되도록 기계 학습 모델도 정기적으로 확인해야 합니다.

대규모 언어 모델은 소프트웨어와 상호 작용하는 방식을 완전히 재정의하여 작업 흐름을 엄청나게 개선합니다. 그러나 현재 인공 지능에 대한 의미 있는 규정이 부족하고 기계 학습 모델에 대한 보안이 부족하기 때문에 대규모 언어 모델을 광범위하고 성급하게 구현하는 것은 심각한 장애를 초래할 수 있습니다. 따라서 이 귀중한 기술은 신속하게 규제되고 보호되어야 합니다. ?

위 내용은 대규모 언어 모델에서 피해야 할 6가지 함정의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제