>  기사  >  기술 주변기기  >  생성적 AI 탐색을 안전하고 안정적으로 발전시키는 방법은 무엇입니까?

생성적 AI 탐색을 안전하고 안정적으로 발전시키는 방법은 무엇입니까?

王林
王林앞으로
2023-10-11 20:45:09679검색

현재 생성 AI의 탐구와 구현은 필연적으로 보안 문제와 얽혀 있습니다. 최근 데이터 보고서에 따르면 비즈니스 리더의 49%는 보안 위험이 주요 문제가 되었다고 믿고 있으며, 비즈니스 리더의 38%는 GPT 도구 사용 방법을 이해하지 못해 발생하는 인적 오류/인적 데이터 유출을 가장 큰 과제로 꼽았습니다.

이러한 우려는 타당하지만, 얼리 어답터가 얻는 이점은 탐색을 방해하는 잠재적인 결과보다 훨씬 클 것입니다.

이 게시물에서는 팀 구성원과 고객이 보안을 사후 고려 요소로 간주할 수 없는 이유를 이해하도록 돕겠습니다. 이를 AI와 비즈니스의 통합을 위한 전제 조건으로 간주하고 이러한 측면에서 일련의 모범 사례를 탐색해야 합니다

생성적 AI 탐색을 안전하고 안정적으로 발전시키는 방법은 무엇입니까?

보안 전략을 출발점으로 삼아

기업은 AI 애플리케이션이 새로운 보안 위험과 긴급성을 가져온다는 것을 깨달았습니다. . 앞서 언급한 통계 보고서에 따르면 비즈니스 리더의 81%는 회사에서 생성 AI에 대한 사용자 정책을 개발했거나 개발 중이라고 밝혔습니다

그러나 이 기술의 급속한 발전으로 인해 새로운 애플리케이션과 사용 사례가 끊임없이 변화하고 있습니다. 따라서 언제든지 발생하는 위험과 과제에 대응하기 위해 정책 내용도 지속적으로 업데이트되어야 합니다.

탐색을 가속화하면서 보안 위험을 최소화하려면 테스트 및 학습 노력을 위한 "가드레일"을 설정하는 것이 당연히 필요합니다. 또한 관련 정책을 수립할 때 결코 단독으로 진행해서는 안 됩니다. 대신 기업 내 다양한 ​​부서 대표들의 의견을 충분히 수렴하고 다양한 기능 단위가 어떻게 처리할 수 있는지/생성 인공 지능을 사용할 수 있는지 생각해야 합니다. 그들이 직면한 보안 위험

요컨대, 다양한 부서의 AI 기술 탐구가 대충 금지되어서는 안 됩니다. 순전한 두려움 때문에 전사적 금지 조치를 취한다면 경쟁업체가 시장 점유율을 잠식하는 것에 대해 걱정할 필요가 없습니다. 만리장성을 직접 파괴하는 것입니다.

일선 인력에 집중

제너레이티브 AI를 안전하게 사용하려면 먼저 일반 개발자에게 권한을 부여해야 합니다. 예를 들어 대규모 언어 학습 모델인 Insight GPT의 비공개 인스턴스에 대한 전체 액세스 권한을 부여받을 수 있습니다. 이는 잠재적인 사용 사례를 발견하는 데 도움이 될 수 있으며 동시에 결과를 기반으로 스트레스 테스트를 수행하여 생성 AI 서비스를 지속적으로 개선할 수 있는 방법을 곧 발견했습니다. 주문 분배의 효율성을 향상시킵니다. 이 특별한 경우, 구성원은 워크로드의 일부를 자동화하기 위해 SAP에서 스크립트를 작성해 달라고 요청했습니다. 이러한 시도는 효과적이지만 보호 장치가 올바르게 설정되지 않으면 쉽게 사고로 이어질 수 있습니다. 예를 들어, 직원이 실수로 주문에 존재하지 않는 거래를 실행한 경우 후속 자동화 단계를 중단할 수 없습니다.

민간 탐사를 촉진하고 위험을 최대한 제한하는 과정에서 우리는 다음과 같은 조치를 취해야 합니다. 검토위원회는 명확한 지침을 수립하고 위험 평가를 수행하며 AI 시스템의 투명성을 강화해야 합니다. 동시에, 특히 윤리, 편견, 인간 감독 및 데이터 개인 정보 보호와 같은 주요 문제를 처리하는 명확한 방법을 통해 업무 시나리오에 AI를 책임감 있게 적용하는 방법에 대해 직원을 교육하기 위한 적절한 교육을 제공해야 합니다. 또한 팀원들이 회사의 혁신가 그룹 내에서 자신의 연구 결과와 교훈을 공유하도록 장려하기 위한 내부 포럼을 마련해야 합니다

“환각”의 위험을 줄입니다

제너레이티브 AI가 위험한 중요한 이유는 때때로 "환각"을 생성한다는 것입니다. ". Insight 보고서에 따르면 비즈니스 리더가 가장 우려하는 공통 주제는 환각이 잘못된 비즈니스 결정으로 이어질 수 있다는 것입니다. 그러나 환각으로 인한 위험은 경미한 것부터 심각한 것까지 다양하며 구체적인 영향은 시나리오마다 다릅니다.

GPT 도구는 필연적으로 객관적인 현실과 일치하지 않는 일부 결과를 출력하지만, 우리는 이러한 오답이 종종 표현 수준의 혼란에 속한다는 것을 곧 깨달았습니다. 예를 들어, 초기 테스트에서 우리는 Insight GPT에 Eddie Van Halen이 어떤 노래와 협력했는지 물었습니다. 정답은 'Beat It'이지만, 정답은 '스릴러'다. 하지만 다른 관점에서 보면 'Beat It'은 'Thriller' 앨범의 수록곡이므로 그 답이 무리는 아니다.

이를 통해 AI 생성 콘텐츠를 효과적으로 관리하고 감독하여 환각 문제의 위험을 줄일 수 있습니다. 동시에 AI 시스템이 생성하는 콘텐츠가 관련 정책 및 표준을 준수하는지 확인하기 위해 AI 시스템에 대한 교육 및 모니터링을 강화해야 합니다. 이와 같은 조치를 통해서만 매우 주관적인 작업 부하를 처리할 때 발생할 수 있는 문제에 더 잘 대처할 수 있습니다

현재 생성 AI 산업은 아직 초기 단계입니다. 데이터 유출, 정보 오류, 편견 및 기타 위험으로 인한 잠재적 위협을 줄이면서 책임감 있고 안전한 적용 방법을 찾는 사람은 명확한 기술 우위를 확보할 수 있습니다. 기업은 AI 정책이 업계 변화에 지속적으로 보조를 맞추고, 규정 준수를 유지하고 환각 문제를 완화하면서 점차적으로 사용자 신뢰를 구축해야 합니다.

위 내용은 생성적 AI 탐색을 안전하고 안정적으로 발전시키는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제