Amazon 클라우드 기술은 전 세계적으로 수백만 명의 고객을 보유하고 있으며 매일 수십억 개의 이벤트를 추적하므로 Amazon 클라우드 기술이 더 많은 보안 위협을 탐지할 수 있습니다.
2019년 Amazon Cloud Technology 최고 보안 책임자인 Steve Schmidt는 클라우드 보안 문제에 초점을 맞춘 최초의 컨퍼런스인 Amazon Cloud Technology re:Inforce의 출범을 공식 발표했습니다. 이 컨퍼런스는 현재 5회 개최되었으며 클라우드의 벤치마크가 되었습니다. 보안.
Steve Schmidt는 2010년 Amazon에 합류하여 2022년부터 Amazon Cloud Technology의 최고 정보 보안 책임자로 12년 동안 근무했습니다. 최근 그는 생성 AI 시대의 기업 보안에 관해 월스트리트 저널과 인터뷰를 했습니다.
스티브 슈미트(Steve Schmidt)는 보안 팀의 임무는 기업이 AI와 같은 혁신적인 기술의 이점과 위험을 이해하고 이를 사용하여 기업의 보안 효율성을 향상시키는 방법을 이해하도록 돕는 것이라고 말했습니다.
Steve Schmidt, Amazon Cloud Technology 최고 보안 책임자
Steve Schmidt는 모든 기업이 생성 AI의 보안 문제에 대해 이야기하고 사용할 때 세 가지 질문을 해야 한다고 믿습니다. 나 자신을 위해: AI가 남용되거나 해킹되거나 변조될 수 있나요?
먼저, 데이터는 어디에 있나요?
기업은 데이터가 포함된 교육 모델의 전체 워크플로우, 데이터의 출처, 처리 및 보호 방법을 이해해야 합니다.
두 번째, 내 쿼리 및 관련 데이터는 어떻게 되나요?
기업이 주의를 기울여야 하는 민감한 데이터 세트는 훈련 데이터뿐만이 아닙니다. 기업과 사용자가 생성 AI 및 대규모 언어 모델을 사용하기 시작하면 쿼리를 보다 효과적으로 만드는 방법을 빠르게 배울 수 있습니다. 그러면 더 자세한 내용과 특정 요구 사항이 쿼리에 추가되어 더 나은 결과를 얻을 수 있습니다. 쿼리에 생성적 AI를 사용하는 기업은 생성적 AI가 모델에 입력된 데이터와 쿼리 결과를 어떻게 처리하는지 명확하게 이해해야 합니다. 엔터프라이즈 쿼리 자체도 중요하므로 데이터 보호 계획의 일부가 되어야 합니다.
셋째, 생성 AI 모델의 출력은 충분히 정확합니까?
안전 관점에서 생성 AI의 사용 시나리오는 위험을 정의하며, 시나리오마다 정확성에 대한 요구 사항이 다릅니다. 대규모 언어 모델을 사용하여 사용자 정의 코드를 생성하는 경우 코드가 잘 작성되었는지, 모범 사례를 따르는지 등을 확인해야 합니다.
생성 AI 사용에 따른 보안 문제를 이해한 후 Steve Smith는 혁신을 위해 생성 AI를 사용하기 위한 세 가지 보안 제안도 제공했습니다.
첫째, 보안 팀이 "아니요"라고 말하기는 쉽지만 이는 올바른 관행이 아닙니다. . 인공지능을 안전하게 사용할 수 있도록 내부 직원에게 인공지능 사용에 관한 회사 정책을 이해하도록 교육합니다. 회사의 AI 사용 정책에 부합하는 방법을 사용하도록 직원들에게 지시합니다. 보안팀이 "아니오"라고 말하기는 쉽지만 모든 비즈니스 팀, 개발자 등이 보안팀을 우회하는 것도 마찬가지로 쉽습니다.
두 번째, 가시성. 기업에는 직원이 데이터를 사용하는 방식을 이해하고, 업무상 필요 이상으로 데이터에 대한 액세스를 제한하고, 이 데이터에 액세스하기 위해 외부 서비스를 사용하는 방식을 모니터링하기 위한 가시성 도구가 필요합니다. 비업무 요구 사항 이외의 민감한 데이터에 액세스하는 등 정책 위반이 발견되면 이 동작이 중지됩니다. 다른 경우, 직원이 사용하는 데이터가 덜 민감하지만 정책을 위반할 수 있는 경우 직원에게 적극적으로 연락하여 진정한 목적을 이해하고 해결책을 모색합니다.
셋째, 메커니즘을 통해 문제를 해결합니다. 메커니즘은 기업이 시간이 지남에 따라 특정 행동을 정확하게 유도할 수 있게 해주는 재사용 가능한 도구입니다. 예를 들어, 직원이 규정을 위반하여 업무를 수행하는 경우 시스템은 팝업 창을 통해 직원에게 메시지를 표시하고 특정 내부 도구 사용을 권장하며 관련 문제를 보고합니다.
안전은 항상 Amazon 클라우드 기술의 최우선 순위였으며 Steve Schmidt는 Amazon 보안 문화의 실천자이자 지지자 중 한 명이기도 합니다.
"보안 팀은 코드 단계부터 보안 산업 업그레이드를 촉진하기 위해 즉시 사용 가능한 생성 AI 애플리케이션을 사용해야 합니다. 이는 Amazon을 포함한 모든 기업에 해당됩니다." 생성 AI에 대한 Steve Schmidt의 제안입니다.
생성 AI를 사용하여 보안 코드 작성을 개선하면 전체 산업을 더 높은 수준의 보안으로 효과적으로 끌어올릴 수 있기 때문입니다.
Amazon CodeWhisperer 코드 도우미와 새로운 생성 AI 도우미 Amazon Q는 모두 기업이 더 나은 코드를 생성하도록 돕거나 소프트웨어 엔지니어가 코드를 작성할 때 직접 제안을 제공할 수 있습니다.
Amazon CodeWhisperer는 개발자가 댓글을 기반으로 코드를 생성하고, 오픈 소스 참조를 추적하고, 취약점을 스캔 및 찾는 데 도움이 되는 보안 검색 기능이 내장된 AI 코딩 도우미이며, 개별 개발자에게 무료로 제공됩니다. 또한 기업이 CodeWhisperer를 기업의 내부 코드 저장소에 안전하게 연결하여 CodeWhisperer의 효율성을 향상시키고 개발 작업 완료 속도를 높일 수 있는 사용자 정의 기능을 제공합니다.
Amazon Q는 Amazon CodeWhisperer에서 개발자의 다양한 코드 관련 질문에 답하고 원클릭으로 구현할 수 있는 코드를 첨부할 수 있으며, 코드 변환 기능을 제공하여 개발자가 애플리케이션 유지 관리 및 업그레이드 작업의 지루함을 대폭 줄여 시간을 단축할 수 있도록 도와줍니다. 며칠에서 몇 분까지 필요합니다.
동시에 Amazon Cloud Technology 2023 re:Invent Global Conference에서 Amazon Cloud Technology는 생성 AI 기능을 갖춘 보안 서비스 기능도 출시했습니다.
Amazon Inspector의 Amazon Lambda 함수 코드 스캔 기능은 이제 생성 AI와 코드 수정을 위한 자동화된 추론을 활용합니다. 이전 스캐닝 기능은 문제가 있는 코드의 위치, 잠재적인 영향 및 제공된 권장 사항을 강조했지만 이제 생성 AI는 여러 클래스의 취약점에 대해 상황에 맞게 관련 코드 패치를 생성할 수도 있습니다. 개발자는 검증, 코드 교체 등의 작업을 신속하게 수행하여 문제를 빠르고 효과적으로 해결할 수 있습니다.
Amazon Detective는 이제 검색 그룹을 자동으로 분석하고 자연어로 통찰력을 제공하여 보안 조사를 가속화하는 생성 AI를 사용하여 검색 그룹 요약을 제공할 수 있습니다. Amazon Detective 서비스의 목적은 사용자가 잠재적인 보안 문제 또는 의심스러운 활동의 근본 원인을 보다 쉽게 분석, 조사하고 신속하게 확인할 수 있도록 하는 것입니다. 새로운 생성 AI 기능은 특정 사용자에게 더 넓은 보안 관점과 더 많은 보안 지식을 제공할 수 있습니다.
최근 Amazon Cloud Technology와 NVIDIA는 최신 공동 릴리스에서 GB200이 Amazon Nitro 시스템의 향상된 보안을 통해 클라이언트와 클라우드에서 처리하는 동안 고객 코드와 데이터의 보안을 보호할 수 있다고 언급했습니다.
Steve Schmidt는 문제는 보안 팀 자체가 원하는 것이 아니라 항상 고객 팀, 내부 팀이 목표를 향해 나아갈 수 있도록 돕는 것이라고 말했습니다.
위 내용은 생성적 AI 혁신 보안 시스템 구축, Amazon 최고 보안 책임자가 알려주는 세 가지 팁의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!