>  기사  >  기술 주변기기  >  보안을 위한 머신러닝은 아름다운 거짓말인가요?

보안을 위한 머신러닝은 아름다운 거짓말인가요?

WBOY
WBOY앞으로
2023-04-15 20:13:011226검색

번역가 | Bugatti

리뷰어 | Sun Shujuan

머신러닝(ML)은 마법의 기술이 아닙니다. 일반적으로 ML은 대규모 데이터 세트의 좁은 문제를 해결하는 데 적합하며 관심 패턴은 반복 가능성이 높거나 예측 가능합니다. 대부분의 보안 문제에는 ML이 필요하지 않거나 ML이 도움이 되지 않습니다. Google을 포함한 많은 전문가들은 복잡한 문제를 해결할 때 다른 방법을 모두 사용한 후에만 ML을 시도해야 한다고 권장합니다.

ML은 광범위한 통계 기법을 결합합니다. ML을 사용하면 사전에 정답이 프로그래밍되어 있지 않더라도 문제에 대한 답을 추정하도록 컴퓨터를 훈련시킬 수 있습니다. 잘 설계된 ML 시스템을 사용하여 올바른 유형의 문제를 해결하면 다른 방법으로는 얻을 수 없는 통찰력을 얻을 수 있습니다.

모든 조직의 IT 환경에는 목적, 아키텍처, 우선순위 및 위험 허용 범위가 다릅니다. 모든 시나리오에서 보안 사용 사례를 광범위하게 지원하는 알고리즘, ML 또는 기타 제품을 만드는 것은 불가능합니다. 이것이 바로 보안 분야에서 ML을 성공적으로 적용한 대부분이 매우 특정한 문제를 해결하기 위해 여러 접근 방식을 결합하는 이유입니다. 일반적인 예로는 스팸 필터, DDoS 또는 봇 완화, 맬웨어 탐지 등이 있습니다.

1. 쓰레기는 넣으면 쓰레기가 나옵니다

ML의 가장 큰 과제는 실제 문제를 해결하는 데 관련 있고 유용한 데이터를 확보하는 것입니다. 지도 ML의 경우 적절하게 레이블이 지정된 대규모 데이터 세트가 필요합니다. 예를 들어 고양이 사진을 인식하는 모델을 구축하려면 '고양이'라는 라벨이 붙은 많은 고양이 사진과 '고양이 아님'이라는 라벨이 붙은 고양이가 아닌 사진 여러 개로 모델을 훈련해야 합니다. 사진이 부족하거나 라벨이 정확하게 지정되지 않으면 모델이 잘 나오지 않습니다.

보안 분야에서 잘 알려진 지도 ML 사용 사례는 시그니처 없는 악성 코드 탐지입니다. 많은 EPP(엔드포인트 보호 플랫폼) 공급업체는 ML을 사용하여 다수의 악성 및 양성 샘플에 라벨을 지정하고 "맬웨어의 형태"에 대한 모델을 교육합니다. 이러한 모델은 회피적인 돌연변이 악성 코드 및 기타 속임수(시그니처 탐지 방법을 회피할 수 있도록 변조되었지만 여전히 악성인 파일)를 올바르게 식별할 수 있습니다. 기능을 일치시키는 대신 ML은 다른 기능 세트를 사용하여 악성 콘텐츠를 예측하고 기능 기반 방법이 놓친 악성 코드를 포착하는 경우가 많습니다.

ML 모델은 확률적이므로 장단점이 있습니다. ML은 서명 방법으로 놓친 악성 코드를 포착할 수 있지만 서명 방법으로 놓친 악성 코드도 포착할 수 있습니다. 이것이 바로 최신 EPP 도구가 ML과 기능 기반 기술을 결합하여 최대 보호 범위를 달성하는 하이브리드 접근 방식을 사용하는 이유입니다.

2. 거짓양성 문제

모델이 잘 설계되었더라도 ML은 출력을 해석할 때 다음을 포함하여 몇 가지 추가적인 문제를 야기합니다.

  • 결과는 확률입니다. ML 모델은 가능성을 출력합니다. 모델이 고양이를 식별하도록 설계된 경우 "이것이 고양이일 확률이 80%입니다."와 같은 결과가 표시됩니다. 이러한 불확실성은 ML 시스템에 내재되어 있으며 결과를 해석하기 어렵게 만들 수 있습니다. 고양이일 확률이 80%면 충분히 정확할까요?
  • 적어도 최종 사용자는 모델을 조정할 수 없습니다. 확률적 결과를 처리하기 위해 도구는 공급업체가 설정한 임계값을 사용하여 이를 이진 결과로 처리할 수 있습니다. 예를 들어, 고양이 인식 모델은 모든 "고양이"가 고양이일 확률이 90% 이상이라고 보고할 수 있습니다. 이 영역에 대한 조직의 허용 오차는 공급업체가 설정한 허용 오차보다 높거나 낮을 수 있습니다.
  • 진정한 악성 콘텐츠를 탐지하지 못하는 FN(False Negatives)은 ML 모델, 특히 제대로 조정되지 않은 모델의 주요 단점입니다. 우리는 시간을 낭비하기 때문에 거짓양성(FP)을 좋아하지 않습니다. 그러나 PF 금리와 FN 금리 사이에는 본질적인 상충 관계가 있습니다. ML 모델은 이러한 균형을 최적화하도록 조정되어 FP 비율-FN 비율의 "최상의" 균형을 우선시합니다. 그러나 "올바른" 균형은 개별 위협 및 위험 평가에 따라 조직마다 다릅니다. ML 기반 제품을 사용하는 경우 공급업체가 적절한 임계값을 선택한다는 것을 신뢰해야 합니다.
  • 경보 분류에 대한 컨텍스트가 충분하지 않습니다. ML의 마법 중 하나는 데이터 세트에서 뚜렷하면서도 임의적인 '특징'을 추출하는 것입니다. 고양이를 식별하는 것이 날씨와 높은 상관관계가 있다고 상상해 보세요. 아무도 이런 식으로 추론하지 않을 것입니다. 하지만 이것이 ML의 핵심입니다. 다른 방법으로는 찾을 수 없는 패턴을 찾고 이를 대규모로 수행하는 것입니다. 예측된 원인이 사용자에게 노출되더라도 경보 분류나 사고 대응 상황에서는 도움이 되지 않는 경우가 많습니다. 이는 ML 시스템의 결정을 궁극적으로 정의하는 "기능"에 의한 예측 기능의 최적화 때문입니다.

3. "통계" 방법

에 대한 다른 이름이 아름답게 들리나요?

ML의 장단점 외에도 주목해야 할 사항이 하나 더 있습니다. 모든 "ML"이 실제로 ML인 것은 아닙니다. 통계적 방법은 데이터에 대한 몇 가지 결론을 제공할 수 있습니다. ML은 보유하고 있는 데이터와 보유하지 않은 데이터를 기반으로 예측을 수행합니다. 마케터들은 "ML"과 "인공 지능"이 일종의 현대적이고 혁신적이며 진보된 기술 제품이라고 주장하면서 이러한 인기를 활용하고 싶어합니다. 그러나 사람들은 ML이 올바른 접근 방식인지는 고사하고 이 기술이 ML을 사용하는지 여부에 대해 거의 생각하지 않는 경우가 많습니다.

4.ML이 악성 콘텐츠를 감지할 수 있나요?

ML은 '악성 콘텐츠'가 잘 정의되어 있고 범위가 좁은 경우를 감지할 수 있습니다. 또한 예측 가능성이 높은 시스템에서 예상되는 동작과의 편차를 감지할 수도 있습니다. 환경이 안정적일수록 ML이 이상치를 정확하게 식별할 가능성이 높아집니다. 그러나 모든 예외가 악의적인 것은 아니며 운영자가 항상 대응할 수 있는 충분한 컨텍스트를 갖고 있는 것은 아닙니다.

ML의 힘은 최적의 적용 범위와 효율성을 달성하기 위해 기존 방법, 시스템 및 팀을 대체하는 것이 아니라 강화하는 데 있습니다.

원본 링크: https://www.darkreading.com/vulnerabilities-threats/the-beautiful-lies-of-machine-learning-in-security

위 내용은 보안을 위한 머신러닝은 아름다운 거짓말인가요?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
이 기사는 51cto.com에서 복제됩니다. 침해가 있는 경우 admin@php.cn으로 문의하시기 바랍니다. 삭제