01 지식 증류 탄생 배경
이후 심층신경망(DNN)은 산업계와 학계 모두에서, 특히 컴퓨터 비전 작업에서 큰 성공을 거두었습니다. 딥러닝의 성공은 주로 수십억 개의 매개변수로 데이터를 인코딩하기 위한 확장 가능한 아키텍처에 기인합니다. 딥러닝의 학습 목표는 기존 학습 데이터 세트의 입력과 출력 간의 관계를 모델링하는 것입니다. 성능은 네트워크의 복잡성에 따라 크게 달라집니다. 레이블이 지정된 훈련 데이터의 양과 품질.
컴퓨터 비전 분야의 기존 알고리즘에 비해 대부분의 DNN 기반 모델은 과잉 매개변수화로 인해 강력한 일반화 기능을 갖고 있습니다. 반면, 이러한 일반화 기능은 특정 문제에 대한 모든 데이터 입력에 반영됩니다. 모델은 훈련 데이터, 테스트 데이터, 문제에 속하는 알 수 없는 데이터 등 더 나은 예측 결과를 제공할 수 있습니다.
현재 딥 러닝 환경에서 비즈니스 알고리즘의 예측 효과를 향상시키기 위해 알고리즘 엔지니어는 종종 두 가지 솔루션을 사용합니다.
매개변수화된 더 복잡한 네트워크를 사용합니다. 이러한 유형의 네트워크는 매우 강력한 학습 기능을 갖추고 있지만 필요합니다. 대량의 경우 훈련을 위해 더 많은 컴퓨팅 리소스가 필요하며 추론 속도가 느려집니다.
앙상블 모델은 일반적으로 매개변수 통합 및 결과 통합을 포함하여 효과가 약한 많은 모델을 통합합니다.
이 두 가지 솔루션은 기존 알고리즘의 성능을 크게 향상시킬 수 있지만 둘 다 모델의 규모를 늘리고 더 큰 계산 부담을 발생시키며 대규모 컴퓨팅 및 스토리지 리소스가 필요합니다.
작업에서 다양한 알고리즘 모델의 궁극적인 목표는 특정 애플리케이션을 제공하는 것입니다. 물건을 사고 파는 것과 마찬가지로 우리는 수입과 지출을 통제해야 합니다. 산업 응용에서는 모델이 좋은 예측을 하도록 요구하는 것 외에도 컴퓨팅 리소스의 사용도 엄격하게 제어해야 하며 효율성을 고려하지 않고 결과만 고려할 수는 없습니다. 입력 데이터 인코딩량이 많은 컴퓨터 비전 분야에서는 컴퓨팅 리소스가 더욱 제한되어 있으며, 제어 알고리즘의 리소스 점유도가 더욱 중요합니다. 일반적으로 모델이 클수록 예측 결과가 더 좋지만 학습 시간이 길고 추론 속도가 느린 문제로 인해 모델을 실시간으로 배포하기가 어렵습니다. 특히 영상감시, 자율주행차, 처리량이 많은 클라우드 환경 등 컴퓨팅 자원이 제한된 기기에서는 응답속도가 확실히 부족하다. 작은 모델은 추론 속도가 더 빠르지만 매개변수가 부족하여 추론 효과와 일반화 성능이 좋지 않을 수 있습니다. 대규모 모델과 소규모 모델의 가중치를 어떻게 측정할 것인가는 항상 뜨거운 주제였습니다. 현재 대부분의 솔루션은 배포 환경에서 단말 장치의 성능을 기반으로 적절한 크기의 DNN 모델을 선택하는 것입니다.
빠른 추론 속도를 유지하면서 대형 모델과 동일하거나 가까운 효과를 얻을 수 있는 작은 모델을 원한다면 어떻게 해야 할까요?
머신러닝에서는 입력과 출력 사이에 잠재적인 매핑 기능 관계가 있다고 가정하는 경우가 많습니다. 새로운 모델을 처음부터 학습하는 것은 입력 데이터와 해당 라벨 사이에 대략 알 수 없는 매핑 기능입니다. 입력 데이터가 변경되지 않는다는 전제 하에 작은 모델을 처음부터 훈련시키는 것은 경험적 관점에서 큰 모델의 효과에 접근하기 어렵습니다. 일반적으로 소규모 모델 알고리즘의 성능을 향상시키기 위한 가장 효과적인 방법은 더 많은 입력 데이터에 레이블을 지정하는 것입니다. 즉, 더 많은 감독 정보를 제공하여 학습된 매핑 기능을 더욱 강력하게 만들고 더 나은 성능을 발휘할 수 있습니다. 두 가지 예를 들자면, 컴퓨터 비전 분야에서 인스턴스 분할 작업은 추가 마스크 정보를 제공하여 대상 경계 상자 감지 효과를 향상시킬 수 있습니다. 전이 학습 작업은 더 큰 규모의 사전 훈련된 모델을 제공하여 새로운 작업을 크게 향상시킬 수 있습니다. 데이터 세트 예측 효과. 따라서더 많은 감독 정보를 제공
하는 것이 소규모 모델과 대규모 모델 간의 격차를 줄이는 열쇠가 될 수 있습니다.앞서 말했듯이, 더 많은 감독 정보를 얻는다는 것은 더 많은 훈련 데이터에 라벨을 지정하는 것을 의미하며, 이는 종종 막대한 비용이 필요합니다. 그렇다면 감독 정보를 얻는 저비용의 효율적인 방법이 있을까요? 2006년 기사 [1]에서는 새 모델을 원래 모델에 가깝게 만들 수 있다고 지적했습니다(모델은 기능임). 원래 모델의 기능이 알려져 있기 때문에 새 모델을 훈련할 때 더 많은 감독 정보가 자연스럽게 추가되며 이는 분명히 더 실현 가능합니다.
더 생각해보면, 원래 모델이 가져온 감독 정보에는 다른 차원의 지식이 포함될 수 있습니다. 이러한 고유한 정보는 새 모델 자체에서는 어느 정도 포착되지 않을 수도 있습니다. "교차 도메인" 학습.2015년 Hinton은 "Distilling the Knowledge in a Neural Network"[2] 논문의 근사 아이디어를 따랐으며 "Knowledge Distillation(KD)" 개념을 처음 제안했습니다. 강력한 모델을 만들고, 그 안에 담긴 지식을 더 작은 모델에 전달함으로써 "소형 모델의 더 빠른 추론 속도를 유지하면서 대형 모델과 동등하거나 그에 가까운 효과를 달성한다"는 목적을 달성합니다. 먼저 훈련된 큰 모델을 교사 모델이라고 부를 수 있고, 나중에 훈련된 작은 모델을 학생 모델이라고 부를 수 있습니다. 전체 훈련 과정은 "교사-학생 학습"에 생생하게 비유될 수 있습니다. 그 후 몇 년 동안 많은 양의 지식 정제 및 교사-학생 학습 작업이 등장하여 업계에 더 많은 새로운 솔루션을 제공했습니다. 현재 KD는 모델 압축과 지식 전달이라는 두 가지 분야에서 널리 사용되고 있습니다[3].
02 Knowledge Distillation
Introduction
Knowledge Distillation은 "교사-학생 네트워크" 아이디어를 기반으로 한 모델 압축 방법으로, 단순성과 효율성 때문에 업계에서 널리 사용됩니다. . 그 목적은 훈련된 대형 모델인 Distill(Distill)에 포함된 지식을 다른 작은 모델로 추출하는 것입니다. 그렇다면 대형 모델의 지식이나 일반화 능력을 소형 모델에 어떻게 전달할 수 있을까요? KD 논문에서는 대형 모델의 샘플 출력의 확률 벡터를 소프트 타겟인 소형 모델에 제공하므로 소형 모델의 출력은 이 소프트 타겟(원래는 원-핫 인코딩에 의존함)에 의존하려고 합니다. 대규모 모델 행동의 학습을 근사화합니다.
기존의 하드 라벨 학습 과정에서는 모든 부정적인 라벨이 균일하게 처리되지만 이 방법은 카테고리 간의 관계를 분리합니다. 예를 들어, 손으로 쓴 숫자를 인식하려는 경우 "3"과 동일한 레이블이 있는 일부 그림은 "8"에 더 가깝게 보일 수도 있고 일부는 "2"에 더 가깝게 보일 수도 있지만 하드 레이블은 이 정보를 구별할 수 없습니다. 훈련된 대형 모델이 나올 수 있습니다. 대형 모델의 소프트맥스 레이어 출력에는 긍정적인 예 외에도 부정적인 레이블에도 많은 정보가 포함되어 있습니다. 예를 들어 일부 부정적인 레이블에 해당하는 확률은 다른 부정적인 레이블보다 훨씬 큽니다. 근사 학습의 동작을 통해 각 샘플은 기존 교육 방법보다 학생 네트워크에 더 많은 정보를 가져올 수 있습니다.
따라서 저자는 학생 네트워크를 훈련할 때 손실 함수를 수정하여 작은 모델이 훈련 데이터의 Ground Truth 레이블에 적합할 뿐만 아니라 대규모 모델 출력의 확률 분포에도 적합하도록 했습니다. 이 방법을 지식 증류 훈련(KD Training)이라고 합니다. 지식 증류 프로세스에 사용되는 훈련 샘플은 대규모 모델을 훈련하는 데 사용된 샘플과 동일하거나 독립적인 전송 세트를 찾을 수 있습니다.
방법에 대한 자세한 설명
구체적으로 지식 증류에서는 교사-학생 모델을 사용합니다. 여기서 교사는 "지식"의 출력이고 학생은 "지식"의 수신자입니다. 지식 증류 과정은 2단계로 나뉩니다.
- 교사 모델 훈련:
- Net-T라고 불리는 "교사 모델" 훈련은 상대적으로 복잡한 모델이 특징이며, 이는 개별적으로 훈련된 여러 모델을 통합할 수도 있습니다. 모델이 된다. 모델을 배포할 필요가 없기 때문에 모델 아키텍처, 매개 변수 양 또는 "교사 모델"에 대한 통합에는 제한이 없습니다. 유일한 요구 사항은 입력 X에 대해 Y를 출력할 수 있다는 것입니다. 여기서 Y는 매핑됩니다. Softmax 및 출력 값은 해당 카테고리의 확률 값에 해당합니다. 학생 모델 훈련:
- Net-S라고 하는 "학생 모델"을 훈련합니다. Net-S는 매개변수 수가 적고 모델 구조가 비교적 간단한 단일 모델입니다. 마찬가지로 입력 X에 대해 Y를 출력할 수 있고 Y도 소프트맥스 매핑 후 해당 카테고리에 해당하는 확률 값을 출력할 수 있습니다. softmax를 사용한 네트워크의 결과는 쉽게 극단적으로 갈 수 있기 때문에, 즉 특정 클래스의 신뢰도는 매우 높고 다른 클래스의 신뢰도는 매우 낮습니다. 이때 학생이 긍정적인 수업 정보를 얻을 수 있습니다. 주의를 기울이는 모델은 여전히 특정 클래스에만 속할 수 있습니다. 또한, 부정적인 정보의 범주도 상대적으로 중요하기 때문에 모든 부정적인 점수가 유사한 것은 좋지 않으며 지식 증류의 목적을 달성할 수 없습니다. 이러한 문제를 해결하기 위해 온도(Temperature)라는 개념을 도입하고, 높은 온도를 이용하여 작은 확률값이 담고 있는 정보를 추출해낸다. 구체적으로, 로지트는 소프트맥스 함수를 통과하기 전에 온도 T로 나눕니다.
훈련 중에 Teacher 모델이 학습한 지식은 먼저 작은 모델로 증류됩니다. 특히 샘플 X의 경우 큰 모델의 두 번째 레이어를 먼저 온도 T로 나눈 다음 소프트맥스를 통해 소프트 타겟을 예측합니다. 작은 모델도 마찬가지로 두 번째 레이어를 동일한 온도 T로 나눈 다음 소프트맥스를 통해 결과를 예측한 다음 이 결과의 교차 엔트로피와 소프트 타겟을 교육 전체 손실의 일부로 사용합니다. 그런 다음 작은 모델의 정규 출력과 실제 값 레이블(하드 타겟)의 교차 엔트로피가 훈련 총 손실의 또 다른 부분으로 사용됩니다. 총 손실은 작은 모델을 훈련하기 위한 최종 손실로 두 손실을 합친 가중치입니다.
소형 모델이 학습되어 예측이 필요한 경우 더 이상 온도 T가 필요하지 않으며 기존 소프트맥스에 따라 직접 출력할 수 있습니다.
03 FitNet
소개
FitNet 논문에서는 학생 모델의 훈련을 안내하기 위해 증류 과정에서 중급 수준의 힌트를 소개합니다. 좁고 깊은 학생 모델을 훈련하려면 넓고 얕은 교사 모델을 사용하세요. 힌트 안내를 수행할 때 힌트 레이어와 안내 레이어의 출력 모양을 일치시키는 레이어를 사용하는 것이 좋습니다. 이를 향후 작업에서는 종종 적응 레이어라고 합니다.
일반적으로 지식 증류를 할 때 Teacher 모델의 로짓 출력뿐만 아니라 Teacher 모델의 중간 계층 특징 맵을 감독 정보로 사용하는 것과 동일합니다. 상상할 수 있는 것은 작은 모델이 출력 끝에서 큰 모델을 직접 모방하는 것이 너무 어렵다는 것입니다(모델이 깊을수록 훈련하기가 더 어렵고 마지막 감독 신호 계층을 전면) 중간에 일부 감독 신호를 추가하면 모델이 훈련 중에 더 어려운 매핑 기능을 계층별로 학습할 수 있으며 힌트 안내를 통해 수렴이 가속화됩니다. 볼록하지 않은 문제에서 더 나은 로컬 최소값을 찾으면 학생 네트워크가 더 깊어지고 더 빠르게 훈련될 수 있습니다. 우리의 목적은 학생들에게 대학 입시 문제를 보도록 하는 것 같아서 먼저 중학교 문제를 가르칩니다(먼저 작은 모델이 모델의 전반부를 사용하여 이미지의 기본 특징을 추출하는 방법을 배우도록 합니다). 그런 다음 원래 목적으로 돌아가서 대학 입학 시험 문제를 학습합니다(소형 모델의 모든 매개변수를 조정하려면 KD를 사용함).
이 글은 제안된 증류 중간 특징 맵의 조상입니다. 제안된 알고리즘은 매우 간단하지만 아이디어는 획기적입니다.
방법에 대한 자세한 설명
FitNets의 구체적인 방법은 다음과 같습니다.
- 교사 네트워크를 결정하고, 성숙하게 훈련하여 교사 네트워크의 중간 기능 계층의 힌트를 추출합니다.
- 학생 네트워크를 설정하세요. 이 네트워크는 일반적으로 교사 네트워크보다 더 좁고 깊습니다. 학생 네트워크는 학생 네트워크의 중간 피처 레이어가 교사 모델의 힌트와 일치하도록 훈련되었습니다. 학생 네트워크의 중간 기능 레이어와 교사 힌트 크기가 다르기 때문에 힌트 레이어 크기에 맞게 기능 차원 향상을 위해서는 학생 네트워크의 중간 기능 레이어 뒤에 회귀자를 추가해야 합니다. Regressor를 통해 변환된 Teacher 네트워크의 힌트 레이어와 Student 네트워크의 중간 특징 레이어를 일치시키는 손실 함수가 평균 제곱 오차 손실 함수입니다.
실제 훈련에서는 이전 섹션의 KD Training과 함께 훈련을 위한 2단계 방법을 사용하는 경우가 많습니다. 먼저 힌트 훈련을 사용하여 작은 모델의 전반부의 매개변수를 사전 훈련한 다음 다음을 사용합니다. 모든 매개변수를 훈련하는 KD 훈련. 증류 과정에서 더 많은 감독 정보가 사용되므로 중간 특징 맵을 기반으로 한 증류 방법이 결과 로짓을 기반으로 한 증류 방법보다 성능이 좋지만 훈련 시간이 길어집니다.
04 요약
지식 증류는 앙상블이나 고도로 정규화된 대형 모델에서 소형 모델로 지식을 전달하는 데 매우 효과적입니다. 증류 모델을 훈련하는 데 사용되는 마이그레이션 데이터 세트에서 하나 이상의 클래스에 대한 데이터가 누락된 경우에도 증류는 매우 잘 작동합니다. 고전적인 KD와 FitNet이 제안된 후 다양한 증류 방법이 등장했습니다. 앞으로는 모델 압축 및 지식 전달 분야에서도 더 많은 연구를 진행하기를 희망합니다.
저자 소개
Ma Jialiang은 NetEase Yidun의 수석 컴퓨터 비전 알고리즘 엔지니어입니다. 그는 주로 콘텐츠 보안 분야에서 컴퓨터 비전 알고리즘의 연구, 개발, 최적화 및 혁신을 담당하고 있습니다.
위 내용은 대형 모델은 소형 모델을 정확하게 피드백하고, 지식 증류는 AI 알고리즘 성능을 향상하는 데 도움이 됩니다.의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!
![chatgpt를 사용할 수 없습니다! 즉시 테스트 할 수있는 원인과 솔루션 설명 [최신 2025]](https://img.php.cn/upload/article/001/242/473/174717025174979.jpg?x-oss-process=image/resize,p_40)
chatgpt에 액세스 할 수 없습니까? 이 기사는 다양한 실용적인 솔루션을 제공합니다! 많은 사용자가 매일 chatgpt를 사용할 때 액세스 할 수 없거나 느린 응답과 같은 문제가 발생할 수 있습니다. 이 기사는 다양한 상황에 따라 이러한 문제를 단계별로 해결하도록 안내합니다. Chatgpt의 접근성 및 예비 문제 해결의 원인 먼저 문제가 OpenAI 서버 측 또는 사용자의 네트워크 또는 장치 문제에 있는지 확인해야합니다. 문제 해결을 위해 아래 단계를 따르십시오. 1 단계 : OpenAI의 공식 상태를 확인하십시오 chatgpt 서비스가 정상적으로 실행 중인지 확인하려면 OpenAi 상태 페이지 (status.openai.com)를 방문하십시오. 빨간색 또는 노란색 알람이 표시되면 열린 것을 의미합니다.

2025 년 5 월 10 일, MIT 물리학 자 Max Tegmark는 AI Labs가 인공 초 지능을 방출하기 전에 Oppenheimer의 삼위 일체 테스트 미적분학을 모방해야한다고 Guardian에게 말했다. “내 평가는 'Compton Constant', 인종이

AI 음악 제작 기술은 매일 매일 변화하고 있습니다. 이 기사는 Chatgpt와 같은 AI 모델을 예로 사용하여 AI를 사용하여 음악 제작을 지원하고 실제 사례에 대해 설명하는 방법을 자세히 설명합니다. 우리는 Sunoai, Hugging Face의 AI Jukebox 및 Python 's Music21 Library를 통해 음악을 만드는 방법을 소개합니다. 이러한 기술을 통해 모든 사람은 독창적 인 음악을 쉽게 만들 수 있습니다. 그러나 AI 생성 컨텐츠의 저작권 문제는 무시할 수 없으며 사용할 때는 신중해야합니다. 음악 분야에서 AI의 무한한 가능성을 모색 해 봅시다! OpenAi의 최신 AI 에이전트 "OpenAi Deep Research"가 소개됩니다. [chatgpt] ope

ChatGpt-4의 출현은 AI 응용 프로그램의 가능성을 크게 확장했습니다. GPT-3.5와 비교하여 ChatGpt-4는 상당히 개선되었습니다. 강력한 맥락 이해력이 있으며 이미지를 인식하고 생성 할 수도 있습니다. 그것은 보편적 인 AI 조수입니다. 비즈니스 효율성 향상 및 창출 지원과 같은 많은 분야에서 큰 잠재력을 보여주었습니다. 그러나 동시에, 우리는 또한 사용의 예방 조치에주의를 기울여야합니다. 이 기사에서는 ChatGpt-4의 특성을 자세히 설명하고 다양한 시나리오에 대한 효과적인 사용 방법을 소개합니다. 이 기사에는 최신 AI 기술을 최대한 활용하는 기술이 포함되어 있습니다. OpenAi의 최신 AI 에이전트, "OpenAi Deep Research"에 대한 자세한 내용은 아래 링크를 클릭하십시오.

chatgpt 앱 : AI 조수와 함께 창의력을 발휘하십시오! 초보자 가이드 Chatgpt 앱은 쓰기, 번역 및 질문 답변을 포함하여 광범위한 작업을 처리하는 혁신적인 AI 어시스턴트입니다. 창의적인 활동과 정보 수집에 유용한 끝없는 가능성이있는 도구입니다. 이 기사에서는 초보자를위한 이해하기 쉬운 방법, ChatGpt 스마트 폰 앱을 설치하는 방법, 음성 입력 기능 및 플러그인과 같은 앱의 고유 한 기능 및 앱을 사용할 때 염두에 두는 포인트에 이르기까지 설명합니다. 또한 플러그인 제한 및 장치 간 구성 동기화를 자세히 살펴 보겠습니다.

Chatgpt Chinese 버전 : 중국 AI 대화의 새로운 경험 잠금 해제 Chatgpt는 전 세계적으로 인기가 있습니다. 중국어 버전도 제공한다는 것을 알고 있습니까? 이 강력한 AI 도구는 일상적인 대화를 지원할뿐만 아니라 전문적인 콘텐츠를 처리하며 단순화되고 전통적인 중국어와 호환됩니다. 중국의 사용자이든 중국어를 배우는 친구이든 상관없이 혜택을 누릴 수 있습니다. 이 기사는 계정 설정, 중국 신속한 단어 입력, 필터 사용 및 다양한 패키지 선택을 포함하여 ChatGpt 중국어 버전을 사용하는 방법을 자세히 소개하고 잠재적 위험 및 응답 전략을 분석합니다. 또한 ChatGpt 중국어 버전을 다른 중국 AI 도구와 비교하여 장점과 응용 프로그램 시나리오를 더 잘 이해할 수 있도록 도와줍니다. Openai의 최신 AI 인텔리전스

이것들은 생성 AI 분야의 다음 도약으로 생각 될 수 있으며, 이는 우리에게 Chatgpt 및 기타 대규모 모델 챗봇을 제공했습니다. 단순히 질문에 대답하거나 정보를 생성하는 대신, 우리를 대신하여 조치를 취할 수 있습니다.

ChatGpt를 사용한 효율적인 다중 계정 관리 기술 | 비즈니스와 사생활 사용 방법에 대한 철저한 설명! Chatgpt는 다양한 상황에서 사용되지만 일부 사람들은 여러 계정 관리에 대해 걱정할 수 있습니다. 이 기사는 ChatGpt에 대한 여러 계정을 만드는 방법, 사용할 때 수행 할 작업 및 안전하고 효율적으로 작동하는 방법을 자세히 설명합니다. 또한 비즈니스와 개인 사용의 차이, OpenAI의 이용 약관을 준수하는 것과 같은 중요한 점을 다루며 여러 계정을 안전하게 활용하는 데 도움이되는 안내서를 제공합니다. Openai


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

MinGW - Windows용 미니멀리스트 GNU
이 프로젝트는 osdn.net/projects/mingw로 마이그레이션되는 중입니다. 계속해서 그곳에서 우리를 팔로우할 수 있습니다. MinGW: GCC(GNU Compiler Collection)의 기본 Windows 포트로, 기본 Windows 애플리케이션을 구축하기 위한 무료 배포 가능 가져오기 라이브러리 및 헤더 파일로 C99 기능을 지원하는 MSVC 런타임에 대한 확장이 포함되어 있습니다. 모든 MinGW 소프트웨어는 64비트 Windows 플랫폼에서 실행될 수 있습니다.

SublimeText3 중국어 버전
중국어 버전, 사용하기 매우 쉽습니다.

DVWA
DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

스튜디오 13.0.1 보내기
강력한 PHP 통합 개발 환경

PhpStorm 맥 버전
최신(2018.2.1) 전문 PHP 통합 개발 도구