Qwen은 최신 가족 인 Qwen3의 일환으로 8 개의 새로운 모델을 유망한 기능을 선보였습니다. 플래그십 모델 인 QWEN3-235B-A22B는 표준 벤치 마크에서 DeepSeek-R1, OpenAi의 O1, O3-Mini, Grok 3 및 Gemini 2.5-Pro를 포함한 대부분의 다른 모델을 능가했습니다. 한편, 작은 QWEN3-30B-A3B는 QWQ-32B를 능가하는 성능을 발휘했으며, 이는 새로운 모델로 활성화 된 매개 변수의 약 10 배를 가졌다. 이러한 고급 기능을 통해 이러한 모델은 광범위한 응용 프로그램에 훌륭한 선택으로 판명되었습니다. 이 기사에서는 모든 QWEN3 모델의 기능을 탐색하고 RAG 시스템 및 AI 에이전트를 구축하는 데 사용하는 방법을 배웁니다.
목차
- QWEN3 란 무엇입니까?
- QWEN3의 주요 기능
- API를 통해 QWEN3 모델에 액세스하는 방법
- QWEN3을 사용하여 AI 솔루션에 전원을 공급합니다
- 전제 조건
- QWEN3을 사용하여 AI 에이전트 구축
- QWEN3을 사용하여 RAG 시스템 구축
- QWEN3의 응용
- 결론
- 자주 묻는 질문
QWEN3 란 무엇입니까?
QWEN3은 8 가지 모델로 구성된 Qwen 제품군의 최신 일련의 대형 언어 모델 (LLM)입니다. 여기에는 QWEN3-235B-A22B, QWEN3-30B-A3B, QWEN3-32B, QWEN3-14B, QWEN3-8B, QWEN3-4B, QWEN3-1.7B 및 QWEN3-0.6B가 포함됩니다. 이러한 모든 모델은 Apache 2.0 라이센스에 따라 릴리스되므로 개인, 개발자 및 기업이 자유롭게 사용할 수 있습니다.
이 모델 중 6 개는 밀도가 높기 때문에 추론 및 훈련 시간 동안 모든 매개 변수를 적극적으로 사용하지만 그 중 2 개는 공개 가중치입니다.
- QWEN3-235B-A22B : 2,350 억 매개 변수의 대형 모델은 220 억 개의 매개 변수입니다.
- QWEN3-30B-A3B : 300 억 개의 총 매개 변수와 30 억 개의 활성화 된 매개 변수를 가진 작은 MOE.
다음은 8 개의 QWEN3 모델을 모두 비교 한 것입니다.
모델 | 레이어 | 헤드 (Q/KV) | 넥타이 임베딩 | 컨텍스트 길이 |
Qwen3-0.6b | 28 | 16/8 | 예 | 32k |
Qwen3-1.7b | 28 | 16/8 | 예 | 32k |
QWEN3-4B | 36 | 32/8 | 예 | 32k |
QWEN3-8B | 36 | 32/8 | 아니요 | 128K |
QWEN3-14B | 40 | 40/8 | 아니요 | 128K |
QWEN3-32B | 64 | 64/8 | 아니요 | 128K |
QWEN3-30B-A3B | 48 | 32/4 | 아니요 | 128K |
QWEN3-235B-A22B | 94 | 64/4 | 아니요 | 128K |
테이블의 말은 다음과 같습니다.
- 층 : 층은 사용 된 변압기 블록의 수를 나타냅니다. 여기에는 다중 헤드 자체 정보 메커니즘, 피드 포워드 네트워크, 위치 인코딩, 층 정규화 및 잔류 연결이 포함됩니다. 따라서 QWEN3-30B-A3B에 48 개의 층이 있다고 말하면 모델이 48 개의 변압기 블록을 사용하여 순차적으로 또는 평행하게 쌓았다는 것을 의미합니다.
- 헤드 : 변압기는 다중 헤드주의를 사용하여 데이터에서 새로운 측면을 배우기 위해주의 메커니즘을 여러 헤드로 나눕니다. 여기서 Q/KV는 다음을 나타냅니다.
- Q (쿼리 헤드) : 쿼리 생성에 사용되는 총주의 헤드 수.
- KV (키 및 값) : 주의 블록 당 키/값 헤드 수.
참고 : 키, 쿼리 및 값에 대한 이러한 주의력은 자체 정보에 의해 생성 된 키, 쿼리 및 값 벡터와 완전히 다릅니다.
또한 읽기 : QWEN3 모델 : 액세스 방법, 성능, 기능 및 응용 프로그램
QWEN3의 주요 기능
다음은 QWEN3 모델의 주요 기능입니다.
- 사전 훈련 : 사전 훈련 프로세스는 세 단계로 구성됩니다.
- 첫 번째 단계에서,이 모델은 컨텍스트 길이가 4K 토큰으로 30 조 이상의 토큰으로 사전에 사전에 사전되었습니다. 이것은 모델 기본 언어 기술과 일반적인 지식을 가르쳤다.
- 두 번째 단계에서는 STEM, 코딩 및 추론 작업과 같은 지식 집약적 인 데이터의 비율을 높이면 데이터 품질이 향상되었습니다. 그런 다음이 모델은 5 조 5 조 개의 토큰에 대해 교육을 받았습니다.
- 마지막 단계에서는 컨텍스트 길이를 32k 토큰으로 증가시켜 고품질의 긴 컨텍스트 데이터를 사용했습니다. 이는 모델이 더 긴 입력을 효과적으로 처리 할 수 있도록 수행되었습니다.
- 사후 훈련 : 단계별 추론과 빠른 응답을 모두 할 수있는 하이브리드 모델을 개발하기 위해 4 단계 교육 파이프 라인이 구현되었습니다. 이것은 다음으로 구성되었습니다.
- 긴 체인 비서 (COT)
- 추론 기반 강화 학습 (RL)
- 사고 모드 퓨전
- 일반 rl
- 하이브리드 사고 모드 : QWEN3 모델은 두 가지 새로운 모드를 특징으로하는 문제 해결에 하이브리드 접근법을 사용합니다.
- 사고 모드 : 이 모드에서 모델은 복잡한 문제 설명을 작고 절차 적 단계로 나누기 위해 시간이 걸립니다.
- 생각이없는 모드 : 이 모드 에서이 모델은 빠른 결과를 제공하며 대부분 간단한 질문에 적합합니다.
- 다국어 지원 : QWEN3 모델은 119 개의 언어 및 방언을 지원합니다. 이를 통해 전 세계의 사용자가 이러한 모델의 혜택을받을 수 있습니다.
- 즉흥적 인 에이전트 기능 : Qwen은 MCP (Model Context Protocol)를 지원하는 더 나은 코딩 및 에이전트 기능을 위해 QWEN3 모델을 최적화했습니다.
API를 통해 QWEN3 모델에 액세스하는 방법
QWEN3 모델을 사용하려면 OpenRouter API를 사용하여 API를 통해 액세스 할 수 있습니다. 다음은 다음과 같은 방법입니다.
- OpenRouter에 계정을 만들고 모델 검색 바로 이동하여 해당 모델의 API를 찾으십시오.
- 선택한 모델을 선택하고 방문 페이지에서 'API 키 만들기'를 클릭하여 새 API를 생성하십시오.
QWEN3을 사용하여 AI 솔루션에 전원을 공급합니다
이 섹션에서는 QWEN3을 사용하여 AI 응용 프로그램을 구축하는 프로세스를 살펴 보겠습니다. 먼저 모델을 사용하여 AI 기반 Travel Planner Agent를 만들고 Langchain을 사용하여 Q/A Rag Bot을 생성합니다.
전제 조건
QWEN3을 사용하여 실제 AI 솔루션을 구축하기 전에 먼저 다음과 같은 기본 전제 조건을 다루어야합니다.
- 명령 프롬프트 또는 터미널 및 터미널을 통해이를 실행할 수있는 능력에 익숙합니다.
- 환경 변수를 설정하는 기능.
- 파이썬을 설치해야합니다 : https://www.python.org/downloads/
- Langchain의 기본 사항에 대한 지식 : https://www.langchain.com/
QWEN3을 사용하여 AI 에이전트 구축
이 섹션에서는 QWEN3을 사용하여 방문중인 도시 또는 장소의 주요 여행 장소를 제공하는 AI 기반 여행사를 만들 것입니다. 또한 에이전트가 인터넷을 검색하여 업데이트 된 정보를 찾고 통화 변환을 가능하게하는 도구를 추가 할 수 있습니다.
1 단계 : 라이브러리 및 도구 설정
먼저, 우리는 에이전트를 구축하는 데 필요한 필요한 라이브러리와 도구를 설치하고 가져올 것입니다.
! PIP 설치 Langchain Langchain-Community Openai Duckduckgo-Search langchain.chat_models에서 chatopenai를 가져옵니다 Langchain에서 Agents 가져 오기 도구 Langchain에서 Tools 가져 오기 Duckduckgosearchrun Langchain에서 Agents import initialize_agent llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "Your_api_key", Model = "Qwen/Qwen3-235B-A22B : 무료" )) # 웹 검색 도구 검색 = duckduckgosearchrun () # 목적지를위한 도구 def get_destinations (대상) : return search.run (f "{destination}"의 상위 3 개 관광지) DestinationTool = 도구 ( 이름 = "목적지 추천인", func = get_destinations, 설명 = "도시를 방문 할 최고의 장소를 찾습니다" )) # CurrencyAgent의 도구 def convert_usd_to_inr (query) : s.replace ( '.', '', 1) .isdigit ()] 인 if query.split ()의 s에 대한 float (s). 금액 인 경우 : return f "{금액 [0]} USD = {금액 [0] * 83.2 : .2f} inr" 반품 "금액을 구문 분석 할 수 없습니다." CurrencyTool = 도구 ( 이름 = "통화 변환기", func = convert_usd_to_inr, 설명 = "정적 속도에 따라 USD를 INR로 변환" ))
- Search_Tool : DuckDuckGosearchRun ()을 통해 에이전트는 웹 검색을 사용하여 인기있는 관광지에 대한 실시간 정보를 얻을 수 있습니다.
- DestinationTool : 검색 도구를 사용하여 주어진 도시에서 상위 3 개 관광지를 얻는 get_destinations () 함수를 적용합니다.
- CurrencyTool : convert_usd_to_inr () 함수를 사용하여 가격을 USD에서 INR로 변환합니다. 함수에서 'INR'을 변경하여 선택한 통화로 변환 할 수 있습니다.
또한 읽으십시오 : Huggingface, Langchain 및 Mistralai와 함께 여행 보조 챗봇 구축
2 단계 : 에이전트 생성
이제 모든 도구를 초기화 했으므로 도구를 사용하는 에이전트를 만들고 여행 계획을 세우십시오.
도구 = [DestinationTool, CurrencyTool] 에이전트 = initialize_agent ( 도구 = 도구, llm = llm, agent_type = "Zero-Shot-react-description", Verbose = true )) def trip_planner (City, USD_Budget) : dest = get_destinations (도시) inr_budget = convert_usd_to_inr (f "{usd_budget} usd to inr") 반환 f "" ""여행 계획은 다음과 같습니다. *{city}*의 최고 지점 : : {dest} *예산*: {inr_budget} 당일 치기 여행을 즐기세요! "" "
- Initialize_agent : 이 기능은 제로 샷 반응 접근법을 사용하여 Langchain을 사용하여 에이전트를 생성하여 에이전트가 도구 설명을 이해할 수있게합니다.
- Agent_type : "Zero-Shot-React-Description"을 통해 Agent LLM은 도구 설명 및 입력을 사용하여 사전 지식없이 특정 상황에서 어떤 도구를 사용해야하는지 결정할 수 있습니다.
- Verbose : Verbose는 에이전트의 사고 과정을 기록 할 수 있으므로, 우리는 상담원이 호출 된 모든 상호 작용 및 도구를 포함하여 각 결정을 모니터링 할 수 있습니다.
- Trip_planner : 이것은 에이전트에 의존하는 대신 도구를 수동으로 호출하는 파이썬 기능입니다. 이를 통해 사용자는 특정 문제에 가장 적합한 도구를 선택할 수 있습니다.
3 단계 : 에이전트 초기화
이 섹션에서는 에이전트를 초기화하고 응답을 관찰 할 것입니다.
# 에이전트를 초기화하십시오 City = "델리" usd_budget = 8500 # 다중 에이전트 플래너를 실행하십시오 Response = agent.run (f "{USD_Budget} USD의 예산으로 {city}로 당일 여행 계획") IPYTHON. DISPLAY 가져 오기 MarkDown, Display 디스플레이 (Markdown (응답))
- 에이전트 호출 : agent.run ()은 프롬프트를 통해 사용자의 의도를 사용하고 여행을 계획합니다.
산출
QWEN3을 사용하여 RAG 시스템 구축
이 섹션에서는 지식 기반의 관련 입력 문서 내의 모든 쿼리에 응답하는 래그 봇을 만들 것입니다. 이것은 QWEN/QWEN3-235B-A22B를 사용한 유익한 응답을 제공합니다. 이 시스템은 또한 Langchain을 사용하여 정확하고 상황을 인식하는 응답을 생성 할 것입니다.
1 단계 : 라이브러리 및 도구 설정
먼저, RAG 시스템을 구축하는 데 필요한 필요한 라이브러리 및 도구를 설치하고 가져올 것입니다.
! PIP 설치 Langchain Langchain-Community Langchain-Core Openai Tiktoken Chromadb 문장 transformers Duckduckgo-search langchain_community.document_loaders에서 텍스트 로더를 가져옵니다 langchain.text_splitter import aratertextsplitter에서 langchain_community.vectorstores import Chroma에서 langchain.embeddings import huggingfaceembeddings Langchain에서 체인 import retrievalqa langchain.chat_models에서 chatopenai를 가져옵니다 # 문서를로드하십시오 로더 = 텍스트 로더 ( "/content/my_docs.txt") docs = loader.load ()
- 문서로드 : Langchain의 "텍스트 로더"클래스는 Q/A 검색에 사용될 PDF, TXT 또는 DOC 파일과 같은 문서를로드합니다. 여기에 my_docs.txt를 업로드했습니다.
- 벡터 설정 선택 : ChromADB를 사용하여 Q/A 프로세스를 위해 벡터 데이터베이스의 임베딩을 저장하고 검색했습니다.
2 단계 : 임베딩 생성
이제 우리는 문서를로드 했으므로 문서를 작성하여 검색 프로세스를 완화하는 데 도움이됩니다.
# 청크로 나뉩니다 splitter = charac 청크 = splitter.split_documents (Docs) # Huggingface 모델이 포함되어 있습니다 Embedings = HuggingFaceembedDings (model_name = "All-Minilm-L6-V2") DB = Chroma.from_documents (청크, 임베딩 = 임베딩) # OpenRouter에서 Qwen LLM을 설정합니다 llm = chatopenai ( base_url = "https://openrouter.ai/api/v1", api_key = "Your_api_key", Model = "Qwen/Qwen3-235B-A22B : 무료" )) # Rag Chain을 만듭니다 Retriever = db.as_retriever (search_kwargs = { "k": 2}) rag_chain = retrievalqa.from_chain_type (llm = llm, retriever = retriever)
- 문서 분할 : 문자 텍스트 스플리터 ()는 텍스트를 작은 청크로 나누어 주로 두 가지에 도움이됩니다. 첫째, 검색 프로세스가 완화되고 둘째, Chunk_overlap을 통해 이전 청크의 컨텍스트를 유지하는 데 도움이됩니다.
- 포함 문서 : 임베딩은 텍스트를 각 토큰에 대한 세트 차원의 임베딩 벡터로 변환합니다. 여기서 우리는 300의 chunk_size를 사용했습니다. 즉, 모든 단어/토큰이 300 치수의 벡터로 변환됩니다. 이제이 벡터 임베딩은 청크의 다른 단어와 관련하여 해당 단어의 모든 맥락 정보를 갖습니다.
- Rag Chain : Rag Chain은 ChromADB와 LLM을 결합하여 RAG를 형성합니다. 이를 통해 우리는 문서와 모델에서 상황에 맞는 답변을 얻을 수 있습니다.
3 단계 : 헝겊 시스템 초기화
# 질문을하십시오 response = rag_chain.invoke ({ "query": "MCP와 함께 Qwen을 어떻게 사용할 수 있습니까? 필요한 코드 스 니펫과 함께 단계별 가이드를 알려주세요"}). display (markdown (응답 [ 'result']))
- 쿼리 실행 : rag_chain_invoke () 메소드는 사용자의 쿼리를 래그 시스템으로 보낸 다음 문서 저장소 (벡터 DB)에서 관련 컨텍스트 인식 청크를 검색하고 컨텍스트 인식 답변을 생성합니다.
산출
여기에서 전체 코드를 찾을 수 있습니다.
QWEN3의 응용
다음은 산업 전반에 걸쳐 QWEN3의 추가 응용 프로그램입니다.
- 자동 코딩 : QWEN3은 코드에 대한 문서를 생성, 디버그 및 제공하여 개발자가 수동 노력없이 오류를 해결할 수 있도록 도와줍니다. 22B 매개 변수 모델은 Coding에서 탁월하며 DeepSeek-R1, Gemini 2.5 Pro 및 OpenAi의 O3-Mini와 같은 모델과 비교할 수 있습니다.
- 교육 및 연구 : QWEN3는 수학, 물리학 및 논리적 추론 문제 해결에서 높은 정확도를 보관합니다. 또한 Gemini 2.5 Pro와 경쟁하는 반면 OpenAi의 O1, O3-Mini, DeepSeek-R1 및 Grok 3 베타와 같은 모델로 탁월합니다.
- 에이전트 기반 도구 통합 : QWEN3은 또한 도구 통합 템플릿과 함께 다중 단계 및 다수의 워크 플로우에 외부 도구, API 및 MCP를 사용할 수있게함으로써 AI 에이전트 작업을 이끌어냅니다.
- 고급 추론 작업 : QWEN3은 광범위한 사고 능력을 사용하여 최적의 정확한 반응을 제공합니다. 이 모델은 복잡한 작업에 대한 사슬의 추론과 최적화 된 속도를 위해 생각하지 않는 모드를 사용합니다.
결론
이 기사에서는 QWEN3 구동 에이전트 AI 및 RAG 시스템을 구축하는 방법을 배웠습니다. QWEN3의 고성능, 다국어 지원 및 고급 추론 능력은 지식 검색 및 에이전트 기반 작업을위한 강력한 선택입니다. QWEN3을 RAG 및 에이전트 파이프 라인에 통합함으로써 정확하고 상황을 인식하며 부드러운 응답을 얻을 수있어 AI 구동 시스템에 대한 실제 응용 프로그램을위한 강력한 경쟁자가 될 수 있습니다.
자주 묻는 질문
Q1. QWEN3은 RAG의 다른 LLM과 어떻게 다릅니 까?A. QWEN3에는 응답을 동적으로 변경할 수있는 하이브리드 추론 기능이있어 검색 및 복잡한 분석을 위해 RAG 워크 플로우를 최적화 할 수 있습니다.
Q2. 헝겊을 통합하는 데 필요한 도구는 무엇입니까?A. 주로 벡터 데이터베이스, 임베딩 모델, Langchain 워크 플로 및 API가 포함되어있어 모델에 액세스합니다.
Q3. QWEN3은 에이전트 워크 플로에서 다단계 도구 체인을 허용 할 수 있습니까?예, Qwen-Agent 내장 도구 통화 템플릿을 사용하면 웹 검색, 데이터 분석 및 보고서 생성과 같은 순차적 도구 작업을 구문 분석하고 활성화 할 수 있습니다.
Q4. QWEN3 에이전트 응답에서 대기 시간을 줄이는 방법은 무엇입니까? A. 여러 가지면에서 대기 시간을 줄일 수 있으며 일부는 다음과 같습니다.
1. QWEN3-30B-A3B와 같은 MOE 모델 사용은 30 억 개의 활성 매개 변수 만 있습니다.
2. GPU- 최적화 된 추론을 사용하여.
A. 일반적인 오류에는 다음이 포함됩니다.
1. JSON 형식 및 init와 같은 MCP 서버 초기화 실패.
2. 도구 응답 페어링 오류.
3. 컨텍스트 창 오버플로.
위 내용은 QWEN3을 사용하여 Rag 시스템 및 AI 에이전트를 구축하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

AI 에이전트는 이제 크고 작은 기업의 일부입니다. 병원의 양식 작성 및 법률 문서 확인에서 비디오 장면 분석 및 고객 지원 처리에 이르기까지 모든 종류의 작업에 대한 AI 에이전트가 있습니다. 동료

인생은 좋다. 예측 가능 - 당신의 분석적 마음이 그것을 선호하는 방식으로. 당신은 오늘 사무실에 들려 마지막 순간의 서류를 마무리했습니다. 그 후 바로 당신은 파트너와 아이들을 햇볕이 잘 드는 휴가를 보내고 있습니다.

그러나 과학적 합의에는 딸꾹질과 gotchas가 있으며, 아마도 더 신중한 접근 방식은 양심으로도 알려진 증거의 수렴을 사용하는 것일 것입니다. 그것에 대해 이야기합시다. 혁신적인 AI 혁신에 대한이 분석은 나의

Openai 나 Studio Ghibli는이 이야기에 대한 의견 요청에 응답하지 않았습니다. 그러나 그들의 침묵은 창조적 인 경제에서 더 넓고 복잡한 긴장을 반영합니다. 생성 AI 시대에 저작권은 어떻게 기능해야합니까? 같은 도구와 함께

콘크리트와 소프트웨어는 모두 필요한 경우 강력한 성능을 위해 아연 도금 될 수 있습니다. 둘 다 스트레스 테스트를 할 수 있으며, 둘 다 시간이 지남에 따라 균열과 균열로 고통받을 수 있으며, 둘 다 분해되어 두 기능의 생산 인 "새로운 빌드"로 재현 할 수 있습니다.

그러나 많은보고는 매우 표면 수준에서 멈 춥니 다. Windsurf가 무엇인지 알아 내려고한다면 Google 검색 엔진 결과 상단에 표시되는 신디케이트 된 콘텐츠에서 원하는 것을 얻지 못할 수도 있습니다.

주요 사실 공개 서한에 서명 한 리더에는 Adobe, Accenture, AMD, American Airlines, Blue Origin, Cognizant, Dell, Dropbox, IBM, LinkedIn, Lyft, Microsoft, Salesforce, Uber, Yahoo 및 Zoom과 같은 유명 회사의 CEO가 포함됩니다.

이 시나리오는 더 이상 투기 소설이 아닙니다. 통제 된 실험에서 Apollo Research는 GPT-4가 불법적 인 내부자 거래 계획을 실행 한 다음 조사관에게 거짓말을하는 것을 보여주었습니다. 에피소드는 두 개의 곡선이 상승하고 있음을 생생하게 상기시켜줍니다.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

Video Face Swap
완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

인기 기사

뜨거운 도구

맨티스BT
Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전

안전한 시험 브라우저
안전한 시험 브라우저는 온라인 시험을 안전하게 치르기 위한 보안 브라우저 환경입니다. 이 소프트웨어는 모든 컴퓨터를 안전한 워크스테이션으로 바꿔줍니다. 이는 모든 유틸리티에 대한 액세스를 제어하고 학생들이 승인되지 않은 리소스를 사용하는 것을 방지합니다.

SecList
SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.