찾다
기술 주변기기일체 포함Deepseek R1 '의 고급 추론 능력 디코딩

DeepSeek-R1의 고급 추론 능력으로 인해 생성 LLM 필드의 새로운 리더가되었습니다. 이로 인해 AI 업계에서 NVIDIA의 6 천억 달러의 손실이 시작된 보고서와 함께 AI 업계에서 저주를 받았습니다. 그러나 DeepSeek-R1이 밤새 유명한 이유는 무엇입니까? 이 기사에서는 DeepSeek-R1이 왜 그렇게 많은 관심을 끌고, 획기적인 기능을 탐구하고, 추론 권한이 실제 응용 프로그램을 어떻게 재구성하는지 분석하는 이유를 살펴 보겠습니다. 상세하고 구조화 된 분석을 통해 모델의 성능을 분류 할 때 계속 지켜봐 주시기 바랍니다.

학습 목표

DeepSeek-R1의 고급 추론 능력과 LLM 환경에 미치는 영향을 이해하십시오. 그룹 상대 정책 최적화 (GRPO)가 비평가 모델없이 강화 학습을 향상시키는 방법을 배우십시오. 훈련 및 성능 측면에서 DeepSeek-R1-Zero와 DeepSeek-R1의 차이점을 탐색하십시오. 추론 작업에서 DeepSeek-R1의 우수성을 보여주는 평가 지표 및 벤치 마크 분석. DeepSeek-R1이 확장 가능한 고 처리량 AI 모델로 STEM 및 코딩 작업을 최적화하는 방법을 알아보십시오.

    이 기사는 데이터 과학 블로그 톤의
  • 의 일부로 출판되었습니다. 목차
  • Deepseek-R1은 무엇입니까?
  • GRPO)의 그룹 상대 정책 최적화 (GRPO)
  • DeepSeek-R1-Zero에서의 교육 프로세스 및 최적화

GRPO가 어떻게 작동합니까? 일반적인 권한을 높이는 방법은 무엇입니까? DeepSeek-r1 DeepSeek-r1의 평가 DeepSeek-R1-7B의 추론 능력 평가 고급 추론 및 문제 해결 시나리오

결론

자주 묻는 질문
  • DeepSeek-R1은 무엇입니까? 간단한 말로 DeepSeek-R1은 2023 년 Liang Wenfeng이 설립 한 DeepSeek가 개발 한 최첨단 언어 모델 시리즈입니다. 강화 학습 (RL)을 통해 LLM에서 고급 추론 능력을 달성했습니다. 두 가지 변형이 있습니다 :
  • deepseek-r1-Zero 는 감독 된 미세 조정 (SFT)없이 기본 모델에서 RL을 통해 순수하게 훈련을받으며,자가 검증 및 다중 단계 반사와 같은 고급 추론 동작을 자율적으로 개발하여 AIME 2024 벤치 마크에서 71% 정확도를 달성합니다. deepseek-r1 콜드 스타트 ​​데이터 및 다단계 교육 (RL SFT)으로 향상되었으며, 가독성 문제를 해결하고 Math-500 (97.3% 정확도) 및 코딩 문제 (코딩 등급 2029)와 같은 작업에서 OpenAI의 O1보다 성능이 우수합니다. DeepSeek은 비평가 모델을 사용하지 않고 RL의 교육 비용을 절약하는 RL 기술 인 GRPO (Group Relative Policy Optimization)를 사용합니다. GRPO는 출력을 그룹화하고 보상을 정규화하여 정책을 최적화하여 비평가 모델의 필요성을 제거합니다.이 프로젝트는 또한 추론 패턴을 소규모 모델 (1.5B-70B)으로 증류시켜 효율적인 배포를 가능하게합니다. 벤치 마크에 따르면 7B 모델은 GPT-4O를 능가합니다 Deepseek-R1 용지 비교 차트

    Aime DataSet 에서 DeepSeek-R1-Zero의 정확도 플롯

    Deepseek Open-Sourced 모델, 훈련 파이프 라인 및 벤치 마크는 RL 중심의 추론 연구를 민주화하여 STEM, 코딩 및 지식 집약적 인 작업을위한 확장 가능한 솔루션을 제공하는 것을 목표로합니다. DeepSeek-R1은 저렴한 저비용 고 처리량 SLM 및 LLM의 새로운 시대로가는 길을 지시합니다. 그룹 상대 정책 최적화 (GRPO) 란 무엇입니까? 최첨단 GRPO에 들어가기 전에 강화 학습 (RL)의 기본 사항을 서핑합시다. 강화 학습은 대리인과 환경의 상호 작용입니다. 훈련 중에 에이전트는 누적 보상을 극대화 할 수 있도록 조치를 취합니다. 실제 품목으로 작업을 수행하려고 공장 바닥에서 체스 또는 로봇을 연주하는 봇에 대해 생각해보십시오.

    에이전트는 수행하여 배우고 있습니다. 일을 제대로 할 때 보상을받습니다. 그렇지 않으면 부정적입니다. 이러한 반복적 인 시험을 수행함으로써, 알 수없는 환경에 적응하기위한 최적의 전략을 찾는 여행이 될 것입니다. Deepseek R1 '의 고급 추론 능력 디코딩. 여기에는 강화 학습의 간단한 다이어그램이 있습니다. 3 가지 구성 요소가 있습니다. 코어 rl 루프

    학습 된 정책을 기반으로 조치를 취하는 에이전트 행동은 주어진 상태에서 에이전트가 결정한 것입니다.

    환경은 에이전트가 상호 작용하여 작동하고 배우는 외부 시스템 (게임, 워크샵 바닥, 비행 드론 등)입니다. 환경은 새로운 상태와 보상의 형태로 에이전트에게 피드백을 제공합니다.

    에이전트 구성 요소

    값 함수는 장기 보상 측면에서 특정 상태 또는 행동이 얼마나 좋은지 추정합니다. 정책은 에이전트의 행동 선택을 정의하는 전략입니다.

    값 함수는 의사 결정을 개선하도록 돕는 정책을 알려줍니다. 정책 가이드 (가이드 관계) RL 루프에서 조치를 선택할 때 에이전트

    학습 요소

    경험, 여기에서 에이전트는 환경과 상호 작용하는 동안 거래를 수집합니다. 최적화 또는 정책 업데이트는 경험을 사용하여 정책과 중요한 의사 결정을 개선합니다.

    DeepSeek-R1-Zero의 교육 과정 및 최적화 수집 된 경험은 최적화를 통해 정책을 업데이트하는 데 사용됩니다. 가치 함수는 정책을 개선하기위한 통찰력을 제공합니다. 이 정책은 환경과 상호 작용하여 새로운 경험을 수집하고 에이전트가 최적의 전략을 배우거나 환경에 적응하도록 개선 할 때까지주기가 계속됩니다. DeepSeek-R1-Zero의 교육에서 그룹 상대 정책 최적화 또는 GRPO를 사용하여 비평가 모델을 제거하고 교육 비용을 낮 춥니 다. DeepSeek-R1 연구 논문에 대한 나의 이해에 관해서는, 여기에 Deepseek-R1-Zero 및 Deepseek-R1 모델의 개략도 훈련 과정이 있습니다.

    임시 Deepseek-r1-Zero 및 R1 훈련 다이어그램

    GRPO는 어떻게 작동합니까? 각 질문 Q에 대해 GRPO는 이전 정책에서 출력 그룹 {O1, O2, O2 ..} 아래의 목표를 극대화하여 정책 모델을 최적화합니다.

    여기에 엡실론과 베타는 하이퍼 파라미터이며, A_i는 각 그룹 내의 출력에 해당하는 보상 그룹 {r1, r2, r3… rg} 그룹을 사용하여 계산 된 이점입니다. Deepseek R1 '의 고급 추론 능력 디코딩 우위 계산

    우위 계산에서 그룹 출력 내에서 보상을 정상화하면 r_i

    출력에 대한 보상이 그룹의 모든 출력에 대한 보상입니다.

    .

    kl 페널티로 클리핑 정책 업데이트를 최대화하려면 kullback-leibler divergence Deepseek R1 '의 고급 추론 능력 디코딩 상대 엔트로피라고도하는 KL 발산은 통계적 거리 함수로 모델의 확률 분포 (Q)와 실제 확률 분포 (P). 더 많은 kl-divergence의 경우 아래 방정식은 kl-divergence의 수학적 형태입니다 :

    상대 엔트로피 또는 KL 거리는 항상 음이 아닌 실수입니다. q와 p가 동일 한 경우에만 가장 낮은 값이 0입니다. 즉, 모델 확률 분포 (Q) 및 실제 확률 분포 (P) 중첩 또는 완벽한 시스템이 모두 의미합니다. kl divergence의 예 kl divergence, 를 보여주는 간단한 예는 다음과 같습니다 우리는 Scipy 통계 패키지의 엔트로피 함수를 사용하면 두 분포 사이의 상대 엔트로피를 계산합니다.

    우리의 p와 q는 가우시안과 같은 가우스 분포로 각각 가우시안 유통입니다.

    노란색 부분은 p와 Q의 kl 차이입니다. GRPO 방정식에서 GRPO는 각 쿼리에 대한 출력 그룹을 샘플링하고 그룹의 평균 및 표준 편차에 비해 이점을 계산합니다. 이것은 별도의 비평가 모델을 훈련시키는 것을 피합니다. 목적에는 참조 정책에 가깝게 유지하기위한 클리션 비율과 KL 페널티가 포함됩니다.

    비율 부분은 신규 및 기존 정책의 확률 비율입니다. 클립 (비율)은 1-Epsilon과 1 Epsilon 사이에 제한됩니다.

    Deepseek R1 '의 고급 추론 능력 디코딩 사용자와 조수 간의 대화 프로세스 사용자는 질문을하고 모델이나 조수는 먼저 추론 과정에 대해 생각한 다음 사용자에게 응답함으로써이를 해결합니다. 추론과 답변은 아래 다이어그램에 동봉되어 있습니다.

    DeepSeek-R1-Zero의 자체 진화 과정은 강화 학습이 모델의 추론 능력을 자율적으로 향상시킬 수있는 방법을 보여줍니다. 차트는 복잡한 추론 작업을 처리하기위한 모델의 추론 능력을 보여줍니다.

    Deepseek R1 '의 고급 추론 능력 디코딩 DeepSeek-r1 deepseek-r1, 제로 모델의 유망한 결과 후에 발생하는 두 가지 중요한 질문에 답하십시오.

    추론 성능을 더욱 향상시킬 수 있습니까? 명확하고 일관된 사고 체인 (COT)뿐만 아니라 강력한 일반적인 기능을 보여주는 사용자 친화적 인 모델을 어떻게 훈련시킬 수 있습니까?
    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy
    DeepSeek-R1은 콜드 스타트 ​​데이터를 사용하여 개발자가 수천 개의 콜드 스타트 ​​데이터를 수집하여 DeepSeek-V3-Base를 RL의 시작점으로 미세 조정합니다.

    이 데이터는 DeepSeek-R1-Zero와 비교하여 두 가지 중요한 장점이 있습니다

    가독성 Deepseek R1 '의 고급 추론 능력 디코딩 : 제로 모델의 주요 제한은 내용이 읽기에 적합하지 않다는 것입니다. 응답은 많은 언어와 혼합되어 있으며 사용자를위한 답변을 강조하기 위해 잘 형식화되지 않았습니다.

    전위 : 콜드 스타트 ​​데이터 패턴을 설계하여 DeepSeek-R1-Zero에 대한 더 나은 성능에 도움이됩니다. DeepSeek-r1 평가 DeepSeek-R1 용지에 따르면, 그들은 (개발자) 모델의 최대 생성 길이를 32768 토큰으로 설정했습니다. 그들은 긴 출력 추론 모델로 인해 탐욕스러운 디코딩과 상당한 변동성으로 반복 률이 높아졌습니다. 따라서 Pass@K 평가를 사용하고 각 질문에 대해 k 숫자 응답을 생성하기 위해 0.6의 샘플링 온도와 0.95의 상단 P 값을 사용합니다. 그런 다음@1 패스@1은 다음과 같이 계산됩니다

      <_> 여기서, P_I는 I-TH 응답의 정확성을 나타냅니다. 연구 논문에 따르면이 방법은보다 안정적인 성능 추정치를 보장합니다.
    • .
    • 우리는 MMLU, MMLU-PRO, GPQA DIAMOND 및 DEEPSEEK-R1과 같은 교육 지식 지식 벤치 마크가 DeepSeek-V3에 비해 더 나은 성능을 보인다는 것을 알 수 있습니다. STEM 관련 질문에서 주로 정확도가 향상되었습니다. DeepSeek-R1은 또한 형식 지침을 따르는 모델의 능력을 평가하도록 설계된 벤치 마크 데이터 인 if-Eval에 대한 훌륭한 결과를 제공합니다. 충분한 수학과 이론적 이해가 이루어졌으며, 이는 강화 학습에 대한 전반적인 지식과 DeepSeek-R1 모델 개발에 대한 최첨단 응용 프로그램을 크게 향상시키고 싶습니다. 이제 우리는 Ollama를 사용하여 Deepseek-R1에 손을 대고 새로 박하 LLM을 맛볼 것입니다. deepseek-7b 의 추론 능력 평가 DeepSeek-R1-7B의 평가는 강화 된 추론 기능, 특히 복잡한 문제 해결 시나리오에서의 성능에 중점을 둡니다. 주요 벤치 마크를 분석 함으로써이 평가는 모델이 이전 모델에 비해 복잡한 추론 작업을 얼마나 효과적으로 처리하는지에 대한 통찰력을 제공합니다. 우리가 달성하고 싶은 것

      다른인지 영역에서 DeepSeek-R1의 추론 능력을 평가하십시오 특정 추론 작업에서 강점과 한계를 식별하십시오 모델의 잠재적 인 실제 응용 프로그램 를 이해하십시오

      환경을 설정

      ollama를 에서 설치하십시오 시스템에 설치 한 후 터미널을 열고 아래 명령을 입력하면 DeepSeek-R1 7B 모델을 다운로드하여 시작합니다.

      이제 나는 ncert 에서 선형 불평등 질문을했습니다 Q.Solve 4x 3 & lt; 6x 7

      및 응답은 다음과 같습니다
      • 책에 따라 정확합니다.
      • Amazing !! 이제 Llamaindex를 사용하여 테스트 환경을 설정하여 더욱 두드러진 방법이 될 것입니다.
      • . 설정 테스트 환경

    • 이제 필요한 패키지를 설치합니다 패키지를 설치하십시오

    이제 vscode를 열고 Jupyter 노트북 이름 Prompt_analysis.ipynb 프로젝트 폴더의 루트를 만듭니다. 가져 오기 라이브러리

    당신은 터미널에서 Ollama deepseek-r1 : 7b를 계속 달려야합니다 이제 수학적 문제로 시작하십시오 imporant :

    모든 잠재적 문제를 식별 왜 각각이 문제인지 설명하십시오 수정 된 버전을 제공

    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy
    솔루션이 더 나은 이유를 설명하십시오

    출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩

    deepseek-r1은 에지 케이스를 찾고, 오류 조건을 이해하고, 보정을 적용하며, 기술 솔루션을 설명합니다. . <:> 비교 분석 : 전기 대 휘발유 차량 전기 자동차와 전통적인 휘발유 차량을 비교 :

    환경 영향

    장기 비용

    편의성

    성능
    # Define two probability distributions P and Q
    x = np.linspace(-3, 3, 100)
    P = np.exp(-(x**2))  # Gaussian-like distribution
    Q = np.exp(-((x - 1) ** 2))  # Shifted Gaussian
    
    # Normalize to ensure they sum to 1
    P /= P.sum()
    Q /= Q.sum()
    
    # Compute KL divergence
    kl_div = entropy(P, Q)
    각 요인에 대해 구체적인 예와 데이터 포인트를 제공하십시오. 그런 다음 어떤 자동차 유형의 자동차가 더 나은지 설명하십시오 :
      짧은 통근이있는 도시 거주자 매년 30,000 마일을 운전하는 여행용 영업 사원
    • 추천을 정당화하십시오.
    • 출력 :
    • 그것은 큰 반응입니다. 나는 추론 과정을 좋아했습니다. 여러 요소를 분석하고 컨텍스트를 고려하고, 좋은 권장 사항을 만들고, 경쟁 우선 순위를 균형을 유지합니다.
    • . > 윤리적 딜레마 : 자율 주행 차에서의 의사 결정
    • 자율 주행 차는 스플릿 초 결정을 내려야합니다
    • <:> swerve 왼쪽 : 두 명의 보행자를 때리십시오 <:> 오른쪽 : 벽을 때리고 승객을 심각하게 다치게하십시오
    <:> 오른쪽 : 벽을 때리고 승객을 심각하게 다치게하십시오
    plt.style.use("ggplot")
    plt.figure(figsize=(12, 8))
    plt.plot(x, P, label="P (Original)", line, color="blue")
    plt.plot(x, Q, label="Q (Shifted)", line, color="red")
    plt.fill_between(x, P, Q, color="yellow", alpha=0.3, label="Difference")
    plt.title(f"KL Divergence: {kl_div:.4f}")
    plt.xlabel("x")
    plt.ylabel("Probability Density")
    plt.legend()
    plt.show()

    차는 무엇을해야합니까? 다음을 고려하여 추론을 제공하십시오 윤리적 프레임 워크 사용 가정은 를 만들었습니다 우선 순위 계층

    장기적 영향

    Deepseek R1 '의 고급 추론 능력 디코딩 출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩이러한 유형의 문제는 생성 AI 모델에 가장 문제가됩니다. 그것은 윤리적 추론, 다중 관점, 도덕적 딜레마 및 가치 판단을 테스트합니다. 전반적으로, 그것은 하나였습니다. 나는 더 윤리적 인 영역 별 미세 조정이 더 심오한 반응을 일으킬 것이라고 생각합니다.

    . 통계 분석 : 커피 소비에 대한 연구 주장 평가 연구에 따르면 커피를 마시는 사람은 비 관찰자보다 더 오래 살고 있다고 주장합니다. 이 연구는 5 년 동안 40-50 세의 1000 명을 관찰했습니다.

    식별 :

    잠재적 혼란 변수 샘플링 바이어스 대체 설명 결론을 강화하거나 약화시키는 추가 데이터는 무엇입니까?

    출력 :
    • 그것은 통계 개념을 충분히 이해하고, 연구 한계를 식별하고, 데이터에 대한 비판적 사고를 식별하고, 방법 론적 개선을 제안합니다.
    • . 시계열 분석
    • 출력 :
    • Deepseek은 수학적 문제를 좋아하고 지수 부패를 처리하며 수학적 모델을 제공하며 계산을 제공합니다. 스케줄링 작업
    출력 :
    import numpy as np
    import matplotlib.pyplot as plt
    from scipy.stats import entropy

    는 여러 제약 조건을 처리하고 최적화 된 일정을 생성하며 문제 해결 프로세스를 제공 할 수 있습니다. 크로스 도메인 분석 출력 :

    Deepseek R1 '의 고급 추론 능력 디코딩 그것은 다양한 유형의 도메인을 함께 비교하는 작업을 훌륭하게 수행하여 매우 인상적입니다. 이러한 유형의 추론은 다른 유형의 도메인이 서로 얽히도록 돕으므로 다른 도메인의 솔루션으로 하나의 도메인 문제를 해결할 수 있습니다. 그것은 크로스 도메인 이해에 대한 연구에 도움이됩니다.

    그러나 페니를 쓰지 않고 현지 시스템의 모델을 실험 할 수있는 많은 예제 프롬프트가 있습니다. 더 많은 연구를 위해 DeepSeek-R1을 사용하고 다른 영역에 대해 배우겠습니다. 당신이 필요한 것은 노트북, 시간, 좋은 곳입니다.

    이 기사에서 사용 된 모든 코드가 여기에 있습니다.

    결론 DeepSeek-R1은 다양한 추론 작업에 걸쳐 유망한 기능을 보여 주며, 구조화 된 논리 분석, 단계별 문제 해결, 다중 컨텍스트 이해 및 다양한 주제의 지식 축적에서 고급 추론 기능을 보여줍니다. 그러나 복잡한 시간적 추론, 깊은 ​​모호성 처리 및 창의적인 솔루션 생성과 같은 개선 영역이 있습니다. 가장 중요한 것은 GPU의 엄청난 훈련 비용의 부담없이 DeepSeek-R1과 같은 모델이 어떻게 개발 될 수 있는지 보여줍니다.

    오픈 소스 모델은 AI를 더 민주적 인 영역으로 향하게합니다. 이 교육 방법에 대한 새로운 연구가 곧 수행 될 것이며, 더 나은 추론 능력을 가진보다 강력하고 강력한 AI 모델로 이어질 것입니다. AGI는 여전히 먼 미래에 있을지 모르지만 DeepSeek-R1의 발전은 AGI가 사람들과 함께 나올 미래를 향한 것을 지적합니다. DeepSeek-R1은 의심 할 여지없이보다 진보 된 AI 추론 시스템을 실현하는 데 중요한 단계입니다. 키 테이크 아웃

    DeepSeek R1의 고급 추론 기능은 구조화 된 논리 분석을 수행하고, 단계별로 문제를 해결하며, 다른 영역에서 복잡한 맥락을 이해하는 능력을 통해 빛납니다.

    이 모델은 다양한 주제로부터 지식을 축적함으로써 추론의 경계를 넓히고, 다른 생성 LLM과 차별화되는 인상적인 다중 컨텍스트 이해를 보여줍니다. 강점에도 불구하고 DeepSeek R1의 고급 추론 능력은 여전히 ​​복잡한 시간적 추론 및 모호성 취급과 같은 영역에서 여전히 도전에 직면하여 향후 개선을위한 문을 열어줍니다.

    . DeepSeek R1은 모델을 개방형 소스로 만들면 추론을 발전시킬뿐만 아니라 최첨단 AI에 대한 접근성을 높이고 AI 개발에보다 민주적 인 접근 방식을 제공합니다.

    . Deepseek R1의 고급 추론 능력은 AI 모델의 향후 획기적인 길을 열어 주었고, 지속적인 연구와 혁신을 통해 AGI가 등장 할 수 있습니다.

    자주 묻는 질문

      q 1. DeepSeek-R1-7B는 추론 작업의 대형 모델과 어떻게 비교됩니까?
    • q 3. 이러한 평가 방법은 얼마나 신뢰할 수 있습니까? Human-> Prompt-> ai-> response-> human-> 실제 응답 이 기사에 나와있는 미디어는 Analytics Vidhya가 소유하지 않으며 저자의 재량에 따라 사용됩니다.

위 내용은 Deepseek R1 '의 고급 추론 능력 디코딩의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
Let 's Dance : 인간 신경 그물을 미세 조정하기위한 구조화 된 움직임Let 's Dance : 인간 신경 그물을 미세 조정하기위한 구조화 된 움직임Apr 27, 2025 am 11:09 AM

과학자들은 C. el 그러나 중요한 질문이 발생합니다. 새로운 AI S와 함께 효과적으로 작동하도록 우리 자신의 신경망을 어떻게 조정합니까?

새로운 Google 유출은 Gemini AI의 구독 변경을 보여줍니다새로운 Google 유출은 Gemini AI의 구독 변경을 보여줍니다Apr 27, 2025 am 11:08 AM

Google의 Gemini Advanced : 수평선의 새로운 가입 계층 현재 Gemini Advanced에 액세스하려면 $ 19.99/월 Google One AI Premium Plan이 필요합니다. 그러나 Android Authority 보고서는 다가오는 변경 사항을 암시합니다. 최신 Google p. 내 코드

데이터 분석 가속이 AI의 숨겨진 병목 현상을 해결하는 방법데이터 분석 가속이 AI의 숨겨진 병목 현상을 해결하는 방법Apr 27, 2025 am 11:07 AM

고급 AI 기능을 둘러싼 과대 광고에도 불구하고 Enterprise AI 배포 내에서 상당한 도전 과제 : 데이터 처리 병목 현상. CEO는 AI 발전을 축하하는 동안 엔지니어는 느린 쿼리 시간, 과부하 파이프 라인,

Markitdown MCP는 모든 문서를 Markdowns로 변환 할 수 있습니다!Markitdown MCP는 모든 문서를 Markdowns로 변환 할 수 있습니다!Apr 27, 2025 am 09:47 AM

문서 처리는 더 이상 AI 프로젝트에서 파일을 여는 것이 아니라 혼돈을 명확하게 전환하는 것입니다. PDF, PowerPoint 및 Word와 같은 문서는 모든 모양과 크기로 워크 플로우를 범람합니다. 구조화 된 검색

빌딩 에이전트에 Google ADK를 사용하는 방법은 무엇입니까? - 분석 Vidhya빌딩 에이전트에 Google ADK를 사용하는 방법은 무엇입니까? - 분석 VidhyaApr 27, 2025 am 09:42 AM

Google의 에이전트 개발 키트 (ADK)의 전력을 활용하여 실제 기능을 갖춘 지능형 에이전트를 만듭니다! 이 튜토리얼은 Gemini 및 GPT와 같은 다양한 언어 모델을 지원하는 ADK를 사용하여 대화 에이전트를 구축하는 것을 안내합니다. w

효과적인 문제 해결을 위해 LLM을 통해 SLM 사용 - 분석 Vidhya효과적인 문제 해결을 위해 LLM을 통해 SLM 사용 - 분석 VidhyaApr 27, 2025 am 09:27 AM

요약: SLM (Small Language Model)은 효율성을 위해 설계되었습니다. 자원 결핍, 실시간 및 개인 정보 보호 환경에서 LLM (Large Language Model)보다 낫습니다. 초점 기반 작업, 특히 도메인 특이성, 제어 성 및 해석 성이 일반적인 지식이나 창의성보다 더 중요합니다. SLM은 LLM을 대체하지는 않지만 정밀, 속도 및 비용 효율성이 중요 할 때 이상적입니다. 기술은 더 적은 자원으로 더 많은 것을 달성하는 데 도움이됩니다. 그것은 항상 운전자가 아니라 프로모터였습니다. 증기 엔진 시대부터 인터넷 버블 시대에 이르기까지 기술의 힘은 문제를 해결하는 데 도움이되는 정도입니다. 인공 지능 (AI) 및보다 최근에 생성 AI가 예외는 아닙니다.

컴퓨터 비전 작업에 Google Gemini 모델을 사용하는 방법은 무엇입니까? - 분석 Vidhya컴퓨터 비전 작업에 Google Gemini 모델을 사용하는 방법은 무엇입니까? - 분석 VidhyaApr 27, 2025 am 09:26 AM

컴퓨터 비전을위한 Google Gemini의 힘을 활용 : 포괄적 인 가이드 주요 AI 챗봇 인 Google Gemini는 강력한 컴퓨터 비전 기능을 포괄하기 위해 대화를 넘어서 기능을 확장합니다. 이 안내서는 사용 방법에 대해 자세히 설명합니다

Gemini 2.0 Flash vs O4-Mini : Google은 OpenAi보다 더 잘할 수 있습니까?Gemini 2.0 Flash vs O4-Mini : Google은 OpenAi보다 더 잘할 수 있습니까?Apr 27, 2025 am 09:20 AM

2025 년의 AI 환경은 Google의 Gemini 2.0 Flash와 Openai의 O4-Mini가 도착하면서 전기가 전환됩니다. 이 최첨단 모델은 몇 주 간격으로 발사되어 비슷한 고급 기능과 인상적인 벤치 마크 점수를 자랑합니다. 이 심층적 인 비교

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

DVWA

DVWA

DVWA(Damn Vulnerable Web App)는 매우 취약한 PHP/MySQL 웹 애플리케이션입니다. 주요 목표는 보안 전문가가 법적 환경에서 자신의 기술과 도구를 테스트하고, 웹 개발자가 웹 응용 프로그램 보안 프로세스를 더 잘 이해할 수 있도록 돕고, 교사/학생이 교실 환경 웹 응용 프로그램에서 가르치고 배울 수 있도록 돕는 것입니다. 보안. DVWA의 목표는 다양한 난이도의 간단하고 간단한 인터페이스를 통해 가장 일반적인 웹 취약점 중 일부를 연습하는 것입니다. 이 소프트웨어는

SublimeText3 Mac 버전

SublimeText3 Mac 버전

신 수준의 코드 편집 소프트웨어(SublimeText3)

SublimeText3 영어 버전

SublimeText3 영어 버전

권장 사항: Win 버전, 코드 프롬프트 지원!