検索

LLMモデルサイズのスケールは、単なる技術を超えています。これは、これらのAIが何ができるか、どのように振る舞うか、そして最終的にはそれらが私たちにとってどのように役立つかを決定する本質的な特性です。会社やチームの規模がその能力にどのように影響するかと同じように、LLMモデルサイズは、多くの場合、気付かずに毎日やり取りする明確な性格と適性を生み出します。

目次

  • モデルサイズの理解:数字を超えて
  • 小さく、中程度の大きなスペクトル
  • モデルサイズのGPUおよびコンピューティングインフラストラクチャ
  • モデルサイズにわたるコンテキストウィンドウの考慮事項
  • パラメーターのサイズとリソース要件
  • サイズの選択の実際的な意味
  • モデルサイズの隠された寸法
  • 適切なサイズの選択:これらの質問をしてください
  • モデルサイジングの未来
  • 結論
  • よくある質問

モデルサイズの理解:数字を超えて

LLMSのモデルサイズは通常、パラメーターで測定されます。これは、トレーニング中にモデルが学習する調整可能な値です。しかし、パラメーターだけについて考えることは、人を自分の身長や体重だけで判断するようなものです。それは物語の一部しか語られていません。

モデルサイズを理解するためのより良い方法は、AIの「神経能力」と考えることです。人間の脳が複雑なネットワークを形成する数十億のニューロンを持っているように、LLMは言語の理解と生成を可能にするパターンを形成するパラメーターを持っています。

小さく、中程度の大きなスペクトル

大規模な言語モデルを選択するとき、サイズはパフォーマンス、効率、コストを決定する上で重要な役割を果たします。 LLMは一般に、軽量アプリケーションから複雑な推論タスクまで、それぞれ異なるユースケースに最適化された小規模、中、大規模なカテゴリに分類されます。

小さなモデル(1-10bパラメーター)

小さなモデルを焦点を絞った機能を備えた熟練した専門家と考えてください。

  • スピードチャンピオン:最小限のリソースを消費しながら、非常に迅速な応答を提供します。
  • デバイスに優しい:消費者ハードウェア(ラップトップ、ハイエンド電話)でローカルに実行できます。
  • 注目すべき例:PHI-2(2.7b)、Mistral 7b、Gemma 2b。
  • スイートスポット:シンプルなタスク、ドラフト生成、分類、専門ドメイン。
  • 制限:複雑な推論、微妙な理解、深い専門知識との闘い。

実世界の例:ラップトップで実行されている7Bパラメーターモデルは、簡単な電子メールのトーンを維持できますが、量子コンピューティングなどの複雑なトピックの基本的な説明のみを提供します。

中モデル(10-70Bパラメーター)

中型モデルは、多くのアプリケーションで汎用性のスイートスポットにヒットします。

  • バランスの取れたパフォーマー:幅広いタスクにわたって深さと幅を提供する
  • リソース効率:適度にアクセス可能なコンピューティング環境で展開できます
  • 注目すべき例:Llama 2(70b)、Claude Instant、Mistral Large
  • スイートスポット:一般的なビジネスアプリケーション、包括的な顧客サービス、コンテンツ作成
  • 利点:複雑な指示を処理し、コンテキストとの長い会話を維持する

現実世界の例:カスタマーサービスに13Bモデルを使用する中小企業は、「眠らない新しいチームメンバーがいる」と説明しています。

大きなモデル(70Bパラメーター)

最大のモデルは、驚くべき能力を備えたAIポリマスとして機能します。

  • 推論電力:適切な推論で洗練された問題解決および分析的思考を示します。
  • 微妙な理解:微妙な文脈、意味合い、複雑な指示を把握します。
  • 注目すべき例:GPT-4、Claude 3.5 Sonnet、Gemini Ultra(100Bパラメーター)
  • スイートスポット:研究支援、複雑な創造的な仕事、洗練された分析
  • インフラストラクチャの需要:実質的な計算リソースと特殊なハードウェアが必要です

現実世界の例:複雑な研究​​プロジェクトでは、小規模なモデルが事実の反応を提供しましたが、最大のモデルは分野間で異なるアイデアを結び付け、新しいアプローチを提案し、根本的な仮定における欠陥を特定しました。

また読む:どのo3-mini推論レベルが最も賢いですか?

モデルサイズのGPUおよびコンピューティングインフラストラクチャ

モデルサイズが異なるには、さまざまなレベルのGPUパワーとコンピューティングインフラストラクチャが必要です。小規模モデルは消費者グレードGPUで実行できますが、大規模なモデルでは、大規模な並列処理機能を備えた高性能クラスターが必要です。

小さなモデル(1-10bパラメーター)

  • コンシューマハードウェア実行可能:専用のGPU(8-16GB VRAM)でハイエンドラップトップで実行できます
  • メモリフットプリント:通常、精度に応じて4-20GBのVRAMが必要です
  • 展開オプション
    • 単一の消費者GPUのローカル展開(RTX 3080)
    • 最適化を備えたエッジデバイス(量子化、剪定)
    • 4ビット量子化により可能なモバイル展開
  • コスト効率:クラウドサービスの1時間あたり0.05-0.15ドル

中モデル(10-70Bパラメーター)

  • 必要な専用のハードウェア:ゲームまたはワークステーションクラスのGPUが必要です
  • メモリの要件:完全な精度のためのVRAMの20-80GB
  • 展開オプション
    • 量子化を伴うシングルハイエンドGPU(A10、RTX 4090)
    • 完全な精度のためのマルチGPUセットアップ(2〜4消費者GPU)
    • 中間層インスタンスを使用したクラウドベースの展開
  • コスト効率:クラウドサービスの1時間あたり0.20〜1.00ドル

大きなモデル(70Bパラメーター)

  • エンタープライズグレードのハードウェア:データセンターGPUまたは特殊なAIアクセラレータ
  • メモリ需要:最適なパフォーマンスのために80GB VRAM
  • 展開オプション
    • 複数のハイエンドGPU(A100、H100)並列
    • 複数のマシンにわたって分散コンピューティング
    • 最適化されたインフラストラクチャを備えた専門のAIクラウドサービス
  • コスト効率:クラウドサービスの1時間あたり1.50〜10.00ドル

パフォーマンスに対するモデルサイズの影響

数十億または数兆のパラメーターを備えたより大きなモデルは、より複雑な言語関係をキャプチャし、微妙なプロンプトを処理することができますが、かなりの計算リソースも必要です。ただし、Biggerは常に優れているわけではありません。特定のタスクのために微調整された小さなモデルは、より大きく、より一般化されたモデルを上回ることがあります。したがって、適切なモデルサイズを選択すると、特定のアプリケーション、利用可能なリソース、および望ましいパフォーマンス結果に依存します。

LLMモデルサイズの人間側

モデルサイズにわたるコンテキストウィンドウの考慮事項

モデルサイズとコンテキストウィンドウ機能の関係は、単純な比較で見落とされることが多い別の重要な次元を表します。

モデルサイズ 4Kコンテキスト 16Kコンテキスト 32Kコンテキスト 128Kコンテキスト
小(7b) 14GB 28GB 48GB 172GB
中(40b) 80GB 160GB 280GB n/a
大規模(175b) 350GB 700GB n/a n/a

この表は、より小さなモデルが広範なコンテキストを必要とするアプリケーションに対してより実用的であることが多い理由を示しています。契約分析に長いコンテキストを使用する法的文書システムでは、32Kコンテキストウィンドウで7Bモデルを実行することは、メモリの制約のために8Kコンテキストに制限された40Bモデルを使用するよりも実行可能であることがわかりました。

パラメーターのサイズとリソース要件

パラメーターカウントとリソース要件の関係は、パラメーターの効率を改善するイノベーションを通じて進化し続けています。

  • まばらなMOEモデル:MixTral 8x7Bのようなモデルは、47Bの効果的なパラメーターが、推論中に13Bモデルに近いリソースを必要としながら、密な70Bモデルに匹敵するパフォーマンスをどのように提供できるかを示しています。
  • パラメーター効率の高い微調整(PEFT) :LORAやQloraなどの手法では、パラメーターの0.1〜1%のみを更新しながら、大きなモデルのカスタマイズを可能にし、適応のためのハードウェア要件を劇的に削減します。
  • 検索された生成(RAG) :知識を外部のデータストアにオフロードすることにより、小型モデルは知識集約型タスクの大規模なモデルと同等のモデルを実行し、リソースの負担を計算からストレージにシフトします。
側面 小さなLLMS(1-10b) 中llms(10-70b) 大きなLLMS(70b)
モデルの例 PHI-2(2.7b)、Mistral 7b、Tinyllama(1.1b) Llama 2(70b)、Claude Instant、Mistral Large GPT-4、クロード3.7ソネット、パーム2、ジェミニウルトラ
メモリ要件 2-20GB 20-140GB 140GB
ハードウェア 消費者GPU、ハイエンドラップトップ 複数の消費者GPUまたはサーバーグレードGPU 複数のハイエンドGPU、特殊なハードウェア
推論コスト(1Mトークンあたり) $ 0.01- $ 0.20 $ 0.20- $ 1.00 $ 1.00- $ 30.00
ローカル展開 消費者ハードウェアで簡単に 最適化で可能です 通常、クラウドのみ
応答レイテンシ 非常に低い(10-50ms) 中程度(50-200ms) より高い(200ms-1)

モデルサイズを削減するための手法

LLMをより効率的かつアクセスしやすくするために、パフォーマンスを大幅に損なうことなくサイズを縮小するためのいくつかの手法が開発されています。

LLMモデルサイズの人間側

LLMをより効率的かつアクセスしやすくするために、パフォーマンスを大幅に損なうことなくサイズを縮小するためのいくつかの手法が開発されています。

  • モデルの蒸留:このプロセスでは、より大きな「教師」モデルの動作を再現するために、より小さな「生徒」モデルをトレーニングし、パラメーターを少なくする機能を効果的にキャプチャします。
  • パラメーター共有:モデルの複数の部分で同じパラメーターが使用される方法の実装により、一意のパラメーターの総数が減少します。
  • 量子化:モデルの重みの精度を、浮動小数点数(32ビットなど)から低ビット表現(8ビットなど)に低下させるため、メモリ使用量が減少します。
技術 小さなLLMS(1-10b) 中llms(10-70b) 大きなLLMS(70b)
量子化(4ビット) 5-15%の品質損失 3-10%の品質損失 1-5%の品質損失
知識の蒸留 中程度の利益 良い利益 優れた利益
微調整 インパクトが高い 中程度の影響 限られた影響
rlhf 中程度の影響 インパクトが高い インパクトが高い
検索の増強 非常に高い影響 インパクトが高い 中程度の影響
迅速なエンジニアリング 限られた影響 中程度の影響 インパクトが高い
コンテキストウィンドウエクステンション 限られた利点 中程度の利点 高い利益

サイズの選択の実際的な意味

LLMのサイズは、計算コスト、遅延、展開の実現可能性などの要因に直接影響します。適切なモデルサイズを選択すると、パフォーマンス、リソース効率、実世界の適用性のバランスが保証されます。

コンピューティング要件:隠されたコスト

モデルサイズは、計算需要に直接影響します。より大きなモデルを実行することは、自転車からスポーツカーにアップグレードするようなものです。より速く進むが、燃料消費量は劇的に増加します。

コンテキストの場合、7Bパラメーターモデルはゲームラップトップで実行される場合がありますが、70Bモデルには通常、数千ドルの費用がかかる専用のGPUハードウェアが必要です。最大の100Bモデルには、多くの場合、複数のハイエンドGPUまたは特殊なクラウドインフラストラクチャが必要です。

私が話した開発者は、彼女の経験について次のように説明しました。「私たちはニーズを完全に満たす70Bモデルから始めましたが、インフラストラクチャのコストはマージンを食べていました。細かく調整された13Bモデルに切り替えると、パフォーマンスにわずかに影響を与えながらコストを80%削減しました。」

応答性トレードオフ

モデルサイズと応答性の間には固有のトレードオフがあります。通常、小さなモデルはテキストをより速く生成し、リアルタイムのインタラクションを必要とするアプリケーションにより適しています。

最近のAI Hackathonでは、カスタマーサービスのチャットボットを構築するチームが、優れた回答にもかかわらず、ユーザーが大規模なモデルからの応答を待つのを待ってイライラしていることを発見しました。彼らの解決策?階層化されたアプローチ - 即時の応答のために小さなモデルを使用し、複雑なクエリのために大きなモデルにシームレスにエスカレートします。

モデルサイズの隠された寸法

パラメーターカウントだけでなく、モデルサイズはメモリの使用状況、推論速度、および実際の適用性に影響します。これらの隠された寸法を理解することは、効率と能力の間の適切なバランスを選択するのに役立ちます。

トレーニングデータ品質と数量

パラメーターカウントはスポットライトを獲得しますが、トレーニングデータの品質と多様性は、モデルのパフォーマンスにおいて同様に重要な役割を果たすことがよくあります。高品質でドメイン固有のデータで訓練されたより小さなモデルは、特殊なタスクで大きなモデルを上回ることができます。

私はこれを法的なハイテクスタートアップで直接目撃しました。そこでは、彼らのカスタムトレーニングを受けた7Bモデルが契約分析の3倍の規模を上回る汎用モデルよりも優れていました。彼らの秘密?一般的なWebテキストではなく、徹底的に審査された法的文書についてのみトレーニングを行います。

アーキテクチャの革新:量よりも品質

現代の建築革新は、賢いデザインがより小さなサイズを補うことができることをますます実証しています。混合物(MOE)アーキテクチャなどの手法により、モデルは特定のタスクに関連するパラメーターのみをアクティブにし、より小さな計算フットプリントで大規模なモデルパフォーマンスを実現できます。

MOEアプローチは、人間がさまざまなタスクについて特殊な脳領域に依存する方法を反映しています。たとえば、数学の問題を解決するとき、脳全体を活性化することはありません。これは、数値の推論に特化した領域です。

タスク固有のサイズ要件の出現

フィールドが成熟するにつれて、さまざまな認知タスクに異なるパラメーターのしきい値があることがわかります。調査によると、基本的な文法や事実のリコールなどの能力は比較的小さなサイズ(1-10Bパラメーター)で出現し、複雑な推論、コンテキストの微妙な理解、およびクリエイティブ生成には、多数のパラメーターを持つかなり大きなモデルが必要になる場合があります。

能力のこの進歩的な出現は、脳の発達のさまざまな段階で異なる能力が生じる人間の認知発達に似ています。

LLMモデルサイズの人間側

適切なサイズの選択:これらの質問をしてください

アプリケーションのLLMサイズを選択するときは、次のことを検討してください。

  • ユースケースの複雑さは何ですか?単純な分類またはコンテンツ生成は、小さなモデルで正常に機能する場合があります。
  • 応答時間はどれほど重要ですか?リアルタイムのインタラクションが必要な場合は、小さなモデルが望ましい場合があります。
  • どのようなコンピューティングリソースが利用可能ですか?インフラストラクチャの制約について現実的にしてください。
  • エラーに対するあなたの寛容は何ですか?一般に、より大きなモデルは、事実上の間違いや論理的なエラーが少なくなります。
  • あなたの予算は何ですか?通常、より大きなモデルは、特に大規模な実行にかかる費用がかかります。

モデルサイジングの未来

モデルサイジングの風景は動的に進化しています。一見矛盾する2つの傾向を目撃しています。モデルは大きくなっています(開発中の兆ポラメーターモデルの噂があります)と同時に、スパース、蒸留、量子化などの技術を通じてより効率的になります。

これは、コンピューティングの履歴全体で見たパターンを反映しています。ハードウェアの要件が縮小する間、能力が増加します。今日のスマートフォンは、数十年前のスーパーコンピューターよりも優れており、LLMで同様の進化が見られる可能性があります。

結論

モデルサイズは重要ですが、より大きくなるとは限りません。むしろ、特定のニーズに合った適切なLLMモデルサイズを選択することが重要です。これらのシステムが私たちの日常生活とのアップグレードと統合を続けているため、LLMモデルのサイズの人間の意味を理解することがますます重要になります。

最も成功した実装では、多くの場合、一緒に作業する複数のモデルサイズを使用します。これは、専門家やジェネラリストが効果的に協力している適切に構造化された組織などです。モデルサイズを適切なユースケースに一致させることにより、リソースを無駄にすることなく、強力で実用的なAIシステムを作成できます。

キーテイクアウト

  • LLMモデルサイズは、精度、効率、コストに影響を与えるため、特定のユースケースに適したモデルを選択することが不可欠です。
  • LLMモデルのサイズが小さいほど速くリソース効率が高く、大きいものはより深い深みと推論能力を提供します。
  • 適切なモデルサイズを選択すると、ユースケース、予算、ハードウェアの制約に依存します。
  • 量子化や蒸留などの最適化手法は、モデルの効率を高めることができます。
  • 複数のモデルサイズを使用したハイブリッドアプローチは、パフォーマンスとコスト効果的なバランスをとることができます。

よくある質問

Q1。パフォーマンスに対するLLMサイズの影響は何ですか?

A.大規模な言語モデル(LLM)のサイズは、その精度、推論能力、および計算要件に直接影響します。一般に、より大きなモデルは複雑な推論と微妙な言語タスクでより良いパフォーマンスを発揮しますが、かなり多くのリソースが必要です。より強力ではありますが、より強力なモデルは速度と効率のために最適化されているため、リアルタイムアプリケーションに最適です。

Q2。大小のLLMは、ユースケースの点でどのように異なりますか?

A.小型LLMは、チャットボット、リアルタイムアシスタント、制限された処理能力を備えたモバイルアプリケーションなどの迅速な応答が必要なアプリケーションに適しています。一方、大規模なLLMは、より深い文脈的理解と高精度を必要とする複雑な問題解決、創造的な執筆、および研究アプリケーションに優れています。

Q3。 LLMサイズを選択する際には、どのような要因を考慮する必要がありますか?

A. LLMサイズの選択は、タスクの複雑さ、遅延要件、利用可能な計算リソース、コスト制約など、複数の要因に依存します。エンタープライズアプリケーションの場合、パフォーマンスと効率性のバランスが非常に重要ですが、研究主導のアプリケーションは速度の精度を優先する場合があります。

Q4。大規模なLLMは効率のために最適化できますか?

A.はい、大規模なLLMは、量子化(精度を低下させてビット形式の低下)、剪定(冗長パラメーターの削除)、知識の蒸留(より大きなモデルを模倣するために小さなモデルを模倣するトレーニング)などの手法を通じて最適化できます。これらの最適化は、パフォーマンスを大幅に損なうことなく、メモリの消費と推論時間を短縮するのに役立ちます。

以上がLLMモデルサイズの人間側の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

声明
この記事の内容はネチズンが自主的に寄稿したものであり、著作権は原著者に帰属します。このサイトは、それに相当する法的責任を負いません。盗作または侵害の疑いのあるコンテンツを見つけた場合は、admin@php.cn までご連絡ください。
AIのスキルギャップは、サプライチェーンのダウンを遅くしていますAIのスキルギャップは、サプライチェーンのダウンを遅くしていますApr 26, 2025 am 11:13 AM

「AI-Ready労働力」という用語は頻繁に使用されますが、サプライチェーン業界ではどういう意味ですか? サプライチェーン管理協会(ASCM)のCEOであるAbe Eshkenaziによると、批評家ができる専門家を意味します

1つの会社がAIを永遠に変えるために静かに取り組んでいる方法1つの会社がAIを永遠に変えるために静かに取り組んでいる方法Apr 26, 2025 am 11:12 AM

分散型AI革命は静かに勢いを増しています。 今週の金曜日、テキサス州オースティンでは、ビテンサーのエンドゲームサミットは極めて重要な瞬間を示し、理論から実用的な応用に分散したAI(DEAI)を移行します。 派手なコマーシャルとは異なり

Nvidiaは、AIエージェント開発を合理化するためにNEMOマイクロサービスをリリースしますNvidiaは、AIエージェント開発を合理化するためにNEMOマイクロサービスをリリースしますApr 26, 2025 am 11:11 AM

エンタープライズAIはデータ統合の課題に直面しています エンタープライズAIの適用は、ビジネスデータを継続的に学習することで正確性と実用性を維持できるシステムを構築する大きな課題に直面しています。 NEMOマイクロサービスは、NVIDIAが「データフライホイール」と呼んでいるものを作成することにより、この問題を解決し、AIシステムがエンタープライズ情報とユーザーインタラクションへの継続的な露出を通じて関連性を維持できるようにします。 この新しく発売されたツールキットには、5つの重要なマイクロサービスが含まれています。 NEMOカスタマイザーは、より高いトレーニングスループットを備えた大規模な言語モデルの微調整を処理します。 NEMO評価者は、カスタムベンチマークのAIモデルの簡素化された評価を提供します。 Nemo Guardrailsは、コンプライアンスと適切性を維持するためにセキュリティ管理を実装しています

aiは芸術とデザインの未来のために新しい絵を描きますaiは芸術とデザインの未来のために新しい絵を描きますApr 26, 2025 am 11:10 AM

AI:芸術とデザインの未来 人工知能(AI)は、前例のない方法で芸術とデザインの分野を変えており、その影響はもはやアマチュアに限定されませんが、より深く影響を与えています。 AIによって生成されたアートワークとデザインスキームは、広告、ソーシャルメディアの画像生成、Webデザインなど、多くのトランザクションデザインアクティビティで従来の素材画像とデザイナーに迅速に置き換えられています。 ただし、プロのアーティストやデザイナーもAIの実用的な価値を見つけています。 AIを補助ツールとして使用して、新しい美的可能性を探求し、さまざまなスタイルをブレンドし、新しい視覚効果を作成します。 AIは、アーティストやデザイナーが繰り返しタスクを自動化し、さまざまなデザイン要素を提案し、創造的な入力を提供するのを支援します。 AIはスタイル転送をサポートします。これは、画像のスタイルを適用することです

エージェントAIとのズームがどのように革命を起こしているか:会議からマイルストーンまでエージェントAIとのズームがどのように革命を起こしているか:会議からマイルストーンまでApr 26, 2025 am 11:09 AM

最初はビデオ会議プラットフォームで知られていたZoomは、エージェントAIの革新的な使用で職場革命をリードしています。 ZoomのCTOであるXD Huangとの最近の会話は、同社の野心的なビジョンを明らかにしました。 エージェントAIの定義 huang d

大学に対する実存的な脅威大学に対する実存的な脅威Apr 26, 2025 am 11:08 AM

AIは教育に革命をもたらしますか? この質問は、教育者と利害関係者の間で深刻な反省を促しています。 AIの教育への統合は、機会と課題の両方をもたらします。 Tech Edvocate NotesのMatthew Lynch、Universitとして

プロトタイプ:アメリカの科学者は海外の仕事を探していますプロトタイプ:アメリカの科学者は海外の仕事を探していますApr 26, 2025 am 11:07 AM

米国における科学的研究と技術の開発は、おそらく予算削減のために課題に直面する可能性があります。 Natureによると、海外の雇用を申請するアメリカの科学者の数は、2024年の同じ期間と比較して、2025年1月から3月まで32%増加しました。以前の世論調査では、調査した研究者の75%がヨーロッパとカナダでの仕事の検索を検討していることが示されました。 NIHとNSFの助成金は過去数か月で終了し、NIHの新しい助成金は今年約23億ドル減少し、3分の1近く減少しました。リークされた予算の提案は、トランプ政権が科学機関の予算を急激に削減していることを検討しており、最大50%の削減の可能性があることを示しています。 基礎研究の分野での混乱は、米国の主要な利点の1つである海外の才能を引き付けることにも影響を与えています。 35

オープンAIの最新のGPT 4.1ファミリ - 分析VidhyaオープンAIの最新のGPT 4.1ファミリ - 分析VidhyaApr 26, 2025 am 10:19 AM

Openaiは、強力なGPT-4.1シリーズを発表しました。実際のアプリケーション向けに設計された3つの高度な言語モデルのファミリー。 この大幅な飛躍は、より速い応答時間、理解の強化、およびTと比較した大幅に削減されたコストを提供します

See all articles

ホットAIツール

Undresser.AI Undress

Undresser.AI Undress

リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover

AI Clothes Remover

写真から衣服を削除するオンライン AI ツール。

Undress AI Tool

Undress AI Tool

脱衣画像を無料で

Clothoff.io

Clothoff.io

AI衣類リムーバー

Video Face Swap

Video Face Swap

完全無料の AI 顔交換ツールを使用して、あらゆるビデオの顔を簡単に交換できます。

ホットツール

Safe Exam Browser

Safe Exam Browser

Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

SublimeText3 中国語版

SublimeText3 中国語版

中国語版、とても使いやすい

VSCode Windows 64 ビットのダウンロード

VSCode Windows 64 ビットのダウンロード

Microsoft によって発売された無料で強力な IDE エディター

AtomエディタMac版ダウンロード

AtomエディタMac版ダウンロード

最も人気のあるオープンソースエディター

SublimeText3 英語版

SublimeText3 英語版

推奨: Win バージョン、コードプロンプトをサポート!