ubuntu14.04インストール
pip install xgboost
エラー報告
sudo apt-get update
結果は同じエラーです
解決策:
sudo -H pip install --pre xgboost Successfully installed xgboost Cleaning up...
成功しました!
過学習
トレーニングの精度は高いものの、検出の精度が低いことが観察された場合は、過学習の問題が発生している可能性があります。
xgboost は、高速かつ効果的なブースト モデルです。
ブースティング分類器は、統合学習モデルです。基本的なアイデアは、分類精度の低い数百または数千のツリー モデルを高精度のモデルに結合することです。このモデルは反復を継続し、反復ごとに新しいツリーを生成します。各ステップで合理的なツリーを生成する方法については多くの方法が提案されていますが、ここでは Friedman が提案した Gradient Boosting Machine を簡単に紹介します。各ツリーを生成するときに勾配降下の考え方を使用し、以前に生成されたすべてのツリーに基づいて指定された目的関数を最小化する方向にもう一歩進みます。適切なパラメータ設定の下では、満足のいく精度を達成するために、多くの場合、特定の数のツリーを生成する必要があります。データセットが大きくて複雑な場合、何千もの反復操作が必要になる場合があります。ツリー モデルの生成に数秒かかる場合は、非常に多くの時間のかかる反復操作により、静かに考えることに集中できるはずです。
さて、私たちは xgboost ツールを通じてこの問題をより良く解決したいと考えています。 xgboost の正式名は、eXtreme Gradient Boosting です。名前が示すように、これは Gradient Boosting Machine の C++ 実装です。著者はワシントン大学で機械学習を研究している修士の Chen Tianqi です。研究中に、既存のライブラリの計算速度と精度による限界を感じたので、1 年前から xgboost プロジェクトの構築を開始し、昨年の夏に徐々に具体化していきました。 xgboost の最大の特徴は、CPU のマルチスレッドを自動的に利用して並列化することができ、同時にアルゴリズムを改良して精度を高めることができることです。そのデビュー作は、Kaggle のヒッグス信号識別コンペティションであり、その卓越した効率性と高い予測精度により、コンペティション フォーラムの参加者から広く注目を集め、1,700 チームを超える熾烈な競争の中で地位を占めました。 Kaggle コミュニティでの人気が高まるにつれ、最近、あるチームが xgboost の助けを借りてコンテストで 1 位を獲得しました。 誰でも簡単に使えるようにするために、Chen Tianqi は xgboost を Python ライブラリにカプセル化しました。私は幸運なことに、彼と協力して xgboost ツール用の R 言語インターフェイスを作成し、CRAN に提出することができました。一部のユーザーは、これを julia ライブラリにカプセル化しています。 Python および R インターフェイスの機能は常に更新されています。以下の一般的な機能について学び、最も使い慣れた言語を選択して学習してください。
Ipython ノートブックは、 コマンドラインを使用してipython notebook
以上がPython のいくつかのインストール方法の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。