ホームページ >テクノロジー周辺機器 >AI >一般的な教師あり学習アルゴリズム
教師あり学習は、ラベル付きの例を使用してアルゴリズムをトレーニングし、目に見えない例を予測する機械学習の一種です。目標は、入力データを出力ラベルにマッピングする関数を学習することです。
教師あり学習では、アルゴリズムは、一連の入力例とそれらに対応する正しい出力ラベルを含むトレーニング データ セットを受け取ります。このデータセットを使用することで、アルゴリズムは新しい例の出力ラベルを予測する関数を学習できます。アルゴリズムのパフォーマンスを評価するには、通常、独立したテスト データ セットを使用して、学習された関数の精度を検証します。このテスト データ セットは、目に見えないデータに対するアルゴリズムのパフォーマンスをテストするために使用されます。
線形回帰は、特徴とターゲット間の関係が線形であると仮定した連続値を予測する方法です。目標は、予測値と真の値の間の二乗誤差の合計を最小化する最適な直線を見つけることです。さらに、線形回帰を多項式回帰とともに使用して、多項式曲線をデータに適合させることができます。
ロジスティック回帰は、二項分類に使用されるアルゴリズムです。連続値を予測するため回帰アルゴリズムですが、ロジスティック関数を使用して予測値を確率に変換するため、分類タスクでよく使用されます。ロジスティック回帰は、ロジスティック関数 (シグモイド関数とも呼ばれる) を使用してサンプルが特定のクラスに属する確率を予測するため、「ロジスティック」回帰と呼ばれます。
その目標は、最適化アルゴリズム (勾配降下法など) を使用して、サンプルが特定のクラスに属する確率を予測するために使用できる一連の重みを学習することです。予測は、予測された確率をしきい値処理することによって行われます。
サポート ベクター マシン アルゴリズムは、2 つの要素を最大限に分離する超平面を見つけようとする線形分類器です。分類と回帰のためのクラス。
SVM は、超平面を定義する一連の重みを学習することによって機能します。超平面は、クラスの分離を最大化し、各クラスの最も近い例までの距離 (マージンと呼ばれる) が最大になるように選択されます。超平面が見つかると、SVM を使用して新しいサンプルを特徴空間に投影し、超平面のどちら側に該当するかに基づいてクラスを予測することで、新しいサンプルを分類できます。カーネル関数は線形または非線形にすることができ、データを高次元空間に変換して、サポート ベクター マシンが変換された空間内で線形境界を見つけることができるようにします。
SVM は、入力データを高次元空間にマッピングすることで非線形関数を学習できるため、データが高次元で線形分離不可能なタスクに特に役立ちます。 (線形分離可能である可能性があります) 線形決定境界を計算し、その空間で決定境界を学習します (カーネル トリックとも呼ばれます)。
デシジョン ツリー アルゴリズムは、分類と回帰予測に使用されるツリー構造に基づく非線形分類器です。これは、特徴値に基づいて入力空間を領域に再帰的に分割することで機能します。
デシジョン ツリーは、特徴値に基づいて入力空間を複数の領域に再帰的に分割することで機能します。ツリーの各ステップで、アルゴリズムは、Gini インデックスや情報ゲインなどのセグメンテーション基準に基づいて、データを最適にセグメント化する特徴を選択します。このプロセスは、ツリーの最大深さまたはリーフ ノード内のサンプルの最小数などの停止基準に達するまで続行されます。
新しい例の予測を行うために、アルゴリズムは葉ノードに到達するまで特徴値に基づいてツリーの枝をたどります。次に、リーフ ノード内の例の多数派クラス (分類タスクの場合)、またはリーフ ノード内の例の平均値または中央値 (回帰タスクの場合) に基づいて予測が行われます。
デシジョン ツリーはシンプルで解釈可能なモデルであり、実装も簡単です。また、トレーニングと予測も高速で、さまざまなデータ型を処理できます。ただし、デシジョン ツリーは、特にツリーが非常に深く成長することが許可されている場合、過剰適合する傾向があります。
K 最近傍アルゴリズムは、予測に基づいたノンパラメトリック手法です。分類と回帰のための K の最近の例の多数派クラス。
KNN の動作原理は、すべてのトレーニング サンプルを保存し、特徴空間内のテスト サンプルに最も近い K 個のサンプルに基づいて予測することです。 K の値は、実践者が選択したハイパーパラメータです。分類では、K 個の最近の例の多数派クラスに基づいて予測が行われます。回帰の場合、K 個の最近の例にわたるターゲット変数の平均または中央値に基づいて予測が行われます。
KNN は、アルゴリズムがテスト サンプルとすべてのトレーニング サンプルの間の距離を計算する必要があるため、計算コストが高くなる可能性があります。また、K と距離計量の選択にも影響を受ける可能性があります。また、より高度なアルゴリズムと比較するためのベースライン モデルとしても機能します。
ナイーブ ベイズ アルゴリズムは、特定の特徴の存在を考慮した確率的分類器です。特定のイベントが発生する確率に基づいて作成されます。 Naive Bayes は、クラス ラベルが与えられたデータ内のすべての特徴が互いに独立しているという「素朴な」仮定を立てます。この仮定は多くの場合非現実的ですが、アルゴリズムはこの仮定にもかかわらず実際にはうまく機能します。
Naive Bayes アルゴリズムには多くのバリエーションがあります。ガウス単純ベイズは連続特徴に使用され、特徴が正規分布に従うと仮定します。多項式単純ベイズはカウント データに使用され、特徴が多項式分布に従うと仮定します。ベルヌーイ単純ベイズはバイナリ特徴量に使用され、特徴量がベルヌーイ分布に従うことを前提としています。 Naive Bayes は、実装が簡単で、トレーニングと予測が高速な、シンプルで効率的なアルゴリズムです。
ニューラル ネットワークは、脳の構造と機能にヒントを得た機械学習アルゴリズムです。これらは、ノードまたはユニットと呼ばれる層に接続された人工ニューロンで構成されています。ニューラル ネットワークは、分類、回帰、シーケンスの生成など、幅広いタスクの実行方法を学習できます。これらは、入力データと出力の間の複雑な関係を学習する必要があるタスクに特に適しています。
ニューラル ネットワークには、フィードフォワード ニューラル ネットワーク、畳み込みニューラル ネットワーク、リカレント ニューラル ネットワークなど、さまざまな種類があります。フィードフォワード ニューラル ネットワークは、入力層、1 つ以上の隠れ層、および出力層で構成される、最も基本的なタイプのニューラル ネットワークです。畳み込みニューラル ネットワークは、画像分類や物体検出などのタスクに使用され、画像などのグリッド状構造のデータを処理するように設計されています。リカレント ニューラル ネットワークは、言語翻訳や音声認識などのタスクに使用され、時系列や自然言語などの連続データを処理するように設計されています。
ニューラル ネットワークは、確率的勾配降下法などの最適化アルゴリズムを使用してトレーニングされ、予測出力と真の出力の差を測定する損失関数を最小限に抑えます。ノード間の接続の重みは、損失を最小限に抑えるためにトレーニング中に調整されます。
ランダム フォレスト アルゴリズムは、複数のデシジョン ツリーの予測を組み合わせて最終予測を行うアンサンブル手法です。ランダム フォレストは、トレーニング データのさまざまなサブセットで多数のデシジョン ツリーをトレーニングし、個々のツリーの予測を平均することによって作成されます。ツリーはデータのブートストラップ サンプルでトレーニングされるため、このプロセスはブートストラップと呼ばれます。ブートストラップ プロセスでは、ツリー トレーニング プロセスにランダム性が導入され、過剰適合の軽減に役立ちます。
ランダム フォレストは、分類、回帰、特徴の選択などのタスクに広く使用されています。これらは、多くの機能を備えた大規模なデータ セットを処理できる能力と、幅広いタスクで優れたパフォーマンスを発揮することで知られています。また、過学習にも強いため、多くの機械学習アプリケーションに適しています。
ブースティングは、一連の弱いモデルをトレーニングし、その予測を組み合わせて、最終予想。ブースティングでは、弱いモデルが順番にトレーニングされ、各モデルは前のモデルのエラーを修正するようにトレーニングされます。最終的な予測は、加重多数決を使用して個々の弱いモデルの予測を組み合わせることによって行われます。個々のモデルの重みは通常、モデルの精度に基づいて選択されます。ブースティングは、分類や回帰などのタスクによく使用されます。幅広いタスクで高精度を達成する能力と、多くの特徴を持つ大規模なデータセットを処理する能力で知られています。
以上が一般的な教師あり学習アルゴリズムの詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。