Scikit-Learn は、一般的に使用される Python 機械学習ライブラリであり、データの前処理、特徴の選択、モデルの選択、評価などの機械学習タスク用の多くのツールを提供します。特徴選択は機械学習の重要なステップの 1 つであり、モデルの複雑さを軽減し、モデルの汎化能力を向上させることで、モデルのパフォーマンスを向上させることができます。 Scikit-Learn を使用すると、機能の選択が非常に簡単になります。まず、さまざまな統計手法 (分散、相関係数など) を使用して、特徴の重要性を評価できます。次に、Scikit-Learn は、再帰的特徴除去 (RFE)、ツリーベースの特徴選択などの一連の特徴選択アルゴリズムを提供します。これらのアルゴリズムは、最も関連性の高い機能を自動的に選択するのに役立ちます。最後に、選択した特徴を使用してモデルをトレーニングし、評価できます。 Scikit-Learn を特徴選択に使用することで、より正確で効率的な機械学習モデルを取得できます。
1. 特徴選択の概要
機械学習における特徴選択は、モデルの複雑さを軽減し、モデルのパフォーマンスを向上させることです。最も関連性の高い機能。目標は、データセットの分離性と予測パフォーマンスを維持しながら、最小限の特徴量を見つけることです。特徴の選択は、次の問題の解決に役立ちます:
1. モデルの汎化能力の向上: 特徴の選択により、ノイズと冗長な特徴が削減され、それによってモデルの汎化能力が向上します。
2. トレーニング時間の短縮: モデルは最も重要な特徴のみを学習すればよいため、特徴を選択するとモデルのトレーニング時間を短縮できます。
3. モデルの解釈可能性の向上: 特徴の選択は、どの特徴がモデルの予測にとって最も重要であるかを理解するのに役立ちます。
特徴選択方法は 3 つのカテゴリに分類できます:
1. フィルタリング方法: これらの方法は、統計または情報理論の方法を使用してそれぞれを評価します。機能を選択し、最も関連性の高い機能を選択します。フィルタリング方法は通常高速ですが、機能間の相互作用が無視される場合があります。
2. ラッピング方法: これらの方法は、モデルのパフォーマンスを特徴選択の指標として使用し、最適な特徴サブセットを見つけようとします。一般に、パッケージング方法はフィルタリング方法よりも正確ですが、時間がかかります。
3. 埋め込み方法: これらの方法では、モデルの一部として特徴選択を使用し、学習プロセス中に最適な特徴サブセットを選択します。一般に、埋め込み手法はフィルタリング手法よりも正確ですが、計算コストが高くなります。
Scikit-Learn では、さまざまな特徴選択方法を使用して、最適な特徴サブセットを選択できます。
2. Scikit-Learn の特徴選択方法
Scikit-Learn は、フィルタリング方法、パッケージ化方法、埋め込みなど、多くの特徴選択方法を提供します。方法。一般的に使用されるいくつかの特徴選択方法を以下に紹介します。
1. 分散選択法
分散選択法は、各特徴の分散を評価し、特徴の高い特徴を選択するフィルタリング手法です。差異の。分散選択方法は、バイナリまたは数値特徴にはうまく機能しますが、カテゴリ特徴にはうまく機能しません。
Scikit-Learn では、VarianceThreshold クラスを使用して分散選択メソッドを実装できます。このクラスは分散しきい値を設定し、分散がしきい値より大きい特徴のみを保持できます。たとえば、次のコードは分散が 0.01 未満の特徴を削除します:
from sklearn.feature_selection import VarianceThreshold # 创建方差选择器对象 selector = VarianceThreshold(threshold=0.01) # 训练方差选择器并应用于数据 X_train_selected = selector.fit_transform(X_train)
2. 相互情報量メソッド
相互情報量メソッドは、それぞれを評価するフィルタリング メソッドです。特徴変数とターゲット変数を選択し、相互情報量の高い特徴を選択します。相互情報量法は、カテゴリ特徴または数値特徴に適しています。
Scikit-Learn では、mutual_info_classif 関数とmutual_info_regression 関数を使用して、カテゴリ特徴と数値特徴の相互情報量を計算できます。例:
from sklearn.feature_selection import mutual_info_classif,mutual_info_regression # 计算数值特征的互信息 mi = mutual_info_regression(X_train, y_train) # 计算分类特征的互信息 mi = mutual_info_classif(X_train, y_train)
相互情報量の高い特徴を持たせるには、次のようにします。
from sklearn.feature_selection import SelectKBest # 创建互信息选择器对象 selector = SelectKBest(mutual_info_classif, k=10) # 训练互信息选择器并应用于数据 X_train_selected = selector.fit_transform(X_train, y_train)
上記のコードは、相互情報量が最も高い 10 個の特徴を選択します。
#3. 再帰的特徴除去手法
#再帰的特徴除去手法は、モデルのパフォーマンスを指標として使用するラッパー メソッドです。特徴選択のために、最適な特徴サブセットを見つけようとします。再帰的特徴削除は、初期の特徴セットから開始され、モデルを使用して特徴をランク付けし、必要な特徴数に達するまで最も重要度の低い特徴を削除します。
Scikit-Learn では、RFECV クラスを使用して再帰的特徴除去メソッドを実装できます。このクラスは、モデルと相互検証方法を設定し、再帰的特徴除去を使用して最適な特徴サブセットを選択できます。例:
from sklearn.feature_selection import RFECV from sklearn.linear_model import LinearRegression # 创建递归特征消除器对象 estimator = LinearRegression() selector = RFECV(estimator, cv=5) # 训练递归特征消除器并应用于数据 X_train_selected = selector.fit_transform(X_train, y_train)
上記のコードは、線形回帰モデルと 5 分割交差検証法を使用して、再帰的な特徴除去を実行し、最適な特徴サブセットを選択します。
4.L1 正則化
L1 正則化は、モデル化するための正則化項として L1 ノルムを使用する埋め込み手法です。パラメータを減らすためにペナルティが課されます。複雑さをモデル化し、有用な機能を選択します。 Scikit-Learn では、Lasso 回帰モデルを使用して L1 正則化を実装し、ゼロ以外の係数を持つ特徴を選択できます。例:
from sklearn.linear_model import Lasso # 创建Lasso回归模型对象 lasso = Lasso(alpha=0.1) # 训练Lasso模型并选择特征 lasso.fit(X_train, y_train) X_train_selected = lasso.transform(X_train)
上記のコードは、特徴の選択に Lasso 回帰モデルと正則化パラメーター alpha=0.1 を使用します。
Scikit-Learn は、フィルタリング方法、ラッピング方法、埋め込み方法など、多くの特徴選択方法を提供します。各方法には長所と短所があり、データセットの特性と問題のニーズに基づいて適切な方法を選択できます。実際には、特徴の選択は、モデルの複雑性の軽減、モデルの汎化能力の向上、トレーニング時間の短縮、モデルの解釈可能性の向上に役立ちます。
以上がScikit-Learn 機能の選択方法と手順の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。

译者 | 布加迪审校 | 孙淑娟目前,没有用于构建和管理机器学习(ML)应用程序的标准实践。机器学习项目组织得不好,缺乏可重复性,而且从长远来看容易彻底失败。因此,我们需要一套流程来帮助自己在整个机器学习生命周期中保持质量、可持续性、稳健性和成本管理。图1. 机器学习开发生命周期流程使用质量保证方法开发机器学习应用程序的跨行业标准流程(CRISP-ML(Q))是CRISP-DM的升级版,以确保机器学习产品的质量。CRISP-ML(Q)有六个单独的阶段:1. 业务和数据理解2. 数据准备3. 模型

机器学习是一个不断发展的学科,一直在创造新的想法和技术。本文罗列了2023年机器学习的十大概念和技术。 本文罗列了2023年机器学习的十大概念和技术。2023年机器学习的十大概念和技术是一个教计算机从数据中学习的过程,无需明确的编程。机器学习是一个不断发展的学科,一直在创造新的想法和技术。为了保持领先,数据科学家应该关注其中一些网站,以跟上最新的发展。这将有助于了解机器学习中的技术如何在实践中使用,并为自己的业务或工作领域中的可能应用提供想法。2023年机器学习的十大概念和技术:1. 深度神经网

译者 | 朱先忠审校 | 孙淑娟在我之前的博客中,我们已经了解了如何使用因果树来评估政策的异质处理效应。如果你还没有阅读过,我建议你在阅读本文前先读一遍,因为我们在本文中认为你已经了解了此文中的部分与本文相关的内容。为什么是异质处理效应(HTE:heterogenous treatment effects)呢?首先,对异质处理效应的估计允许我们根据它们的预期结果(疾病、公司收入、客户满意度等)选择提供处理(药物、广告、产品等)的用户(患者、用户、客户等)。换句话说,估计HTE有助于我

近年来,基于深度学习的模型在目标检测和图像识别等任务中表现出色。像ImageNet这样具有挑战性的图像分类数据集,包含1000种不同的对象分类,现在一些模型已经超过了人类水平上。但是这些模型依赖于监督训练流程,标记训练数据的可用性对它们有重大影响,并且模型能够检测到的类别也仅限于它们接受训练的类。由于在训练过程中没有足够的标记图像用于所有类,这些模型在现实环境中可能不太有用。并且我们希望的模型能够识别它在训练期间没有见到过的类,因为几乎不可能在所有潜在对象的图像上进行训练。我们将从几个样本中学习

本文讨论使用LazyPredict来创建简单的ML模型。LazyPredict创建机器学习模型的特点是不需要大量的代码,同时在不修改参数的情况下进行多模型拟合,从而在众多模型中选出性能最佳的一个。 摘要本文讨论使用LazyPredict来创建简单的ML模型。LazyPredict创建机器学习模型的特点是不需要大量的代码,同时在不修改参数的情况下进行多模型拟合,从而在众多模型中选出性能最佳的一个。本文包括的内容如下:简介LazyPredict模块的安装在分类模型中实施LazyPredict

译者 | 朱先忠审校 | 孙淑娟引言模型超参数(或模型设置)的优化可能是训练机器学习算法中最重要的一步,因为它可以找到最小化模型损失函数的最佳参数。这一步对于构建不易过拟合的泛化模型也是必不可少的。优化模型超参数的最著名技术是穷举网格搜索和随机网格搜索。在第一种方法中,搜索空间被定义为跨越每个模型超参数的域的网格。通过在网格的每个点上训练模型来获得最优超参数。尽管网格搜索非常容易实现,但它在计算上变得昂贵,尤其是当要优化的变量数量很大时。另一方面,随机网格搜索是一种更快的优化方法,可以提供更好的

实现自我完善的过程是“机器学习”。机器学习是人工智能核心,是使计算机具有智能的根本途径;它使计算机能模拟人的学习行为,自动地通过学习来获取知识和技能,不断改善性能,实现自我完善。机器学习主要研究三方面问题:1、学习机理,人类获取知识、技能和抽象概念的天赋能力;2、学习方法,对生物学习机理进行简化的基础上,用计算的方法进行再现;3、学习系统,能够在一定程度上实现机器学习的系统。

本文将详细介绍用来提高机器学习效果的最常见的超参数优化方法。 译者 | 朱先忠审校 | 孙淑娟简介通常,在尝试改进机器学习模型时,人们首先想到的解决方案是添加更多的训练数据。额外的数据通常是有帮助(在某些情况下除外)的,但生成高质量的数据可能非常昂贵。通过使用现有数据获得最佳模型性能,超参数优化可以节省我们的时间和资源。顾名思义,超参数优化是为机器学习模型确定最佳超参数组合以满足优化函数(即,给定研究中的数据集,最大化模型的性能)的过程。换句话说,每个模型都会提供多个有关选项的调整“按钮


ホットAIツール

Undresser.AI Undress
リアルなヌード写真を作成する AI 搭載アプリ

AI Clothes Remover
写真から衣服を削除するオンライン AI ツール。

Undress AI Tool
脱衣画像を無料で

Clothoff.io
AI衣類リムーバー

AI Hentai Generator
AIヘンタイを無料で生成します。

人気の記事

ホットツール

ドリームウィーバー CS6
ビジュアル Web 開発ツール

メモ帳++7.3.1
使いやすく無料のコードエディター

Safe Exam Browser
Safe Exam Browser は、オンライン試験を安全に受験するための安全なブラウザ環境です。このソフトウェアは、あらゆるコンピュータを安全なワークステーションに変えます。あらゆるユーティリティへのアクセスを制御し、学生が無許可のリソースを使用するのを防ぎます。

SublimeText3 英語版
推奨: Win バージョン、コードプロンプトをサポート!

ZendStudio 13.5.1 Mac
強力な PHP 統合開発環境

ホットトピック



