搜索
首页后端开发Python教程如何使用 PySpark 进行机器学习

自从 Apache Spark(一种用于处理大数据的开源框架)发布以来,它已成为跨多个容器并行处理大量数据的最广泛使用的技术之一 - 它以效率和速度而自豪与之前存在的类似软件相比。

通过 PySpark 在 Python 中使用这项令人惊叹的技术是可行的,PySpark 是一个 Python API,允许您使用 Python 编程语言与 ApacheSpark 进行交互并挖掘 ApacheSpark 的惊人潜力。

在本文中,您将学习并开始使用 PySpark 使用线性回归算法构建机器学习模型。

注意:预先了解 Python、VSCode 等 IDE、如何使用命令提示符/终端以及熟悉机器学习概念对于正确理解本文中包含的概念至关重要。

通过阅读本文,您应该能够:

  • 了解 ApacheSpark 是什么。
  • 了解 PySpark 以及如何将其用于机器学习。

PySpark 到底是什么?

根据 Apache Spark 官方网站,PySpark 可让您利用 ApacheSpark(简单性、速度、可扩展性、多功能性)和 Python(丰富的生态系统、成熟的库、简单性)的综合优势进行“数据工程”单节点机器或集群上的数据科学和机器学习。”

How to Use PySpark for Machine Learning
图片来源

PySpark 是 ApacheSpark 的 Python API,这意味着它充当一个接口,让用 Python 编写的代码与用 Scala 编写的 ApacheSpark 技术进行通信。这样,已经熟悉Python生态系统的专业人士就可以快速利用ApacheSpark技术。这也确保了 Python 中使用的现有库保持相关性。

有关如何使用 PySpark 进行机器学习的详细指南

在接下来的步骤中,我们将使用线性回归算法构建机器学习模型:

  • 安装项目依赖项:我假设您的计算机上已经安装了 Python。如果没有,请先安装它,然后再进行下一步。打开终端或命令提示符并输入以下代码以安装 PySpark 库。
pip install pyspark

如果没有这些额外的 Python 库,您可以安装它们。

pip install pyspark
  • 创建文件并导入必要的库:打开 VSCode,然后在您选择的项目目录中为您的项目创建一个文件,例如 pyspart_model.py。打开文件并导入项目所需的库。
pip install pandas numpy
  • 创建 Spark 会话:通过在导入下输入此代码来启动项目的 Spark 会话。
from pyspark.sql import SparkSession
from pyspark.ml.feature import VectorAssembler
from pyspark.ml.classification import LogisticRegression
from pyspark.ml.evaluation import BinaryClassificationEvaluator
import pandas as pd
  • 读取 CSV 文件(您将使用的数据集):如果您的项目目录/文件夹中已有名为 data.csv 的数据集,请使用以下代码加载它。
spark = SparkSession.builder.appName("LogisticRegressionExample").getOrCreate()
  • 探索性数据分析:此步骤可帮助您了解正在使用的数据集。检查空值并决定使用的清理方法。
data = spark.read.csv("data.csv", header=True, inferSchema=True)

如果您正在使用小型数据集,您可以将其转换为 Python 数据框和目录,并使用 Python 检查缺失值。

# Display the schema my
 data.printSchema() 
# Show the first ten rows 
data.show(10)
# Count null values in each column
missing_values = df.select(
    [count(when(isnull(c), c)).alias(c) for c in df.columns]
)

# Show the result
missing_values.show()
  • 数据预处理:此步骤涉及将数据集中的列/特征转换为 PySpark 的机器学习库可以轻松理解或兼容的格式。

使用 VectorAssembler 将所有特征组合到单个向量列中。

pandas_df = data.toPandas()
# Use Pandas to check missing values
print(pandas_df.isna().sum())
  • 分割数据集:按照您方便的比例分割数据集。在这里,我们使用 70% 到 30%:70% 用于训练,30% 用于测试模型。
# Combine feature columns into a single vector column
feature_columns = [col for col in data.columns if col != "label"]
assembler = VectorAssembler(inputCols=feature_columns, outputCol="features")

# Transform the data
data = assembler.transform(data)

# Select only the 'features' and 'label' columns for training
final_data = data.select("features", "label")

# Show the transformed data
final_data.show(5)
  • 训练你的模型:我们正在使用逻辑回归算法来训练我们的模型。

创建 LogisticRegression 类的实例并拟合模型。

train_data, test_data = final_data.randomSplit([0.7, 0.3], seed=42)
  • 使用您训练的模型进行预测:使用我们在上一步中训练的模型进行预测
lr = LogisticRegression(featuresCol="features", labelCol="label")

# Train the model
lr_model = lr.fit(train_data)
  • 模型评估:在这里,正在评估模型以确定其预测性能或其正确性水平。我们通过使用合适的评估指标来实现这一目标。

使用 AUC 指标评估模型

predictions = lr_model.transform(test_data)
# Show predictions
predictions.select("features", "label", "prediction", "probability").show(5)

本文使用的端到端代码如下所示:

evaluator = BinaryClassificationEvaluator(rawPredictionCol="rawPrediction", labelCol="label", metricName="areaUnderROC")

# Compute the AUC
auc = evaluator.evaluate(predictions)
print(f"Area Under ROC: {auc}")

下一步?

我们已经到了本文的结尾。通过执行上述步骤,您已经使用 PySpark 构建了机器学习模型。

在继续下一步之前,请务必确保您的数据集干净并且没有空值。最后,在继续训练模型之前,请确保您的特征全部包含数值。

以上是如何使用 PySpark 进行机器学习的详细内容。更多信息请关注PHP中文网其他相关文章!

声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
Python中的合并列表:选择正确的方法Python中的合并列表:选择正确的方法May 14, 2025 am 12:11 AM

Tomergelistsinpython,YouCanusethe操作员,estextMethod,ListComprehension,Oritertools

如何在Python 3中加入两个列表?如何在Python 3中加入两个列表?May 14, 2025 am 12:09 AM

在Python3中,可以通过多种方法连接两个列表:1)使用 运算符,适用于小列表,但对大列表效率低;2)使用extend方法,适用于大列表,内存效率高,但会修改原列表;3)使用*运算符,适用于合并多个列表,不修改原列表;4)使用itertools.chain,适用于大数据集,内存效率高。

Python串联列表字符串Python串联列表字符串May 14, 2025 am 12:08 AM

使用join()方法是Python中从列表连接字符串最有效的方法。1)使用join()方法高效且易读。2)循环使用 运算符对大列表效率低。3)列表推导式与join()结合适用于需要转换的场景。4)reduce()方法适用于其他类型归约,但对字符串连接效率低。完整句子结束。

Python执行,那是什么?Python执行,那是什么?May 14, 2025 am 12:06 AM

pythonexecutionistheprocessoftransformingpypythoncodeintoExecutablestructions.1)InternterPreterReadSthecode,ConvertingTingitIntObyTecode,whepythonvirtualmachine(pvm)theglobalinterpreterpreterpreterpreterlock(gil)the thepythonvirtualmachine(pvm)

Python:关键功能是什么Python:关键功能是什么May 14, 2025 am 12:02 AM

Python的关键特性包括:1.语法简洁易懂,适合初学者;2.动态类型系统,提高开发速度;3.丰富的标准库,支持多种任务;4.强大的社区和生态系统,提供广泛支持;5.解释性,适合脚本和快速原型开发;6.多范式支持,适用于各种编程风格。

Python:编译器还是解释器?Python:编译器还是解释器?May 13, 2025 am 12:10 AM

Python是解释型语言,但也包含编译过程。1)Python代码先编译成字节码。2)字节码由Python虚拟机解释执行。3)这种混合机制使Python既灵活又高效,但执行速度不如完全编译型语言。

python用于循环与循环时:何时使用哪个?python用于循环与循环时:何时使用哪个?May 13, 2025 am 12:07 AM

useeAforloopWheniteratingOveraseQuenceOrforAspecificnumberoftimes; useAwhiLeLoopWhenconTinuingUntilAcIntiment.ForloopSareIdeAlforkNownsences,而WhileLeleLeleLeleLoopSituationSituationSituationsItuationSuationSituationswithUndEtermentersitations。

Python循环:最常见的错误Python循环:最常见的错误May 13, 2025 am 12:07 AM

pythonloopscanleadtoerrorslikeinfiniteloops,modifyingListsDuringteritation,逐个偏置,零indexingissues,andnestedloopineflinefficiencies

See all articles

热AI工具

Undresser.AI Undress

Undresser.AI Undress

人工智能驱动的应用程序,用于创建逼真的裸体照片

AI Clothes Remover

AI Clothes Remover

用于从照片中去除衣服的在线人工智能工具。

Undress AI Tool

Undress AI Tool

免费脱衣服图片

Clothoff.io

Clothoff.io

AI脱衣机

Video Face Swap

Video Face Swap

使用我们完全免费的人工智能换脸工具轻松在任何视频中换脸!

热门文章

热工具

SublimeText3 英文版

SublimeText3 英文版

推荐:为Win版本,支持代码提示!

PhpStorm Mac 版本

PhpStorm Mac 版本

最新(2018.2.1 )专业的PHP集成开发工具

适用于 Eclipse 的 SAP NetWeaver 服务器适配器

适用于 Eclipse 的 SAP NetWeaver 服务器适配器

将Eclipse与SAP NetWeaver应用服务器集成。

安全考试浏览器

安全考试浏览器

Safe Exam Browser是一个安全的浏览器环境,用于安全地进行在线考试。该软件将任何计算机变成一个安全的工作站。它控制对任何实用工具的访问,并防止学生使用未经授权的资源。

WebStorm Mac版

WebStorm Mac版

好用的JavaScript开发工具