찾다
백엔드 개발파이썬 튜토리얼기계 학습에 PySpark를 사용하는 방법

Apache Spark(빅 데이터 처리를 위한 오픈 소스 프레임워크) 출시 이후 여러 컨테이너에 걸쳐 대용량 데이터를 병렬로 처리하는 데 가장 널리 사용되는 기술 중 하나가 되었습니다. 효율성과 속도에 자부심을 갖고 있습니다. 이전에 존재했던 유사한 소프트웨어와 비교해 보세요.

Python 프로그래밍 언어를 사용하여 ApacheSpark의 놀라운 잠재력과 상호 작용하고 활용할 수 있게 해주는 Python API인 PySpark를 통해 Python에서 이 놀라운 기술을 사용하는 것이 가능합니다.

이 기사에서는 PySpark를 사용하여 선형 회귀 알고리즘을 사용하여 기계 학습 모델을 구축하는 방법을 배우고 시작합니다.

참고: 이 문서에 포함된 개념을 올바르게 이해하려면 Python, VSCode와 같은 IDE, 명령 프롬프트/터미널 사용 방법, 기계 학습 개념에 대한 사전 지식이 필수적입니다.

이 기사를 통해 다음을 수행할 수 있습니다.

  • ApacheSpark가 무엇인지 이해하세요.
  • PySpark에 대해 알아보고 이를 기계 학습에 사용하는 방법을 알아보세요.

PySpark란 무엇인가요?

Apache Spark 공식 웹사이트에 따르면 PySpark를 사용하면 "데이터 엔지니어링을 위해 ApacheSpark(단순성, 속도, 확장성, 다양성)와 Python(풍부한 생태계, 성숙한 라이브러리, 단순성)의 결합된 장점을 활용할 수 있습니다. , 데이터 과학, 단일 노드 머신 또는 클러스터에서의 머신 러닝.”

How to Use PySpark for Machine Learning
이미지 출처

PySpark는 ApacheSpark용 Python API입니다. 즉, Python으로 작성된 코드가 Scala로 작성된 ApacheSpark 기술과 통신할 수 있게 해주는 인터페이스 역할을 합니다. 이러한 방식으로 이미 Python 생태계에 익숙한 전문가는 ApacheSpark 기술을 빠르게 활용할 수 있습니다. 이는 또한 Python에서 사용되는 기존 라이브러리가 관련성을 유지하도록 보장합니다.

기계 학습을 위해 PySpark를 사용하는 방법에 대한 자세한 가이드

다음 단계에서는 선형 회귀 알고리즘을 사용하여 기계 학습 모델을 구축합니다.

  • 프로젝트 종속성 설치: 이미 컴퓨터에 Python이 설치되어 있다고 가정합니다. 그렇지 않은 경우 다음 단계로 이동하기 전에 설치하세요. 터미널이나 명령 프롬프트를 열고 아래 코드를 입력하여 PySpark 라이브러리를 설치하세요.
pip install pyspark

이러한 추가 Python 라이브러리가 없으면 설치할 수 있습니다.

pip install pyspark
  • 파일 생성 및 필요한 라이브러리 가져오기: VSCode를 열고 선택한 프로젝트 디렉터리에서 프로젝트용 파일(예: pyspart_model.py)을 생성합니다. 파일을 열고 프로젝트에 필요한 라이브러리를 가져옵니다.
pip install pandas numpy
  • Spark 세션 만들기: imports 아래에 이 코드를 입력하여 프로젝트에 대한 Spark 세션을 시작합니다.
from pyspark.sql import SparkSession
from pyspark.ml.feature import VectorAssembler
from pyspark.ml.classification import LogisticRegression
from pyspark.ml.evaluation import BinaryClassificationEvaluator
import pandas as pd
  • CSV 파일(작업할 데이터세트) 읽기: 프로젝트 디렉터리/폴더에 data.csv라는 데이터세트가 이미 있는 경우 아래 코드를 사용하여 로드하세요.
spark = SparkSession.builder.appName("LogisticRegressionExample").getOrCreate()
  • 탐색적 데이터 분석: 이 단계는 작업 중인 데이터 세트를 이해하는 데 도움이 됩니다. null 값을 확인하고 사용할 정리 접근 방식을 결정합니다.
data = spark.read.csv("data.csv", header=True, inferSchema=True)

선택적으로 소규모 데이터 세트로 작업하는 경우 이를 Python 데이터 프레임 및 디렉터리로 변환하고 Python을 사용하여 누락된 값을 확인할 수 있습니다.

# Display the schema my
 data.printSchema() 
# Show the first ten rows 
data.show(10)
# Count null values in each column
missing_values = df.select(
    [count(when(isnull(c), c)).alias(c) for c in df.columns]
)

# Show the result
missing_values.show()
  • 데이터 전처리: 이 단계에는 데이터세트의 열/특성을 PySpark의 기계 학습 라이브러리가 쉽게 이해할 수 있거나 호환되는 형식으로 변환하는 작업이 포함됩니다.

VectorAssembler를 사용하여 모든 기능을 단일 벡터 열로 결합합니다.

pandas_df = data.toPandas()
# Use Pandas to check missing values
print(pandas_df.isna().sum())
  • 데이터세트 분할: 데이터세트를 편리한 비율로 분할합니다. 여기서는 70~30%를 사용합니다. 70%는 학습에, 30%는 모델 테스트에 사용됩니다.
# Combine feature columns into a single vector column
feature_columns = [col for col in data.columns if col != "label"]
assembler = VectorAssembler(inputCols=feature_columns, outputCol="features")

# Transform the data
data = assembler.transform(data)

# Select only the 'features' and 'label' columns for training
final_data = data.select("features", "label")

# Show the transformed data
final_data.show(5)
  • 모델 교육: 모델 교육에 로지스틱 회귀 알고리즘을 사용하고 있습니다.

LogisticRegression 클래스의 인스턴스를 생성하고 모델에 적합합니다.

train_data, test_data = final_data.randomSplit([0.7, 0.3], seed=42)
  • 훈련된 모델로 예측: 이전 단계에서 훈련한 모델을 사용하여 예측합니다.
lr = LogisticRegression(featuresCol="features", labelCol="label")

# Train the model
lr_model = lr.fit(train_data)
  • 모델 평가: 여기에서는 예측 성능이나 정확성 수준을 결정하기 위해 모델을 평가합니다. 우리는 적절한 평가 지표를 사용하여 이를 달성합니다.

AUC 측정항목을 사용하여 모델 평가

predictions = lr_model.transform(test_data)
# Show predictions
predictions.select("features", "label", "prediction", "probability").show(5)

이 기사에 사용된 엔드투엔드 코드는 다음과 같습니다.

evaluator = BinaryClassificationEvaluator(rawPredictionCol="rawPrediction", labelCol="label", metricName="areaUnderROC")

# Compute the AUC
auc = evaluator.evaluate(predictions)
print(f"Area Under ROC: {auc}")

다음 단계는?

이 글이 끝났습니다. 위 단계에 따라 PySpark를 사용하여 머신러닝 모델을 구축했습니다.

다음 단계를 진행하기 전에 항상 데이터세트가 깨끗하고 null 값이 없는지 확인하세요. 마지막으로, 모델 학습을 진행하기 전에 모든 기능에 숫자 값이 포함되어 있는지 확인하세요.

위 내용은 기계 학습에 PySpark를 사용하는 방법의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.
Python의 병합 목록 : 올바른 메소드 선택Python의 병합 목록 : 올바른 메소드 선택May 14, 2025 am 12:11 AM

Tomergelistsinpython, youcanusethe operator, extendmethod, listcomprehension, oritertools.chain, 각각은 각각의 지위를 불러 일으킨다

Python 3에서 두 목록을 연결하는 방법은 무엇입니까?Python 3에서 두 목록을 연결하는 방법은 무엇입니까?May 14, 2025 am 12:09 AM

Python 3에서는 다양한 방법을 통해 두 개의 목록을 연결할 수 있습니다. 1) 작은 목록에 적합하지만 큰 목록에는 비효율적입니다. 2) 메모리 효율이 높지만 원래 목록을 수정하는 큰 목록에 적합한 확장 방법을 사용합니다. 3) 원래 목록을 수정하지 않고 여러 목록을 병합하는 데 적합한 * 운영자 사용; 4) 메모리 효율이 높은 대형 데이터 세트에 적합한 itertools.chain을 사용하십시오.

Python은 문자열을 연결합니다Python은 문자열을 연결합니다May 14, 2025 am 12:08 AM

join () 메소드를 사용하는 것은 Python의 목록에서 문자열을 연결하는 가장 효율적인 방법입니다. 1) join () 메소드를 사용하여 효율적이고 읽기 쉽습니다. 2)주기는 큰 목록에 비효율적으로 운영자를 사용합니다. 3) List Comprehension과 Join ()의 조합은 변환이 필요한 시나리오에 적합합니다. 4) READE () 방법은 다른 유형의 감소에 적합하지만 문자열 연결에 비효율적입니다. 완전한 문장은 끝납니다.

파이썬 실행, 그게 뭐야?파이썬 실행, 그게 뭐야?May 14, 2025 am 12:06 AM

pythonexecutionissprocessoftransformingpythoncodeintoExecutableInstructions.1) the -interreadsTheCode, ConvertingItintoByTecode, thethepythonVirtualMachine (pvm)을 실행합니다

파이썬 : 주요 기능은 무엇입니까?파이썬 : 주요 기능은 무엇입니까?May 14, 2025 am 12:02 AM

Python의 주요 특징은 다음과 같습니다. 1. 구문은 간결하고 이해하기 쉽고 초보자에게 적합합니다. 2. 개발 속도 향상, 동적 유형 시스템; 3. 여러 작업을 지원하는 풍부한 표준 라이브러리; 4. 광범위한 지원을 제공하는 강력한 지역 사회와 생태계; 5. 스크립팅 및 빠른 프로토 타이핑에 적합한 해석; 6. 다양한 프로그래밍 스타일에 적합한 다중-파라 디그 지원.

파이썬 : 컴파일러 또는 통역사?파이썬 : 컴파일러 또는 통역사?May 13, 2025 am 12:10 AM

Python은 해석 된 언어이지만 편집 프로세스도 포함됩니다. 1) 파이썬 코드는 먼저 바이트 코드로 컴파일됩니다. 2) 바이트 코드는 Python Virtual Machine에 의해 해석되고 실행됩니다. 3)이 하이브리드 메커니즘은 파이썬이 유연하고 효율적이지만 완전히 편집 된 언어만큼 빠르지는 않습니다.

루프 대 루프를위한 파이썬 : 루프시기는 언제 사용해야합니까?루프 대 루프를위한 파이썬 : 루프시기는 언제 사용해야합니까?May 13, 2025 am 12:07 AM

USEAFORLOOPHENTERATINGOVERASERASERASPECIFICNUMBEROFTIMES; USEAWHILLOOPWHENTINUTIMONDITINISMET.FORLOOPSAREIDEALFORKNOWNSEDINGENCENCENS, WHILEWHILELOOPSSUITSITUATIONS WITHERMINGEDERITERATIONS.

파이썬 루프 : 가장 일반적인 오류파이썬 루프 : 가장 일반적인 오류May 13, 2025 am 12:07 AM

Pythonloopscanleadtoerrors likeinfiniteloops, modifyinglistsdizeration, off-by-by-byerrors, zero-indexingissues, andnestedloopineficiencies.toavoidthese : 1) aing'i

See all articles

핫 AI 도구

Undresser.AI Undress

Undresser.AI Undress

사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover

AI Clothes Remover

사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool

Undress AI Tool

무료로 이미지를 벗다

Clothoff.io

Clothoff.io

AI 옷 제거제

Video Face Swap

Video Face Swap

완전히 무료인 AI 얼굴 교환 도구를 사용하여 모든 비디오의 얼굴을 쉽게 바꾸세요!

뜨거운 도구

메모장++7.3.1

메모장++7.3.1

사용하기 쉬운 무료 코드 편집기

SecList

SecList

SecLists는 최고의 보안 테스터의 동반자입니다. 보안 평가 시 자주 사용되는 다양한 유형의 목록을 한 곳에 모아 놓은 것입니다. SecLists는 보안 테스터에게 필요할 수 있는 모든 목록을 편리하게 제공하여 보안 테스트를 더욱 효율적이고 생산적으로 만드는 데 도움이 됩니다. 목록 유형에는 사용자 이름, 비밀번호, URL, 퍼징 페이로드, 민감한 데이터 패턴, 웹 셸 등이 포함됩니다. 테스터는 이 저장소를 새로운 테스트 시스템으로 간단히 가져올 수 있으며 필요한 모든 유형의 목록에 액세스할 수 있습니다.

맨티스BT

맨티스BT

Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

ZendStudio 13.5.1 맥

ZendStudio 13.5.1 맥

강력한 PHP 통합 개발 환경

SublimeText3 중국어 버전

SublimeText3 중국어 버전

중국어 버전, 사용하기 매우 쉽습니다.