스파크가 왜 느린가요??
'스파크는 왜 느린가요??'라는 눈길을 끄는 제목으로 시작하여, 스파크를 '느리다'라고 부르는 것은 다양한 의미를 가질 수 있다는 점에 유의하는 것이 중요합니다. 집계 속도가 느린가요? 데이터 로딩? 다양한 경우가 존재합니다. 또한 "Spark"는 광범위한 용어이며 성능은 프로그래밍 언어 및 사용 컨텍스트와 같은 요소에 따라 달라집니다. 그럼 본격적으로 시작하기 전에 제목을 좀 더 정확하게 다듬어 보겠습니다.
저는 Databricks에서 Python과 함께 Spark를 주로 사용하므로 범위를 더 좁혀보겠습니다.
세련된 제목은 다음과 같습니다.
"스파크의 첫인상: '빠르다고 들었는데 왜 느리게 느껴지는 걸까?' 초보자의 시선"
글쓰기 동기(캐주얼 생각)
Pandas, NumPy 및 기계 학습 라이브러리를 광범위하게 사용하는 사람으로서 저는 병렬 및 분산 처리를 통해 빅데이터를 처리하는 Spark의 능력에 감탄했습니다. 마침내 Spark를 업무에 사용하게 되었을 때, 그것이 Pandas보다 느려 보이는 시나리오에 당황했습니다. 무엇이 잘못되었는지 확신할 수 없었지만 몇 가지 통찰력을 발견하여 공유하고 싶습니다.
언제 스파크가 느려지나요?
본론으로 들어가기 전에
Spark의 기본 아키텍처를 간략하게 살펴보겠습니다.
(클러스터 모드 개요)
Spark 클러스터는 실제 처리를 수행하는 워커 노드와 실행을 조정하고 계획하는 드라이버 노드로 구성됩니다. 이 아키텍처는 아래에서 설명하는 모든 것에 영향을 미치므로 염두에 두십시오.
이제 주요 사항을 살펴보겠습니다.
1. 데이터 세트가 충분히 크지 않습니다.
Spark는 대규모 데이터 처리에 최적화되어 있지만 소규모 데이터세트도 처리할 수 있습니다. 하지만 이 벤치마크를 살펴보세요.
(단일 노드 시스템에서 Apache Spark 벤치마킹)
결과에 따르면 15GB 미만의 데이터 세트의 경우 Pandas가 집계 작업에서 Spark보다 성능이 뛰어난 것으로 나타났습니다. 왜? 간단히 말해서 Spark 최적화로 인한 오버헤드가 소규모 데이터세트의 이점보다 더 큽니다.
링크는 Spark가 느리지 않지만 로컬 클러스터 모드에 있는 경우를 보여줍니다. 독립 실행형 설정의 경우 노드 간 네트워크 통신 오버헤드로 인해 더 작은 데이터 세트가 단점이 될 수 있습니다.
- pandas: 네트워크나 스토리지 I/O 없이 단일 시스템에서 메모리 내 모든 것을 처리합니다.
- Spark: RDD(Resilient Distributed Datasets)를 사용하고 작업자 간 네트워크 통신(분산된 경우)을 포함하며 병렬 처리를 위해 데이터를 구성하는 데 오버헤드가 발생합니다.
2. 지연 평가 이해
Spark는 지연 평가를 사용합니다. 즉, 변환이 즉시 실행되지 않고 작업(예: 수집, 계산, 표시)이 계산을 트리거할 때까지 연기됩니다.
예(판다):
df = spark.read.table("tpch.lineitem").limit(1000).toPandas() df["l_tax_percentage"] = df["l_tax"] * 100 for l_orderkey, group_df in df.groupby("l_orderkey"): print(l_orderkey, group_df["l_tax_percentage"].mean())
실행 시간: 3.04초
Spark와 동일:
from pyspark.sql import functions as F sdf = spark.read.table("tpch.lineitem").limit(1000) sdf = sdf.withColumn("l_tax_percentage", F.col("l_tax") * 100) for row in sdf.select("l_orderkey").distinct().collect(): grouped_sdf = sdf.filter(F.col("l_orderkey") == row.l_orderkey).groupBy("l_orderkey").agg( F.mean("l_tax_percentage").alias("avg_l_tax_percentage") ) print(grouped_sdf.show())
실행 시간: 3분 후에도 계속 실행됩니다.
왜?
- 지연 평가: 모든 변환은 대기열에 추가되며 쇼와 같은 작업 중에만 실행됩니다.
- 운전자 간 통신: 수집 및 표시와 같은 작업에는 작업자에서 운전자로의 데이터 전송이 포함되어 지연이 발생합니다.
Spark 코드는 Pandas에서 이 작업을 효과적으로 수행합니다.
for l_orderkey, group_df in df.groupby("l_orderkey"): df["l_tax_percentage"] = df["l_tax"] * 100 print(l_orderkey, group_df["l_tax_percentage"].mean())
Spark의 캐시를 사용하거나 반복 계산을 최소화하도록 로직을 재구성하여 이러한 패턴을 피하세요.
3. 셔플을 조심하세요
https://spark.apache.org/docs/latest/rdd-programming-guide.html#shuffle-Operations
셔플은 일반적으로 groupByKey, 조인 또는 재분할과 같은 작업 중에 데이터가 작업자 간에 재배포될 때 발생합니다. 다음과 같은 이유로 셔플이 느려질 수 있습니다.
- 노드 간 네트워크 통신.
- 파티션 전체의 데이터 전역 정렬 및 집계.
예를 들어, 작업자가 더 많다고 해서 셔플 중에 항상 성능이 향상되는 것은 아닙니다.
- 32GB x 8 작업자는 64GB x 4 작업자보다 느릴 수 있습니다. 작업자 수가 적으면 노드 간 통신이 줄어들기 때문입니다.
결론
이 정보가 도움이 되었나요? Spark는 효과적으로 사용하면 훌륭한 도구입니다. 대규모 데이터 처리 속도를 높이는 것 외에도 Spark는 특히 클라우드에서 확장 가능한 리소스 관리로 빛을 발합니다.
Spark를 사용해 데이터 운영 및 관리를 최적화해 보세요!
위 내용은 스파크가 왜 느린가요??의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

Linux 터미널에서 Python 버전을 보려고 할 때 Linux 터미널에서 Python 버전을 볼 때 권한 문제에 대한 솔루션 ... Python을 입력하십시오 ...

이 기사에서는 HTML을 구문 분석하기 위해 파이썬 라이브러리 인 아름다운 수프를 사용하는 방법을 설명합니다. 데이터 추출, 다양한 HTML 구조 및 오류 처리 및 대안 (SEL과 같은 Find (), find_all (), select () 및 get_text ()와 같은 일반적인 방법을 자세히 설명합니다.

파이썬 객체의 직렬화 및 사막화는 사소한 프로그램의 주요 측면입니다. 무언가를 Python 파일에 저장하면 구성 파일을 읽거나 HTTP 요청에 응답하는 경우 객체 직렬화 및 사태화를 수행합니다. 어떤 의미에서, 직렬화와 사제화는 세계에서 가장 지루한 것들입니다. 이 모든 형식과 프로토콜에 대해 누가 걱정합니까? 일부 파이썬 객체를 지속하거나 스트리밍하여 나중에 완전히 검색하려고합니다. 이것은 세상을 개념적 차원에서 볼 수있는 좋은 방법입니다. 그러나 실제 수준에서 선택한 직렬화 체계, 형식 또는 프로토콜은 속도, 보안, 유지 보수 상태 및 프로그램의 기타 측면을 결정할 수 있습니다.

Python의 통계 모듈은 강력한 데이터 통계 분석 기능을 제공하여 생물 통계 및 비즈니스 분석과 같은 데이터의 전반적인 특성을 빠르게 이해할 수 있도록 도와줍니다. 데이터 포인트를 하나씩 보는 대신 평균 또는 분산과 같은 통계를보고 무시할 수있는 원래 데이터에서 트렌드와 기능을 발견하고 대형 데이터 세트를보다 쉽고 효과적으로 비교하십시오. 이 튜토리얼은 평균을 계산하고 데이터 세트의 분산 정도를 측정하는 방법을 설명합니다. 달리 명시되지 않는 한,이 모듈의 모든 함수는 단순히 평균을 합산하는 대신 평균 () 함수의 계산을 지원합니다. 부동 소수점 번호도 사용할 수 있습니다. 무작위로 가져옵니다 수입 통계 Fracti에서

이 기사는 딥 러닝을 위해 텐서 플로와 Pytorch를 비교합니다. 데이터 준비, 모델 구축, 교육, 평가 및 배포와 관련된 단계에 대해 자세히 설명합니다. 프레임 워크, 특히 계산 포도와 관련하여 주요 차이점

이 튜토리얼은 간단한 나무 탐색을 넘어서 DOM 조작에 중점을 둔 아름다운 수프에 대한 이전 소개를 바탕으로합니다. HTML 구조를 수정하기위한 효율적인 검색 방법과 기술을 탐색하겠습니다. 일반적인 DOM 검색 방법 중 하나는 EX입니다

이 기사는 Numpy, Pandas, Matplotlib, Scikit-Learn, Tensorflow, Django, Flask 및 요청과 같은 인기있는 Python 라이브러리에 대해 설명하고 과학 컴퓨팅, 데이터 분석, 시각화, 기계 학습, 웹 개발 및 H에서의 사용에 대해 자세히 설명합니다.

이 기사는 Python 개발자가 CLIS (Command-Line Interfaces) 구축을 안내합니다. Typer, Click 및 Argparse와 같은 라이브러리를 사용하여 입력/출력 처리를 강조하고 CLI 유용성을 향상시키기 위해 사용자 친화적 인 디자인 패턴을 홍보하는 세부 정보.


핫 AI 도구

Undresser.AI Undress
사실적인 누드 사진을 만들기 위한 AI 기반 앱

AI Clothes Remover
사진에서 옷을 제거하는 온라인 AI 도구입니다.

Undress AI Tool
무료로 이미지를 벗다

Clothoff.io
AI 옷 제거제

AI Hentai Generator
AI Hentai를 무료로 생성하십시오.

인기 기사

뜨거운 도구

ZendStudio 13.5.1 맥
강력한 PHP 통합 개발 환경

SublimeText3 Linux 새 버전
SublimeText3 Linux 최신 버전

맨티스BT
Mantis는 제품 결함 추적을 돕기 위해 설계된 배포하기 쉬운 웹 기반 결함 추적 도구입니다. PHP, MySQL 및 웹 서버가 필요합니다. 데모 및 호스팅 서비스를 확인해 보세요.

Atom Editor Mac 버전 다운로드
가장 인기 있는 오픈 소스 편집기

mPDF
mPDF는 UTF-8로 인코딩된 HTML에서 PDF 파일을 생성할 수 있는 PHP 라이브러리입니다. 원저자인 Ian Back은 자신의 웹 사이트에서 "즉시" PDF 파일을 출력하고 다양한 언어를 처리하기 위해 mPDF를 작성했습니다. HTML2FPDF와 같은 원본 스크립트보다 유니코드 글꼴을 사용할 때 속도가 느리고 더 큰 파일을 생성하지만 CSS 스타일 등을 지원하고 많은 개선 사항이 있습니다. RTL(아랍어, 히브리어), CJK(중국어, 일본어, 한국어)를 포함한 거의 모든 언어를 지원합니다. 중첩된 블록 수준 요소(예: P, DIV)를 지원합니다.
