>  기사  >  데이터 베이스  >  PySpark를 사용하여 MySQL 데이터베이스 테이블을 Spark DataFrame으로 읽는 방법은 무엇입니까?

PySpark를 사용하여 MySQL 데이터베이스 테이블을 Spark DataFrame으로 읽는 방법은 무엇입니까?

Susan Sarandon
Susan Sarandon원래의
2024-10-28 18:52:29663검색

How to Read MySQL Database Tables into Spark DataFrames using PySpark?

Apache Spark를 MySQL과 통합: Spark DataFrames로 데이터베이스 테이블 읽기

Spark를 MySQL과 통합하면 MySQL 데이터베이스 테이블 및 프로세스에 원활하게 액세스할 수 있습니다. Spark 애플리케이션 내의 데이터. 이를 달성하는 방법은 다음과 같습니다.

PySpark에서 다음 코드 조각을 활용할 수 있습니다.

<code class="python">dataframe_mysql = mySqlContext.read.format("jdbc").options(
    url="jdbc:mysql://localhost:3306/my_bd_name",
    driver="com.mysql.jdbc.Driver",
    dbtable="my_tablename",
    user="root",
    password="root").load()</code>

이 코드는 MySQL 데이터베이스에 대한 JDBC 연결을 설정하고 지정된 데이터베이스 테이블을 MySQL 데이터베이스에 로드합니다. dataframe_mysql이라는 Spark DataFrame.

그런 다음 Spark의 풍부한 API를 사용하여 DataFrame에서 다양한 데이터 변환 및 작업을 수행할 수 있습니다. 예를 들어, 테이블의 데이터를 다른 데이터 소스와 필터링, 집계 및 조인할 수 있습니다.

이 통합이 작동하려면 MySQL JDBC 드라이버가 Spark 애플리케이션의 클래스 경로에 포함되어 있는지 확인해야 할 수도 있습니다. .

위 내용은 PySpark를 사용하여 MySQL 데이터베이스 테이블을 Spark DataFrame으로 읽는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!

성명:
본 글의 내용은 네티즌들의 자발적인 기여로 작성되었으며, 저작권은 원저작자에게 있습니다. 본 사이트는 이에 상응하는 법적 책임을 지지 않습니다. 표절이나 침해가 의심되는 콘텐츠를 발견한 경우 admin@php.cn으로 문의하세요.