Apache Spark를 MySQL과 통합: Spark DataFrames로 데이터베이스 테이블 읽기
Spark를 MySQL과 통합하면 MySQL 데이터베이스 테이블 및 프로세스에 원활하게 액세스할 수 있습니다. Spark 애플리케이션 내의 데이터. 이를 달성하는 방법은 다음과 같습니다.
PySpark에서 다음 코드 조각을 활용할 수 있습니다.
<code class="python">dataframe_mysql = mySqlContext.read.format("jdbc").options( url="jdbc:mysql://localhost:3306/my_bd_name", driver="com.mysql.jdbc.Driver", dbtable="my_tablename", user="root", password="root").load()</code>
이 코드는 MySQL 데이터베이스에 대한 JDBC 연결을 설정하고 지정된 데이터베이스 테이블을 MySQL 데이터베이스에 로드합니다. dataframe_mysql이라는 Spark DataFrame.
그런 다음 Spark의 풍부한 API를 사용하여 DataFrame에서 다양한 데이터 변환 및 작업을 수행할 수 있습니다. 예를 들어, 테이블의 데이터를 다른 데이터 소스와 필터링, 집계 및 조인할 수 있습니다.
이 통합이 작동하려면 MySQL JDBC 드라이버가 Spark 애플리케이션의 클래스 경로에 포함되어 있는지 확인해야 할 수도 있습니다. .
위 내용은 PySpark를 사용하여 MySQL 데이터베이스 테이블을 Spark DataFrame으로 읽는 방법은 무엇입니까?의 상세 내용입니다. 자세한 내용은 PHP 중국어 웹사이트의 기타 관련 기사를 참조하세요!