Integration von Apache Spark mit MySQL zum Lesen von Datenbanktabellen
Um Apache Spark mit MySQL zu verbinden und Datenbanktabellen als Spark-Datenrahmen zu nutzen, befolgen Sie diese Schritte :
Erstelle einen Funken Sitzung:
<code class="python">from pyspark.sql import SparkSession # Create a Spark session object spark = SparkSession.builder \ .appName("Spark-MySQL-Integration") \ .getOrCreate()</code>
Instanziieren eines MySQL-Connectors:
<code class="python">from pyspark.sql import DataFrameReader # Create a DataFrameReader object for MySQL connection jdbc_df_reader = DataFrameReader(spark)</code>
Konfigurieren MySQL-Verbindung Parameter:
<code class="python"># Set MySQL connection parameters jdbc_params = { "url": "jdbc:mysql://localhost:3306/my_db", "driver": "com.mysql.jdbc.Driver", "dbtable": "my_table", "user": "root", "password": "password" }</code>
Datenbanktabelle lesen:
<code class="python"># Read the MySQL table as a Spark dataframe dataframe_mysql = jdbc_df_reader.format("jdbc") \ .options(**jdbc_params) \ .load() # Print the dataframe schema dataframe_mysql.printSchema()</code>
Dieser Ansatz zeigt, wie das geht Integrieren Sie Apache Spark mit MySQL, sodass Sie auf Datenbanktabellen als Spark-Datenrahmen zugreifen können.
Das obige ist der detaillierte Inhalt vonWie lese ich MySQL-Tabellen als Spark-DataFrames?. Für weitere Informationen folgen Sie bitte anderen verwandten Artikeln auf der PHP chinesischen Website!