將Apache Spark 與MySQL 集成,以Spark DataFrame 形式讀取資料庫表
將Apache Spark 與MySQL 無縫連接,並從資料庫表中擷取資料Spark DataFrames,請依照下列步驟操作:
從PySpark,使用mySqlContext.read 函數建立連線:
<code class="python">dataframe_mysql = mySqlContext.read.format("jdbc")</code>
設定MySQL 連線所需的設定參數:
使用load 方法將表格資料載入DataFrame 中:
<code class="python">dataframe_mysql = dataframe_mysql.options( url="jdbc:mysql://localhost:3306/my_bd_name", driver = "com.mysql.jdbc.Driver", dbtable = "my_tablename", user="root", password="root").load()</code>
將資料載入到DataFrame 後,您可以對其執行各種操作,例如轉換和聚合,使用Spark 豐富的API 集合。
以上是如何將 MySQL 資料庫表讀取為 Spark DataFrame?的詳細內容。更多資訊請關注PHP中文網其他相關文章!