データベース テーブルを Spark DataFrame として読み取るための Apache Spark と MySQL の統合
Apache Spark と MySQL をシームレスに接続し、データベース テーブルからデータを取得するにはSpark DataFrames では、次の手順に従います:
PySpark から、mySqlContext.read 関数を使用して接続を確立します:
<code class="python">dataframe_mysql = mySqlContext.read.format("jdbc")</code>
MySQL 接続に必要な構成パラメータを設定します:
load メソッドを使用してテーブル データを DataFrame にロードします。
<code class="python">dataframe_mysql = dataframe_mysql.options( url="jdbc:mysql://localhost:3306/my_bd_name", driver = "com.mysql.jdbc.Driver", dbtable = "my_tablename", user="root", password="root").load()</code>
データを DataFrame にロードしたら、変換や集計などのさまざまな操作を実行できます。 、Spark の豊富な API セットを使用します。
以上がMySQL データベース テーブルを Spark DataFrame として読み取る方法は?の詳細内容です。詳細については、PHP 中国語 Web サイトの他の関連記事を参照してください。