Cara Menambah Fail JAR pada Spark Job Menggunakan spark-submit
Latar Belakang:
Spark-submit ialah alat baris perintah yang digunakan untuk menyerahkan aplikasi Spark. Ia membenarkan pengguna untuk menentukan pelbagai pilihan, termasuk menambah fail JAR pada laluan kelas aplikasi.
Laluan Kelas dan Pengagihan JAR:
Pilihan Analisis:
1. --jars vs SparkContext.addJar
Kedua-dua pilihan ini melaksanakan fungsi yang sama untuk menambah fail JAR pada laluan kelas aplikasi. Walau bagaimanapun, ia digunakan dalam konteks yang berbeza:
2. SparkContext.addJar vs SparkContext.addFile
3. --driver-class-path vs --conf spark.driver.extraClassPath
4. --driver-library-path vs --conf spark.driver.extraLibraryPath
5. --conf spark.executor.extraClassPath
6. --conf spark.executor.extraLibraryPath
Menggunakan Berbilang Pilihan Serentak>:
Selagi tidak bercanggah, adalah selamat untuk menggunakan berbilang pilihan penambahan fail JAR pada masa yang sama. Walau bagaimanapun, ambil perhatian bahawa fail JAR hanya boleh disertakan dalam pilihan extraClassPath jika ia perlu berada di laluan kelas.Contoh:
Arahan berikut menunjukkan penambahan fail JAR menggunakan pelbagai pilihan:spark-submit --jars additional1.jar,additional2.jar \ --driver-class-path additional1.jar:additional2.jar \ --conf spark.executor.extraClassPath=additional1.jar:additional2.jar \ --class MyClass main-application.jar
Tambahan Pertimbangan:
Atas ialah kandungan terperinci Bagaimana untuk menambah fail JAR ke kerja Spark menggunakan spark-submit?. Untuk maklumat lanjut, sila ikut artikel berkaitan lain di laman web China PHP!