从任务中调用 Java/Scala 函数
尝试在映射转换中使用 PySpark 的 DecisionTreeModel.predict 函数时,通常会出现异常遭遇。此错误源于以下事实:Py4J(促进 Python 和 Java 之间的通信)只能从驱动程序访问。
文档建议通过将预测和标签分离为不同的映射操作来避免此问题。然而,这个解决方案提出了是否有更优雅的方法的问题。
JavaModelWrapper 和 Py4J
PySpark 的 Python 解释器通过套接字与 JVM 工作线程通信,将它们与驱动程序上存在的 Py4J 网关。此限制阻止用户直接访问 Java/Scala 函数。
替代解决方案
尽管存在通信限制,但仍有多种解决方法:
1. Spark SQL 数据源 API
此高级 API 允许用户将 JVM 代码封装在 Spark SQL 数据源中。虽然受支持,但它有点冗长并且缺乏全面的文档。
2.带有 DataFrame 的 Scala UDF
Scala UDF 可以应用于 DataFrame,提供简单的实现以及与现有 DataFrame 数据结构的兼容性。但是,这种方法需要访问 Py4J 和内部方法。
3. Scala 接口
可以创建自定义 Scala 接口,镜像 MLlib 模型包装器方法。这提供了灵活性和执行复杂代码的能力,但需要数据转换和内部 API 访问。
4.外部工作流管理
可以使用Alluxio等工具来促进Python和Scala/Java任务之间的数据交换,最大限度地减少对原始代码的更改,但可能会产生数据传输成本。
5.共享 SQLContext
交互式分析可以受益于共享 SQLContext,通过注册的临时表实现数据共享。然而,批处理作业或编排要求可能会限制其适用性。
结论
虽然 Py4J 通信限制阻碍了分布式 PySpark 任务中直接访问 Java/Scala 函数,但所提出的解决方法提供了不同程度的灵活性和技术挑战。方法的选择最终取决于用例的具体要求和约束。
以上是如何从 PySpark 任务调用 Java/Scala 函数?的详细内容。更多信息请关注PHP中文网其他相关文章!