spark:使用本地Kubernetes Scheduler后端增强了Apache Spark:注意,由于kubernetes Scheduler后端的所有新开发都位于https:github.comapachespark,因此该存储库正在归档中

时间:2024-02-24 09:37:39
【文件属性】:

文件名称:spark:使用本地Kubernetes Scheduler后端增强了Apache Spark:注意,由于kubernetes Scheduler后端的所有新开发都位于https:github.comapachespark,因此该存储库正在归档中

文件大小:21.82MB

文件格式:ZIP

更新时间:2024-02-24 09:37:39

kubernetes apache-spark kubernetes-cluster KubernetesScala

ARCHIVED这个仓库被归档,以防止任何未来的困惑:在Kubernetes调度后端为Apache星火所有的开发,现在上游的和 已弃用。 此分叉的工作已停止。 关于Apache Spark主线实现的进一步开发仍在继续: : 。 您可以使用Spark 2.3在Kubernetes上运行Spark。 这项工作的某些功能需要移植到主线。 如果缺少某个功能,请检查以查看我们是否正在跟踪该工作,如果不是,请提交JIRA票证以表明缺少行为。 所有其他错误和功能请求应通过JIRA提出,或发送至或 。 Kubernetes上的Apache Spark 该存储库位于 ,包含Apache Spark的一个分支,该分支可在Kubernetes集群上本地运行Spark作业。 这是什么? 这是一个在上进行协作维护的项目。 目标是为Spark提供本机支持,以与Spark Standalone,Mesos和Apache YARN集群管理器完全兼容的方式将Kubernetes用作集群管理器。 入门 显示了如何运行代码 显示了如何进行开发设置 展示了Kubernetes上Spark的高级架构 代码主要位于


网友评论