Hue中spark 实现提交运行源码过程

时间:2022-12-28 10:01:11

Huespark实现提交运行源码过程

一.简介

1.1 Hue notebook

Hue3.8版本之前,spark是以UI组件进行展示的。在3.8版本之后,为了支持不同语言例如pythonscala并提供一个类似REPL(类似于一个终端可以编辑所有变成语言)的环境。Hue提供了notebook组件并将关于spark的运行逻辑放置在notebook UI中执行。为了执行Spark作业,需要安装Livy服务器。

1.2 Spark Livy Server

为了执行Spark JobHue提供了执行服务器Livy,加强了Hue notebookspark的支持。它类似于Oozie hadoop工作流服务器,对外提供了Rest Api,客户端将spark jar以及配置参数传递给livylivy依据配置文件以及参数执行jar

P.s. livy出现时间不长,维护的版本才到0.2.0。并没有Oozie成熟,直接使用作为spark server 感觉坑会比较多。

二.配置Livy

livyHue中自带源码,位置在${HUE_PATH}/apps/spark/java下,进行编译后执行(可能会有日志jar包不存在报错,修改classpath并添加)。

在运行成功后,可以对livy服务器发送Rest请求并执行scalaspark Job等。具体的配置路径可以查看livygithubhttps://github.com/cloudera/livy)。

三.Huenotebook提交Spark Job的源码实现

为了方便阅读,按照操作的步骤进行解读:

3.1打开notebook页面

 

发送请求:http://{Livy_IP}:{Livy_port}/notebook/new

源码(desktop/libs/notebook/views/new,在这个方法中主要验证了当前的运行环境是否是yarn。之后会返回包含notebook_idjson数据渲染notebook.mako。进入notebook页面如下:

 

3.2点击UI

当点击+后产生notebook的代码片段输入部分。根据HueSession对象在Livy服务器中生成一个session,以后如果session一直保存则无需再调此接口。发送请求:/notebook/api/create_session

源码(desktop/libs/notebook/api/create_session),该方法的执行流程:首先它会根据点击的按钮调用notebook.connectors,这是个工厂模式,返回不同链接的api

 

包含链接的api如上。在这主要以sparkApi做为例子。以这个接口做为对象调用相应的createSession方法。调用了Livy中的/session接口,POST形式发送的Request Body为一些配置信息,这些信息是从HueSession中获取,进行加工后传输给Livy。最终会在Livy服务器中生成对应的Session,客户端通过返回的id值获取此Session

Livy中用户的操作都是通过session进行,未来开发需要对此session进行有效的管理(由于此Session都是存储在Livy服务器上,未来开发需要将session的内容同步到本地上来,防止服务器session丢失以至于丢失用户以往的工作内容)。

3.3 切换不同的语言状态

 

发送请求:/notebook/api/autocomplete/

源码(desktop/libs/notebook/api/autocomplete)这里会依据不同的输入参数修改链接的内容,比如如果选择DB操作,在这个方法中首先会对数据库进行连接。Spark的相关操作在这并不做修改。

3.4提交作业

Spark Submit Job做为例子:

主要输入参数为PathMain-class以及arguements。其中Pathjar所在的位置,最好放置在HDFS中进行执行。可以从本地上传。

3.5执行

在这个页面点击执行的时候测试有点bug主要是执行按钮为不可选,切换到别的编辑模式再换回来才可执行。

发送请求:/notebook/api/execute

源码(desktop/libs/notebook/api/execute)。在这个方法中。执行的主要语句为response['handle'] = get_api(request, snippet).execute(notebook, snippet)在这句话中,首先使用get_api依照2步骤中获取指定类别的API。然后执行 该接口中的execute方法。

SparkApi接口中的执行该方法,去操作notebooksnippet这两个对象。这两个对象是用于确定session的。

最终以api中的HttpClient发送post请求到livy服务器中,发送的url

Session/{uuid}/statementsUuidsession对象中的ID属性值;发送的Data对象为snippet中的statement的数据(也就是执行的语句)和notebook对象(包含了执行的properties)。

3.6执行期间被调用的其他接口

(1)当运行job时会调用check_status接口(notebook/api/check_status)。

这样同样会通过rest接口请求livy服务器中的执行的一系列语句的结果。这是一个GET请求,返回状态。

如果状态为failed或者expire可能会抛出异常,需处理。

(2)fetch_result_data会返回当前session的所有执行的语句,以list进行展示。调用的接口为(notebook/api/fetch_result_data)

GET形式发送给Livy urlsessions/{session}/statements

(3)jobs接口(jobbrowser/views/jobs),获取有关于当前用户执行的joblog日志。这是一个定时的任务接口,如果有任务正在进行中,会不断的向livy服务器发送请求获取当前session用户执行job的日志。从logs可以找出有哪些job_id,最终根据这些jobs获取job的详细信息,并返回。

GET形式进行发送,urlsessions/{uuid}/logs,其中uuid为当前session的唯一标识符。

四.总结

Hue在提交并执行作业的时候使用的是OozieLivy服务器,将Hue做为一个client进行开发,将封装好的数据通过RestApi发送给两种服务器进行作业的提交,执行和管理。

但是相较于OozieLivy并不包含DAG图,所以在执行Spark作业的时候多节点直接可能无法产生依赖,无法保证执行的次序。目前调研看来,Spark作业最好为单节点,或者无依赖的链表形式执行。

 

 

P.S. spark sql的操作是在HIVE中执行,在运行前需要保证Thrift Server有效运行,Hue会把hivesql之间发送给sparksqlThriftServer