Spark应用程序-Hadoop,Hive,Hbase等框架详解

时间:2021-04-26 10:17:39
【文件属性】:
文件名称:Spark应用程序-Hadoop,Hive,Hbase等框架详解
文件大小:3.06MB
文件格式:PPT
更新时间:2021-04-26 10:17:39
Hadoop Hive Spark Hbase Spark应用程序 在Spark Shell中进行编程主要是方便对代码进行调试,但需要以逐行代码的方式运行。一般情况下,会选择将调试后代码打包成独立的Spark应用程序,提交到Spark中运行。 采用Scala编写的程序需要使用sbt(Simple Build Tool)进行打包,sbt的安装配置步骤如下: 下载sbt-launch.jar(下载地址 http://pan.baidu.com/s/1eRyFddw ) 将下载后的文件拷贝至安装目录/usr/local/sbt中,命令如下: 在安装目录中创建一个Shell脚本文件(文件路径:/usr/local/sbt/sbt)用于启动sbt,脚本文件中的代码如下: 保存后,还需要为该Shell脚本文件增加可执行权限,命令如下: sudo mkdir /usr/local/sbt # 创建安装目录 cp ~/下载/sbt-launch.jar /usr/local/sbt sudo chown -R hadoop /usr/local/sbt #此处的hadoop为系统当前用户名 #!/bin/bash SBT_OPTS="-Xms512M -Xmx1536M -Xss1M -XX:+CMSClassUnloadingEnabled -XX:MaxPermSize=256M" java $SBT_OPTS -jar `dirname $0`/sbt-launch.jar "$@" chmod u+x /usr/local/sbt/sbt

网友评论