Hadoop记录-Linux Service

时间:2021-10-03 22:45:39
[Unit]
Description=Datanode
After=syslog.target network.target auditd.service sshd.service datanode_precheck.service
Requires=datanode_precheck.service [Service]
User=hdfs
Group=hdfs
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp ExecStart=/bin/sh -c "exec hadoop-daemon.sh start datanode"
ExecStop=/bin/sh -c "exec hadoop-daemon.sh stop datanode" [Install]
WantedBy=default.target
[Unit]
Description=Nodemanager
After=syslog.target network.target auditd.service sshd.service datanode.service datanode_precheck.service
Requires=datanode_precheck.service [Service]
User=yarn
Group=yarn
Type=forking
Slice=hadoop.slice
LimitNOFILE=524288
Environment=CLASSPATH=/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:.:/app/jdk/jdk1.8.0_92/lib/dt.jar:/app/jdk/jdk1.8.0_92/lib/tools.jar:
Environment=HADOOP_COMMON_HOME=/app/hadoop
Environment=HADOOP_CONF_DIR=/app/hadoop-conf
Environment=HADOOP_HDFS_HOME=/app/hadoop
Environment=HADOOP_HOME=/app/hadoop
Environment=HADOOP_LOG_DIR=/log/hadoop
Environment=HADOOP_MAPRED_HOME=/app/hadoop
Environment=HADOOP_MAPRED_LOG_DIR=/log/yarn
Environment=HADOOP_MAPRED_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_PID_DIR=/app/hadoop/tmp
Environment=HADOOP_YARN_HOME=/app/hadoop
Environment=HIVE_HOME=/app/hive
Environment=JAVA_HOME=/app/jdk/jdk1.8.0_92
Environment=LANG=en_US.UTF-8
Environment=PATH=/app/anaconda2/bin:/app/hive/bin:/app/hadoop/sbin:/app/hadoop/bin:/app/jdk/jdk1.8.0_92/bin:/app/jdk/jdk1.8.0_92/bin:/usr/local/bin:/bin:/usr/bin:/usr/local/sbin:/usr/sbin:/home/yarn/.local/bin:/home/yarn/bin
Environment=USER_PROFILE=/app/pylibs/user-profile/install/lib/python2.7/site-packages
Environment=YARN_CONF_DIR=/app/hadoop-conf
Environment=YARN_LOG_DIR=/log/yarn
Environment=YARN_PID_DIR=/app/hadoop/tmp ExecStart=/bin/sh -c "exec yarn-daemon.sh start nodemanager"
ExecStop=/bin/sh -c "exec yarn-daemon.sh stop nodemanager" [Install]
WantedBy=default.target

Hadoop记录-Linux Service的更多相关文章

  1. 记录Linux下安装elasticSearch时遇到的一些错误

    记录Linux下安装elasticSearch时遇到的一些错误 http://blog.sina.com.cn/s/blog_c90ce4e001032f7w.html (2016-11-02 22: ...

  2. 通过登入IP记录Linux所有用户登录所操作的日志

    通过登入IP记录Linux所有用户登录所操作的日志 对于Linux用户操作记录一般通过命令history来查看历史记录,但是如果在由于误操作而删除了重要的数据的情况下,history命令就不会有什么作 ...

  3. 记录linux tty的一次软锁排查2

    在复现tty的死锁问题的时候,文洋兄使用了如下的方式: #include <fcntl.h> #include <unistd.h> #include <stdio.h& ...

  4. hadoop的Linux操作

    初学hadoop之linux系统操作的hdfs的常用命令 Hadoop之HDFS文件操作 Hadoop fs命令详解 官网doc sudo su - hdfs:免密,以hdfs账户登陆.可操作hdfs ...

  5. 如何记录linux终端下的操作日志

    如何记录linux终端下的操作日志 在linux终端下,为方便检查操作中可能出现的错误,以及避免屏幕滚屏的限制,我们可以把操作日志记录下来.常用的工具有 screen,script,以及tee等,通过 ...

  6. hadoop记录-Hadoop参数汇总

    Hadoop参数汇总 linux参数 以下参数最好优化一下: 文件描述符ulimit -n 用户最大进程 nproc (hbase需要 hbse book) 关闭swap分区 设置合理的预读取缓冲区 ...

  7. Hadoop记录-hdfs转载

    Hadoop 存档 每个文件均按块存储,每个块的元数据存储在namenode的内存中,因此hadoop存储小文件会非常低效.因为大量的小文件会耗尽namenode中的大部分内存.但注意,存储小文件所需 ...

  8. Hadoop记录-日常运维操作

    1.Active NameNode hang死,未自动切换 #登录当前hang死 Active namenode主机,停止Namenode,触发自动切换.hadoop-daemon.sh stop n ...

  9. Hadoop记录-变更

    1.安装salt-minion sed -i 's/^#//g' /etc/yum.repos.d/centos7.4.repo sed -i 's/enabled=0/enabled=1/g' /e ...

随机推荐

  1. docker学习&lpar;6&rpar; docker中搭建java服务及nginx反向代理

    先看下容器规划: 上图中mysql容器的搭建见上篇博客,service1/2为java rest service,创建脚本如下: docker run -d -h service1 \ -v /Use ...

  2. VMware Tools安装小结

    背景介绍:在VMware上装完ArchLinux后,窗口太小,操作不方便.查询后得知VMware Tools没有自动安装,需要手动安装. 官方安装说明:在 Linux 虚拟机中手动安装或升级 VMwa ...

  3. tcpdump捕捉样例

    欢迎和大家交流技术相关问题: 邮箱: jiangxinnju@163.com 博客园地址: http://www.cnblogs.com/jiangxinnju GitHub地址: https://g ...

  4. 动态拼接 sql的时候 里面 如果有变量的话 按上面的方式进行处理

    set @Sql_Sql = N' select top 1 @m_zw=zw,@m_zh=temp from ket where zd=''ddd'' ' print @Sql_Sql EXEC s ...

  5. ortp使用详解1

    一: 关于 oRTP oRTP 是一款开源软件,实现了 RTP 与 RTCP 协议.目前使用 oRTP 库的软件主要是linphone(一款基于IP 进行视频和语音通话的软件). oRTP作为 lin ...

  6. mfc主窗口添加背景图片后,如何实现在背景图片上输出文字

    1.若是文档视图程序的话,在视图类的OnDraw(CDC* pDC)函数中调用pDC->TextOut()函数,就像平常输出文字一样.若是嫌文字的背景颜色破坏了图像,可以在输出文字之前调用pDC ...

  7. Ubuntu下编译Android JNI最靠谱的方法&period;&period;&period;

    网上资料太杂乱,搞了大半天都还是没搞懂怎么系统的调用NDK.最后干脆放弃了Win改用Ubuntu编译JNI,虽然编译环境简单了,但是资料却少了不少.几乎没有一篇完整的文章.我想或许是能在Ubuntu下 ...

  8. Linux下SVN&plus;多个Tomcat自动部署

    项目中都是jsp开发,所以用到Tomcat. 在我文章中也写过多个Tomcat 的部署,具体可以参考:http://www.cnblogs.com/magmell/p/7045193.html SVN ...

  9. centos7&period;3 kubernetes&sol;k8s 1&period;10 离线安装 --已验证

    本文介绍在centos7.3使用kubeadm快速离线安装kubernetes 1.10. 采用单master,单node(可以多node),占用资源较少,方便在笔记本或学习环境快速部署,不适用于生产 ...

  10. python中那些双下划线开头得函数和变量

    Python中下划线---完全解读     Python 用下划线作为变量前缀和后缀指定特殊变量 _xxx 不能用’from module import *’导入 __xxx__ 系统定义名字 __x ...