hadoop-hive-spark-docker:基本的Docker映像仅包含基本要素

时间:2024-06-13 00:20:07
【文件属性】:

文件名称:hadoop-hive-spark-docker:基本的Docker映像仅包含基本要素

文件大小:14KB

文件格式:ZIP

更新时间:2024-06-13 00:20:07

Dockerfile

大数据游乐场:Hadoop + Hive + Spark 基本的Docker映像仅具有基本要素:Hadoop,Hive和Spark。 软件 完全分布式(多节点)模式下的 将HiveServer2暴露给主机的 。 YARN模式下的 (Spark Scala,PySpark和SparkR) 用法 看看,看看我如何将其用作Docker Compose集群的一部分。 Hive JDBC端口向主机公开: URI: jdbc:hive2://localhost:10000 驱动程序: org.apache.hive.jdbc.HiveDriver (org.apache.hive:hive-jdbc:3.1.2) 用户名和密码:未使用。 版本兼容性说明 由于Guava版本不匹配,Hadoop 3.2.1和Hive 3.1.2不兼容(Hadoop:Guava 27.0,Hive:Guava


【文件预览】:
hadoop-hive-spark-docker-master
----conf()
--------hive()
--------hadoop()
--------spark()
----Dockerfile(6KB)
----scripts()
--------watchdir.c(5KB)
--------parallel_commands.sh(243B)
----LICENSE(1KB)
----README.md(2KB)
----.gitignore(57B)
----entrypoint.sh(2KB)

网友评论