【文件属性】:
文件名称:terraform-module-azure-datalake:用于Azure数据湖的Terraform模块
文件大小:49KB
文件格式:ZIP
更新时间:2021-02-01 19:20:11
azure terraform data-lake AzureHCL
Terraform模块Azure数据湖
这是用于Terraform的模块,该模块在Microsoft Azure上部署了完整且可靠的数据湖网络。
组件
Azure数据工厂,用于从各种来源提取数据
Azure Data Lake Storage gen2容器存储数据Lake层的数据
Azure Databricks清理和转换数据
Azure Synapse Analytics存储演示数据
Azure CosmosDB存储元数据
凭据和访问管理已配置就绪
此设计基于Microsoft的一种解决方案的体系结构模式。
它包括数据建议的一些其他更改。
多个存储容器来存储数据的每个版本
Cosmos DB用于将数据的元数据存储为数据目录
现在不使用Azure Analysis Services,因为当变为GA时可能会替换某些服务
用法
module " azuredatalake " {
source = " datarootsio/azure-datalake/module "
version = " ~> 0.1 "
data_lake_name = " example na
【文件预览】:
terraform-module-azure-datalake-master
----cosmosdb.tf(1KB)
----versions.tf(600B)
----storage.tf(3KB)
----outputs.tf(1KB)
----CONFIGURATION.md(3KB)
----.github()
--------workflows()
--------CODEOWNERS(27B)
----test()
--------terraform_apply_destroy_test.go(2KB)
--------module_test()
----data_factory.tf(3KB)
----LICENSE.md(1KB)
----.gitignore(4KB)
----synapse_analytics.tf(1KB)
----Makefile(432B)
----go.sum(59KB)
----databricks.tf(4KB)
----README.md(4KB)
----locals.tf(1KB)
----files()
--------sa_acl.sh(207B)
--------lsdbks.json(2KB)
--------sa_directories.sh(616B)
--------destroy_resource.sh(280B)
----key_vault.tf(1KB)
----main.tf(311B)
----logs.tf(901B)
----go.mod(271B)
----variables.tf(9KB)