catalog:通过'sparklyr'访问Spark Catalog API

时间:2021-03-20 10:02:16
【文件属性】:
文件名称:catalog:通过'sparklyr'访问Spark Catalog API
文件大小:32KB
文件格式:ZIP
更新时间:2021-03-20 10:02:16
r spark rstats sparklyr sparklyr-extension {目录} 概述 {catalog}使用户可以使用 API来访问Spark API。目录是用于管理关系实体(例如,数据库,表,函数,表列和临时视图)的元存储(也称为元数据目录)的接口。 安装 您可以安装: 来自的开发版本 # install.packages("remotes") remotes :: install_github( " nathaneastwood/catalog " ) 用法 {catalog}提供与Catalog API匹配的API,并提供对所有方法的完全访问权限。下面是其中一些功能的小示例。 sc <- sparklyr :: spark_connect( master = " local " ) mtcars_spark <- sparklyr :: copy_to( dest = sc , df = mtcars ) library( catalog ) li
【文件预览】:
catalog-main
----_pkgdown.yml(933B)
----.github()
--------contributing.md(2KB)
--------FUNDING.yml(25B)
--------ISSUE_TEMPLATE()
--------.gitignore(7B)
--------pull_request_template.md(1KB)
--------workflows()
----NAMESPACE(676B)
----NEWS.md(715B)
----DESCRIPTION(995B)
----inst()
--------tinytest()
----R()
--------database.R(3KB)
--------columns.R(1KB)
--------functions.R(4KB)
--------tables.R(9KB)
--------tempview.R(1KB)
--------utils.R(240B)
--------catalog.R(743B)
----.Rbuildignore(328B)
----.lintr(69B)
----README.md(3KB)
----man()
--------get_function.Rd(995B)
--------function_exists.Rd(1KB)
--------list_columns.Rd(1KB)
--------list_tables.Rd(1KB)
--------cache_table.Rd(2KB)
--------create_table.Rd(1KB)
--------refresh.Rd(2KB)
--------list_functions.Rd(1KB)
--------current_database.Rd(828B)
--------drop_global_temp_view.Rd(1KB)
--------database_exists.Rd(969B)
--------get_table.Rd(979B)
--------set_current_database.Rd(772B)
--------table_exists.Rd(1KB)
--------list_databases.Rd(895B)
----tests()
--------tinytest.R(90B)
----.gitignore(202B)
----README.Rmd(2KB)

网友评论