文件名称:sparksql-model-solr-poc:POC在Solr中存储机器学习模型
文件大小:101KB
文件格式:ZIP
更新时间:2024-06-05 02:30:24
Java
sparksql模型solr-poc POC在Solr中存储机器学习模型 在hadoop生态系统的大多数技术部分(例如hive,spark等)中,推荐的存储机器学习模型的格式是木地板格式(由ASF开发)。 此POC试图在Solr中读取,解析并存储实木复合地板模型,然后再次读取以进行预测。 Spark SQL已经提供了将镶木地板文件转换为DataFrame的机制。 特征: 将Spark数据帧发送到Solr 将数据帧从Solr读回Spark 先决条件: 安装火花。 [下载链接: : ] 程序: 将项目克隆到本地仓库中。 Git克隆 使用样本数据测试了三种测试机器学习算法。 这些类是DecisionTreeTest.java,MultinomialLogistic.java和NaiveBayesTest.java a)所有这三个类都有硬编码的输入文件路径。 更改变量“
【文件预览】:
sparksql-model-solr-poc-master
----pom.xml(3KB)
----target()
--------maven-status()
--------ml1-1.0.jar(35KB)
--------classes()
--------maven-archiver()
----.DS_Store(6KB)
----src()
--------main()
----.idea()
--------uiDesigner.xml(9KB)
--------scopes()
--------misc.xml(8KB)
--------vcs.xml(164B)
--------.name(3B)
--------copyright()
--------modules.xml(246B)
--------encodings.xml(164B)
--------compiler.xml(1KB)
--------workspace.xml(51KB)
----ml1.iml(2KB)
----README.md(3KB)