spark-apriori:使用 Spark 实现 Apriori 算法

时间:2024-08-03 14:32:11
【文件属性】:

文件名称:spark-apriori:使用 Spark 实现 Apriori 算法

文件大小:7KB

文件格式:ZIP

更新时间:2024-08-03 14:32:11

Scala

火花先验 使用 Spark 的蛮力 Apriori 算法实现。 该算法不继续建立关联规则。 用法 输入最大 minsup 输出分区 spark-submit \ --class "com.jgalilee.spark.apriori.JobDriver" \ --master local[4] \ ./target/scala-2.10/spark-apriori_2.10-1.0.jar \ input/transactions.txt \ 10 \ 3 \ output \ 3 input - 输入交易数据的路径。 max - 要运行的最大迭代次数。 minsup - 被视为频繁项集的最小支持度候选项集。 output - 为迭代 n 写入输出的路径 - 即 output/n partitions - 用于事务数据集的分区数。 假设 输入数据被


【文件预览】:
spark-apriori-master
----.gitignore(25B)
----src()
--------main()
----README.md(2KB)
----run.sh(228B)
----input()
--------transactions.txt(45B)
----build.sbt(205B)

网友评论