k_means_clustering:使用Spark使用K-Means算法进行聚类

时间:2024-03-09 01:17:15
【文件属性】:

文件名称:k_means_clustering:使用Spark使用K-Means算法进行聚类

文件大小:936KB

文件格式:ZIP

更新时间:2024-03-09 01:17:15

Python

使用Spark与K-Means聚类 马其顿大学希腊大数据课程团队项目 在包含5维空间的坐标的数据集中找到K均值。 使用Apache Spark,其中构建了一个节点集群以计算k均值。 该过程运行了多次,其中每个群集中的节点数均不同。 最后,将每次执行的时间记录下来,并打印到图表中进行分析和比较。 成员: George Michoulis-第16067页/ Nikolaos Stefanidis-第16054页/ Dimitris Tourgaidis-第16057页/ Kwstas Tsiwlis-第16060页<<<<<<< HEAD ======= 1986dd1a9e7679fe502c81b3d536e65c45ccdbf8


【文件预览】:
k_means_clustering-master
----commands.txt(1KB)
----finding_K.txt(4KB)
----results.pdf(965KB)
----kmeans.py(1KB)
----README.md(714B)
----K5cluster.txt(11KB)

网友评论