从.net parallel角度解读spark

时间:2021-06-24 08:34:56

对于我这样一个一直工作在.net平台上的developer来讲,Hadoop,Spark,HBase等这些大数据名词比较陌生,对于分布式计算,.net上也有类似的Parallel(我说的不是HDInsight), 这篇文章是我尝试从.net上的Parallel类库的角度去讲述什么是spark。

我们先从C#的一个烂大街的例子(不是Helloworld),统计一篇文章单词出现的频率。

下面C#代码是利用.net Parallel来写的统计单词出现频率。

 using System;
using System.Collections.Generic;
using System.Linq;
using System.Text;
using System.Threading.Tasks; namespace WordCountDemo
{
using System.IO;
using System.Threading;
class Program
{
/// <summary>
/// 我们以计算一篇文章中单词的个数为例子
/// (计算文章单词个数的demo简直就是各种大数据计算的HelloWorld)。
///
/// WordCountFlow是数单词程序
/// WordCountDetail对WordCountFlow函数每一行进行拆解并做了详细解释。
/// </summary>
/// <param name="args"></param>
static void Main(string[] args)
{
string filePath = @"D:\BigDataSoftware\spark-2.1.0-bin-hadoop2.7\README.md"; WordCountFlow(filePath);
Console.WriteLine("----------------------");
WordCountDetail(filePath);
} /// <summary>
/// 数单词的程序流程
/// </summary>
/// <param name="filePath"></param>
static void WordCountFlow(string filePath)
{
File.ReadAllLines(filePath).AsParallel()
.SelectMany(t => t.Split(' '))
.Select(t => new { word = t, tag = })
.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Select(p => p.tag).Aggregate((a, b) => a + b) })
// 如果对Aggregate函数不熟悉,上面代码等同于下行
//.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Sum(p => p.tag) });
.ForAll(t => Console.WriteLine($"ParationId:{Thread.CurrentThread.ManagedThreadId} ({t.word}-{t.count})"));
} /// <summary>
/// 数单词程序流程的详细解释
/// </summary>
/// <param name="filePath"></param>
static void WordCountDetail(string filePath)
{
// 读取整篇文章,文章每一行将作为一个string存储到数组lines
string[] lines = File.ReadAllLines(filePath);
// AsParallel()是Parallel类库的核心方法,具体的意思是将string[] lines这个数组分割成几个分区(Partition)。
// 假设这篇文章有500行,那么这个方法会会把string[500]-lines分解成 (string[120] partitionA),
// (string[180] partitionB), (string[150] partitionC),(...) 等几个Partition
// .net runtime将当前程序的负载(主要是cpu使用情况)情况为依据的分区算法来确定到底要分成几个Partition,
// 我们可以大概认为cpu有几个逻辑核(不准确),就会被分解成几个Partition。
// 后续的计算中.net runtime将会针对每一个partition申请一个单独的线程来处理.
// 比如:partitionA由001号线程处理,partitionB由002号线程处理。。。
ParallelQuery<string> parallelLines = lines.AsParallel();
// linesA,linesB,linesC...数组中存储的每一行根据空格分割成单词,结果仍然是存放在ParallelQuery<string>这种分块的结构中
// 下面带有****的注释,如果对函数式编程没有了解,可以直接忽略。
// ****如果对函数式编程有所了解,会知道lambda天生lazy的,如果下面这行代码打个断点,当debug到这行代码的时候,
// ****鼠标移动到parallelWords上时,我们不会看到每一个单词,
// ****runtime并没有真正将每一行分解成单词,这行代码仅仅是一种计算逻辑。
ParallelQuery<string> parallelWords = parallelLines.SelectMany(t => t.Split(' '));
// 将每一个单子加上标记1,这行代码返回的类型为ParallelQuery<var>,var为runtime自动判断,此处var的类型的实际应该为
// class 匿名类型
// {
// public word {get;set;}
// public tag {get;set}
//}
var wordparis = parallelWords.Select(t => new { word = t, tag = });
// 根据单词进行分组,同一个分组中的单词个数求和,类似于如下sql select word,count(tag) from wordparis group by word
// 注意,此处同样的单词可能分布在不同的分区中,比如英语中常见的"the",可能partitionA中有3个"the",partitionB中有2个“the",
// 但是partitionA和partitionB分别被不同的线程处理,如果runtime足够聪明的话,他应该先计算partitionA的the的个数(the,3),
// 然后计算partitionB的the的个数(the,2),最后将整个partition合并并且重新分割(shuffle),在做后续的计算
// shuffle后partition的分区和之前partition里面的数据会不同。
// 此处wordcountParis的类型为
// class 匿名类型
// {
// public word {get;set;}
// public count {get;set}
//}
var wordcountParis = wordparis.GroupBy(t => t.word).Select(t => new { word = t.Key, count = t.Select(p => p.tag).Aggregate((a, b) => a + b) });
// 打印结果。由于线程执行的乱序,可以看到输出的partitionId也是乱序。
wordcountParis.ForAll(t => Console.WriteLine($"ParationId:{Thread.CurrentThread.ManagedThreadId} ({t.word}-{t.count})"));
}
}
}

  程序运行结果

  从.net parallel角度解读spark

  通过上面的c#的例子,我们看到parallel如何将一篇文章分解成多个Partition来并且在不同Partition上进行并行计算的,在计算过程中,可能需要"shuffle",需要对原来的Partition进行重新洗牌。

  我们假设,如果这个程序运行在集群上,这些Partition分布在不同的机器上,这样就可以利用多台机器的力量而非一台机器多个线程的力量去做计算了,yeah!,你猜对了,这就是spark,下面的scala的wordCountFlow函数是在spark上统计单词出现频率的函数,与c#的WordCountFlow一样,也是五行代码,并且这五行代码的逻辑也完全相同。只不过spark将数据分布在不同的机器上,并且让机器进行计算,当然,如你所想,某些情况下需要shuffle,不同机器上的数据将会被汇聚并重新分割成新的分区。虽然Spark中的partition和net parallel中的partition并不完全对应(spark中的一台机器上可能有多个paratition) ,shuffle也是spark的专用词汇,但基本的原理是类似的。

package wordCountExample

import org.apache.spark.{SparkConf, SparkContext, TaskContext}

/**
* Created by StevenChennet on 2017/3/10.
*/
object WordCount {
def main(args: Array[String]): Unit = {
// 文件路径
val filePath="D:\\BigDataSoftware\\spark-2.1.0-bin-hadoop2.7\\README.md" wordCountFlow(filePath)
}
def wordCountFlow(filePath:String ):Unit={
// sparkContext对象使用一个SparkConf对象来构造
// SparkConf主要进行一些设置,比如说local【*】表示尽量开启更多线程并行处理
// SparkContext是spark执行任务的核心对象
// 下面五行代码与C#的WordCountFlow五行代码一一对应
new SparkContext(new SparkConf().setAppName("WordCount").setMaster("local[*]")).textFile(filePath)
.flatMap(_.split(" "))
.map((_,1))
.reduceByKey(_+_)
.foreach(t=>println( s"Partition: ${ TaskContext.getPartitionId() } (${t._1}}-${t._2}})"))
}
}

  据友情提醒,上面的Scala代码的lambda太难看了,我转换一下方式

  

new SparkContext(new SparkConf().setAppName("WordCount").setMaster("local[*]")).textFile(filePath)
.flatMap(line=>line.split(" "))
.map(word=>(word,1))
.reduceByKey((a,b)=>a+b)
.foreach(t=>println( s"Partition: ${ TaskContext.getPartitionId() } (${t._1}}-${t._2}})"))
}

  

  程序运行结果

  从.net parallel角度解读spark

  在net parallel中,如果某个线程在计算过程中崩溃了,那可能导致整个程序都crash掉,如果是集群运算,因为一台宕机而让整个集群崩溃可不是一个好决策,spark可以在计算之前先对要计算的内容持久化,如果一台机器crash,可以将这台机器的计算任务拉到另外一台机器上进行重新计算。