ETL是数仓库中的非常重要的一环,是承前启后的必要的一步。ETL负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理、数据挖掘的基础。下面给大家介绍一下什么是ETL以及ETL常用的三种工具(Datastage,Informatica,Kettle)!
1.ETL是什么?
ETL,是英文Extract-Transform-Load的缩写,用来描述将数据从来源端经过抽取(extract)、转换(transform)、加载(load)至目的端的过程。(数据仓库结构)通俗的说法就是从数据源抽取数据出来,进行清洗加工转换,然后加载到定义好的数据仓库模型中去。目的是将企业中的分散、零乱、标准不统一的数据整合到一起,为企业的决策提供分析依据。ETL是BI项目重要的一个环节,其设计的好坏影响生成数据的质量,直接关系到BI项目的成败。
2.为什么要用ETL工具?
当数据来自不同的物理机主,这时候如使用SQL语句去处理的话,就显得比较吃力且开销也更大。
数据来源可以是各种不同的数据库或者文件,这时候需要先把他们整理成统一的格式后才可以进行数据的处理,这一过程用代码实现显然有些麻烦。
在数据库中我们当然可以使用存储过程去处理数据,但是处理海量数据的时候存储过程显然比较吃力,而且会占用较多数据库的资源,这可能会导致数据资源不足,进而影响数据库的性能。
上面所说的问题,我们用ETL工具就可以解决。它的优点有:
支持多种异构数据源的连接(部分);
图形化的界面操作十分方便;
处理海量数据速度快、流程更清晰等。
3.ETL工具介绍
Informactica和Datastage占据国内市场的大部分的份额。
4.ETL工具差异
Kettle,Datastage,Informatica三个ETL工具的特点和差异介绍:
操作:
都是属于比较简单易用,主要是开发人员对于工具的熟练程度。Informatica有四个开发管理组,开发的时候我们需要打开其中三个进行开发,Informatica没有ctrl+z的功能,如果对job作了改变之后,想要撤回,返回到改变之前是不可能的。相比Kettle跟Datastage在测试调试的时候不太方便。Datastage全部的操作在同一个界面中,不用切换界面,能够看到数据的来源,整个job的情况,在找bug的时候会比Informatica方便。Kettle介于两者之间。
部署
Kettle只需要JVM环境,Informatica需要服务器和客户端安装,而Datastage的部署比较耗费时间,有一点难度。
数据处理的速度
大数据量下Informatica与Datastage的处理速度是比较快的,比较稳定。Kettle的处理速度相比之下稍慢。
服务
Informatica与Datastage有很好的商业化的技术支持,而 Kettle则没有。商业软件的售后服务上会比免费的开源软件好很多。
风险
风险与成本成反比,也与技术能力成正比。
扩展
Kettle的扩展性无疑是最好,因为是开源代码,可以自己开发拓展它的功能,而Informatica和Datastage由于是商业软件,基本上没有。
Job的监控
三者都有监控和日志工具,在数据的监控上,个人觉得Datastage的实时监控做的更加好,可以直观看到数据抽取的情况,运行到哪一个控件上。这对于调优来说,我们可以更快的定位到处理速度太慢的控件并进行处理,而informatica也有相应的功能,但是并不直观,需要通过两个界面的对比才可以定位到处理速度缓慢的控件。有时候还需要通过一些方法去查找。
网上的技术文档
Datastage<Informatica<kettle相对来说,Datastage跟 nformatica在遇到问题去网上找到解决方法的概率比较低,kettle则比较多。