大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

时间:2022-09-09 20:48:14

一 概述1.1 为什么需要工作流调度系统1.2 常见工作流调度系统1.3 各种调度工具特性对比1.4 Azkaban 与 Oozie 对比二 Azkaban(阿兹卡班) 介绍三 Azkaban 安装部署3.1 安装前准备3.2 安装 azkaban3.2 创建 SSL 配置3.3 时间同步配置3.4 配置文件3.4.1 Web 服务器配置3.4.2 执行服务器配置3.5 启动执行服务器3.6 启动 web 服务器四 Azkaban 实战4.1 Command 类型之单 job 工作流案例4.2 Command 类型之多 job 工作流案例4.3 HDFS 操作任务4.4 MapReduce 任务4.5 HIVE 脚本任务


一 概述

1.1 为什么需要工作流调度系统

1)一个完整的数据分析系统通常都是由大量任务单元组成:
  shell 脚本程序,java 程序,mapreduce 程序、hive 脚本等。
2)各任务单元之间存在时间先后及前后依赖关系。
3)为了很好地组织起这样的复杂执行计划,需要一个工作流调度系统来调度执行。
  例如,我们可能有这样一个需求,某个业务系统每天产生 20G 原始数据,我们每天都要对其进行处理,处理步骤如下所示:
  (1)通过 Hadoop 先将原始数据同步到 HDFS 上;
  (2)借助 MapReduce 计算框架对原始数据进行计算,生成的数据以分区表的形式存储到多张 Hive 表中;
  (3)需要对 Hive 中多个表的数据进行 JOIN 处理,得到一个明细数据 Hive 大表;
  (4)将明细数据进行复杂的统计分析,得到结果报表信息;
  (5)需要将统计分析得到的结果数据同步到业务系统中,供业务调用使用。
如下图所示:

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

1.2 常见工作流调度系统

  1)简单的任务调度:直接使用 linux 的 crontab 来定义。
  2)复杂的任务调度:开发调度平台或使用现成的开源调度系统,比如 Ooize、Azkaban、Cascading、Hamake 等。

1.3 各种调度工具特性对比

  下面的表格对上述四种 hadoop 工作流调度器的关键特性进行了比较,尽管这些工作流调度器能够解决的需求场景基本一致,但在设计理念,目标用户,应用场景等方面还是存在显著的区别,在做技术选型的时候,可以提供参考。

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

1.4 Azkaban 与 Oozie 对比

  对市面上最流行的两种调度器,给出以下详细对比,以供技术选型参考。总体来说,Ooize 相比 Azkaban 是一个重量级的任务调度系统,功能全面,但配置使用也更复杂。如果可以不在意某些功能的缺失,轻量级调度器 Azkaban 是很不错的候选对象。
详情如下:
1)功能
  两者均可以调度 mapreduce,pig,java,脚本工作流任务
  两者均可以定时执行工作流任务
2)工作流定义
  Azkaban 使用 Properties 文件定义工作流
  Oozie 使用 XML 文件定义工作流
3)工作流传参
  Azkaban 支持直接传参,例如${input}
  Oozie 支持参数和 EL 表达式,例如${fs:dirSize(myInputDir)}  
4)定时执行
  Azkaban 的定时执行任务是基于时间的
  Oozie 的定时执行任务基于时间和输入数据
5)资源管理
  Azkaban 有较严格的权限控制,如用户对工作流进行读/写/执行等操作
  Oozie 暂无严格的权限控制
6)工作流执行
  Azkaban 有两种运行模式,分别是 solo server mode(executor server 和 web server 部署在同一台节点)和 multi server mode(executor server 和 web server 可以部署在不同节点)
  Oozi e作为工作流服务器运行,支持多用户和多工作流
7)工作流管理
  Azkaban 支持浏览器以及 ajax 方式操作工作流
  Oozie 支持命令行、HTTP REST、Java API、浏览器操作工作流

二 Azkaban(阿兹卡班) 介绍

  Azkaban 是由 Linkedin 开源的一个批量工作流任务调度器。用于在一个工作流内以一个特定的顺序运行一组工作和流程。Azkaban 定义了一种 KV 文件格式来建立任务之间的依赖关系,并提供一个易于使用的 web 用户界面维护和跟踪你的工作流。
它有如下功能特点:
  1)Web 用户界面
  2)方便上传工作流
  3)方便设置任务之间的关系
  4)调度工作流
  5)认证/授权(权限的工作)
  6)能够杀死并重新启动工作流
  7)模块化和可插拔的插件机制
  8)项目工作区
  9)工作流和任务的日志记录和审计
下载地址:http://azkaban.github.io/downloads.html

三 Azkaban 安装部署

3.1 安装前准备

1)将 Azkaban Web 服务器、Azkaban 执行服务器和 MySQL 拷贝到 hadoop102虚拟机的 /opt/software目录下

azkaban-web-server-2.5.0.tar.gz
azkaban-executor-server-2.5.0.tar.gz
azkaban-sql-script-2.5.0.tar.gz
mysql-libs.zip

2)目前 azkaban 只支持 mysql,需安装 mysql 服务器,本文档中默认已安装好 mysql 服务器,并建立了 root用户,密码 root。

3.2 安装 azkaban

1)在/opt/module/目录下创建 azkaban 目录

[atguigu@hadoop102 module]$ mkdir azkaban

2)解压 azkaban-web-server-2.5.0.tar.gz、azkaban-executor-server-2.5.0.tar.gz、azkaban-sql-script-2.5.0.tar.gz 到 /opt/module/azkaban 目录下

[atguigu@hadoop102 software]$ tar -zxvf azkaban-web-server-2.5.0.tar.gz -C /opt/module/azkaban/
[atguigu@hadoop102 software]$ tar -zxvf azkaban-executor-server-2.5.0.tar.gz -C /opt/module/azkaban/
[atguigu@hadoop102 software]$ tar -zxvf azkaban-sql-script-2.5.0.tar.gz -C /opt/module/azkaban/

3)对解压后的文件重新命名

[atguigu@hadoop102 azkaban]$ mv azkaban-web-2.5.0/ server
[atguigu@hadoop102 azkaban]$ mv azkaban-executor-2.5.0/ executor

4)azkaban 脚本导入
进入 mysql,创建 azkaban 数据库,并将解压的脚本导入到 azkaban 数据库。

[atguigu@hadoop102 azkaban]$ mysql -uroot -p123456
mysql> create database azkaban;
mysql> use azkaban;
mysql> source /opt/module/azkaban/azkaban-2.5.0/create-all-sql-2.5.0.sql

:source 后跟 .sql 文件,用于批量处理 .sql 文件中的sql 语句。

3.2 创建 SSL 配置

参考地址: http://docs.codehaus.org/display/JETTY/How+to+configure+SSL
Keytool 是 java 数据证书的管理工具,使用户能够管理自己的公/私钥对及相关证书。
  -keystore 指定密钥库的名称及位置(产生的各类信息将不在 .keystore 文件中)
  -genkey 在用户主目录中创建一个默认文件 ".keystore"
  -alias 对我们生成的 .keystore 进行指认别名;如果没有默认是 mykey
  -keyalg 指定密钥的算法 RSA/DSA 默认是 DSA
1)生成 keystore 的密码及相应信息的密钥库

[atguigu@hadoop102 hadoop-2.7.2]$ keytool -keystore keystore -alias jetty -genkey -keyalg RSA

输入 keystore 密码:123456
再次输入新密码: 123456
您的名字与姓氏是什么?
  [Unknown]: 
您的组织单位名称是什么?
  [Unknown]: 
您的组织名称是什么?
  [Unknown]: 
您所在的城市或区域名称是什么?
  [Unknown]: 
您所在的州或省份名称是什么?
  [Unknown]: 
该单位的两字母国家代码是什么
  [Unknown]:  CN
CN=Unknown, OU=Unknown, O=Unknown, L=Unknown, ST=Unknown, C=CN 正确吗?
  [否]:  y 输入<jetty>的主密码
        (如果和 keystore 密码相同,按回车): 
再次输入新密码:

注意:密钥库的密码至少必须 6 个字符,可以是纯数字或者字母或者数字和字母的组合等等,密钥库的密码最好和 jetty 的密钥相同,方便记忆。

2)将 keystore 拷贝到 azkaban web 服务器根目录中

[atguigu@hadoop102 hadoop-2.7.2]$ mv keystore /opt/module/azkaban/server/

3.3 时间同步配置

先配置好服务器节点上的时区
1)如果在 /usr/share/zoneinfo/ 这个目录下不存在时区配置文件 Asia/Shanghai,就要用 tzselect 生成。

[atguigu@hadoop102 Asia]$ tzselect
Please identify a location so that time zone rules can be set correctly.
Please select a continent or ocean.
 1) Africa
 2) Americas
 3) Antarctica
 4) Arctic Ocean
 5) Asia
 6) Atlantic Ocean
 7) Australia
 8) Europe
 9) Indian Ocean
10) Pacific Ocean
11) none - I want to specify the time zone using the Posix TZ format.
#? 5
Please select a country.
 1) Afghanistan          18) Israel            35) Palestine
 2) Armenia          19) Japan         36) Philippines
 3) Azerbaijan          20) Jordan            37) Qatar
 4) Bahrain          21) Kazakhstan        38) Russia
 5) Bangladesh          22) Korea (North)     39) Saudi Arabia
 6) Bhutan          23) Korea (South)     40) Singapore
 7) Brunei          24) Kuwait            41) Sri Lanka
 8) Cambodia          25) Kyrgyzstan        42) Syria
 9) China          26) Laos          43) *
10) Cyprus          27) Lebanon           44) Tajikistan
11) East Timor          28) Macau         45) Thailand
12) Georgia          29) Malaysia          46) Turkmenistan
13) Hong Kong          30) *          47) United Arab Emirates
14) India          31) Myanmar (Burma)       48) Uzbekistan
15) Indonesia          32) Nepal         49) Vietnam
16) Iran          33) Oman          50) Yemen
17) Iraq          34) Pakistan
#? 9
Please select one of the following time zone regions.
1) Beijing Time
2) * Time
#? 1
The following information has been given:
    China
    Beijing Time
Therefore TZ='Asia/Shanghai' will be used.
Local time is now:    Wed Jun 14 09:16:46 CST 2017.
Universal Time is now:    Wed Jun 14 01:16:46 UTC 2017.
Is the above information OK?
1) Yes
2) No
#? 1

2)拷贝该时区文件,覆盖系统本地时区配置

cp /usr/share/zoneinfo/Asia/Shanghai /etc/localtime 

3)集群时间同步

sudo date -s ‘2017-06-14 09:23:45’
hwclock -w

3.4 配置文件

3.4.1 Web 服务器配置

1)进入 azkaban web 服务器安装目录 conf 目录,打开 azkaban.properties 文件

[atguigu@hadoop102 conf]$ pwd
/opt/module/azkaban/server/conf
[atguigu@hadoop102 conf]$ vim azkaban.properties

2)按照如下配置修改 azkaban.properties 文件。

#Azkaban Personalization Settings
#服务器 UI 名称,用于服务器上方显示的名字
azkaban.name=Test
#描述
azkaban.label=My Local Azkaban
#UI 颜色
azkaban.color=#FF3601
azkaban.default.servlet.path=/index
#默认 web server 存放 web 文件的目录
web.resource.dir=/opt/module/azkaban/server/web/
#默认时区,已改为亚洲/上海,默认为美国/洛杉矶
default.timezone.id=Asia/Shanghai #Azkaban UserManager class
user.manager.class=azkaban.user.XmlUserManager
#用户权限管理默认类(绝对路径)
user.manager.xml.file=/opt/module/azkaban/server/conf/azkaban-users.xml #Loader for projects
#global 配置文件所在位置(绝对路径)
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects #数据库类型
database.type=mysql
#端口号
mysql.port=3306
#数据库连接 IP
mysql.host=hadoop102
#数据库实例名
mysql.database=azkaban
#数据库用户名
mysql.user=root
#数据库密码
mysql.password=123456
#最大连接数
mysql.numconnections=100 # Velocity dev mode
velocity.dev.mode=false # Azkaban Jetty server properties.
# Jetty 服务器属性
#最大线程数
jetty.maxThreads=25
#Jetty SSL 端口
jetty.ssl.port=8443
#Jetty 端口
jetty.port=8081
#SSL 文件名(绝对路径)
jetty.keystore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.password=123456
#Jetty 主密码与 keystore 文件相同
jetty.keypassword=123456
#SSL 文件名(绝对路径)
jetty.truststore=/opt/module/azkaban/server/keystore
#SSL 文件密码
jetty.trustpassword=123456 # Azkaban Executor settings
executor.port=12321 # mail settings
mail.sender=
mail.host=
job.failure.email=
job.success.email= lockdown.create.projects=false cache.directory=cache

2)web 服务器用户配置
在 azkaban web 服务器安装目录 conf 目录,按照如下配置修改 azkaban-users.xml 文件,增加管理员用户。

<azkaban-users>
    <user username="azkaban" password="azkaban" roles="admin" groups="azkaban" />
    <user username="metrics" password="metrics" roles="metrics"/>
    <user username="admin" password="admin" roles="admin" />
    <role name="admin" permissions="ADMIN" />
    <role name="metrics" permissions="METRICS"/>
</azkaban-users>

3.4.2 执行服务器配置

1)进入执行服务器安装目录 conf,打开 azkaban.properties

[atguigu@hadoop102 conf]$ pwd
/opt/module/azkaban/executor/conf
[atguigu@hadoop102 conf]$ vim azkaban.properties

2)按照如下配置修改 azkaban.properties 文件。

#Azkaban
#时区
default.timezone.id=Asia/Shanghai # Azkaban JobTypes Plugins
#jobtype 插件所在位置
azkaban.jobtype.plugin.dir=plugins/jobtypes #Loader for projects
executor.global.properties=/opt/module/azkaban/executor/conf/global.properties
azkaban.project.dir=projects database.type=mysql
mysql.port=3306
mysql.host=hadoop102
mysql.database=azkaban
mysql.user=root
mysql.password=123456
mysql.numconnections=100 # Azkaban Executor settings
#最大线程数
executor.maxThreads=50
#端口号(如修改,请与 web 服务中一致)
executor.port=12321
#线程数
executor.flow.threads=30

3.5 启动执行服务器

在执行服务器目录下执行启动命令

[atguigu@hadoop102 executor]$ pwd
/opt/module/azkaban/executor
[atguigu@hadoop102 executor]$ bin/azkaban-executor-start.sh

3.6 启动 web 服务器

在 azkaban web 服务器目录下执行启动命令

[atguigu@hadoop102 server]$ pwd
/opt/module/azkaban/server
[atguigu@hadoop102 server]$ bin/azkaban-web-start.sh

注意:先执行 executor,再执行 web,避免 Web Server 会因为找不到执行器启动失败。
jps 查看进程

[atguigu@hadoop102 server]$ jps
3601 AzkabanExecutorServer
5880 Jps
3661 AzkabanWebServer

启动完成后,在浏览器(建议使用谷歌浏览器)中输入:
https://服务器IP地址:8443,即可访问 azkaban 服务了。
在登录中输入刚才新的户用名及密码,点击 login。

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
登录之后的页面
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
注意:访问的协议必须是 https,http 协议访问不了。

四 Azkaban 实战

Azkaba 内置的任务类型支持 command、java。

4.1 Command 类型之单 job 工作流案例

1)创建 job 描述文件

vim command.job

#command.job
type=command                                                    
command=echo 'hello'

2)将 job 资源文件打包成zip文件

3)通过 azkaban 的 web 管理平台创建 project 并上传 job 压缩包
首先创建 project

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
上传 zip 包
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

4)启动执行该 job

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

4.2 Command 类型之多 job 工作流案例

1)创建有依赖关系的多个 job 描述
第一个 job:foo.job

# foo.job
type=command
command=echo foo

第二个job:bar.job 依赖 foo.job

# bar.job
type=command
dependencies=foo
command=echo bar

2)将所有 job 资源文件打到一个 zip 包中

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
3)创建工程
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
3)在 azkaban 的 web 管理界面创建工程并上传 zip 包
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
4)启动工作流 flow
(1)
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
(2)
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
(3)
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
5)查看结果
大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战

4.3 HDFS 操作任务

1)创建 job 描述文件

# fs.job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop fs -mkdir /azkaban

2)将 job 资源文件打包成 zip 文件

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
3)通过 azkaban 的 web 管理平台创建 project 并上传 job 压缩包
4)启动执行该 job
5)查看结果

4.4 MapReduce 任务

Mr 任务依然可以使用 command 的 job 类型来执行
1)创建 job 描述文件,及 mr 程序 jar 包(示例中直接使用 hadoop 自带的 example jar)

# mrwc.job
type=command
command=/opt/module/hadoop-2.7.2/bin/hadoop jar hadoop-mapreduce-examples-2.7.2.jar wordcount /wordcount/input /wordcount/output

2)将所有 job 资源文件打到一个 zip 包中

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战
3)在 azkaban 的 web 管理界面创建工程并上传 zip 包
4)启动 job

4.5 HIVE 脚本任务

1)创建 job 描述文件和 hive 脚本
(1)Hive脚本: test.sql

use default;
drop table aztest;
create table aztest(id int, name string) 
row format delimited fields terminated by ',';
load data inpath '/aztest/hiveinput' into table aztest;
create table azres as select * from aztest;
insert overwrite directory '/aztest/hiveoutput' select count(1) from aztest; 

(2)Job描述文件:hivef.job

# hivef.job
type=command
command=/opt/module/hive/bin/hive -f 'test.sql'

2)将所有 job 资源文件打到一个 zip 包中
3)在 azkaban 的 web 管理界面创建工程并上传 zip 包
4)启动 job

大数据技术之_13_Azkaban学习_Azkaban(阿兹卡班)介绍 + Azkaban 安装部署 + Azkaban 实战的更多相关文章

  1. 大数据技术之&lowbar;16&lowbar;Scala学习&lowbar;01&lowbar;Scala 语言概述

    第一章 Scala 语言概述1.1 why is Scala 语言?1.2 Scala 语言诞生小故事1.3 Scala 和 Java 以及 jvm 的关系分析图1.4 Scala 语言的特点1.5 ...

  2. 大数据技术之&lowbar;09&lowbar;Flume学习&lowbar;Flume概述&plus;Flume快速入门&plus;Flume企业开发案例&plus;Flume监控之Ganglia&plus;Flume高级之自定义MySQLSource&plus;Flume企业真实面试题(重点)

    第1章 Flume概述1.1 Flume定义1.2 Flume组成架构1.2.1 Agent1.2.2 Source1.2.3 Channel1.2.4 Sink1.2.5 Event1.3 Flum ...

  3. 大数据技术之&lowbar;16&lowbar;Scala学习&lowbar;04&lowbar;函数式编程-基础&plus;面向对象编程-基础

    第五章 函数式编程-基础5.1 函数式编程内容说明5.1.1 函数式编程内容5.1.2 函数式编程授课顺序5.2 函数式编程介绍5.2.1 几个概念的说明5.2.2 方法.函数.函数式编程和面向对象编 ...

  4. 大数据技术之&lowbar;19&lowbar;Spark学习&lowbar;01&lowbar;Spark 基础解析 &plus; Spark 概述 &plus; Spark 集群安装 &plus; 执行 Spark 程序

    第1章 Spark 概述1.1 什么是 Spark1.2 Spark 特点1.3 Spark 的用户和用途第2章 Spark 集群安装2.1 集群角色2.2 机器准备2.3 下载 Spark 安装包2 ...

  5. 大数据技术之&lowbar;16&lowbar;Scala学习&lowbar;08&lowbar;数据结构&lpar;下&rpar;-集合操作&plus;模式匹配

    第十一章 数据结构(下)-集合操作11.1 集合元素的映射-map11.1.1 map 映射函数的操作11.1.2 高阶函数基本使用案例1+案例211.1.3 使用 map 映射函数来解决11.1.4 ...

  6. 大数据技术之&lowbar;19&lowbar;Spark学习&lowbar;04&lowbar;Spark Streaming 应用解析 &plus; Spark Streaming 概述、运行、解析 &plus; DStream 的输入、转换、输出 &plus; 优化

    第1章 Spark Streaming 概述1.1 什么是 Spark Streaming1.2 为什么要学习 Spark Streaming1.3 Spark 与 Storm 的对比第2章 运行 S ...

  7. 大数据技术之&lowbar;08&lowbar;Hive学习&lowbar;04&lowbar;压缩和存储(Hive高级)&plus; 企业级调优(Hive优化)

    第8章 压缩和存储(Hive高级)8.1 Hadoop源码编译支持Snappy压缩8.1.1 资源准备8.1.2 jar包安装8.1.3 编译源码8.2 Hadoop压缩配置8.2.1 MR支持的压缩 ...

  8. 大数据技术之&lowbar;16&lowbar;Scala学习&lowbar;07&lowbar;数据结构&lpar;上&rpar;-集合

    第十章 数据结构(上)-集合10.1 数据结构特点10.1.1 Scala 集合基本介绍10.1.2 可变集合和不可变集合举例10.2 Scala 不可变集合继承层次一览图10.2.1 图10.2.2 ...

  9. 大数据技术之&lowbar;19&lowbar;Spark学习&lowbar;03&lowbar;Spark SQL 应用解析 &plus; Spark SQL 概述、解析 、数据源、实战 &plus; 执行 Spark SQL 查询 &plus; JDBC&sol;ODBC 服务器

    第1章 Spark SQL 概述1.1 什么是 Spark SQL1.2 RDD vs DataFrames vs DataSet1.2.1 RDD1.2.2 DataFrame1.2.3 DataS ...

随机推荐

  1. &lbrack;ASP&period;NET MVC 小牛之路&rsqb;10 - Controller 和 Action &lpar;2&rpar;

    继上一篇文章之后,本文将介绍 Controller 和 Action 的一些较高级特性,包括 Controller Factory.Action Invoker 和异步 Controller 等内容. ...

  2. php获取当月天数及当月第一天及最后一天、上月第一天及最后一天实现方法

    1.获取上个月第一天及最后一天.    echo date('Y-m-01', strtotime('-1 month'));    echo "<br/>";     ...

  3. springboot &plus; devtools(热部署)

    技术介绍 devtools:是boot的一个热部署工具,当我们修改了classpath下的文件(包括类文件.属性文件.页面等)时,会重新启动应用(由于其采用的双类加载器机制,这个启动会非常快,如果发现 ...

  4. java中的传值

    关于java中到底是传值还是传应用,有以下笔记: Java 编程语言只有值传递参数.当一个对象实例作为一个参数被传递到方法中时,参数的值就是该对象的引用一个副本.指向同一个对象,对象的内容可以在被调用 ...

  5. hdu1025

    #include<stdio.h>const int MAXN=500010;int a[MAXN],b[MAXN]; //用二分查找的方法找到一个位置,使得num>b[i-1] 并 ...

  6. windows驱动开发前导知识

    从以下整理得到 https://blog.csdn.net/suxinpingtao51/article/details/8610528 http://www.cnblogs.com/bugcheck ...

  7. Android SDK Manager无法更新的解决方案

    Android SDK Manager -> Tools -> Options HTTP Proxy Server:mirrors.neusoft.edu.cn HTTP Proxy Po ...

  8. XML和JSON优缺点

    <1>.XML的优点 A.格式统一,符合标准: B.容易与其他系统进行远程交互,数据共享比较方便.<2>.XML的缺点 A.XML文件庞大,文件格式复杂,传输占带宽: B.服务 ...

  9. Android——列表视图 ListView(一)Arrayadapter

    一.ArrayAdapter 只显示文字 activitylistview_layout.xml <?xml version="1.0" encoding="utf ...

  10. Kotlin Reference &lpar;九&rpar; Properties and Fields

    most from reference 声明属性 Koltin的类都有属性,这些属性可以声明为可变的,使用var关键字或用val关键字生声明不可变属性. class Address { var nam ...