1、存储器的层次结构知识
我们从上往下说。操作系统中的存储器构成了一个金字塔,越往上的存储器速度越快,但是价格也越贵,所以也就越小。为了解决高速的处理器和低速的存储器之间的矛盾,上一层的存储器作为下一层存储器的缓存。
(1)CPU缓存
在现代的CPU(大多数)上,所有的内存访问都需要通过层层的缓存来进行。CPU的读/写(以及取指令)单元正常情况下甚至都不能直接访问内存——这是物理结构决定的;CPU都没有管脚直接连到内存。相反,CPU和一级缓存(L1 Cache)通讯,而一级缓存才能和内存通讯。大约二十年前,一级缓存可以直接和内存传输数据。如今,更多级别的缓存加入到设计中,一级缓存已经不能直接和内存通讯了,它和二级缓存通讯——而二级缓存才能和内存通讯。或者还可能有三级缓存。
比如要需要操作内存的某个区域时,处理器不会直接去内存读取,而是会去高速缓存中查看该区域是不是被调进来了,如果没有,则把该区域调入高速缓冲区中。那么接下来处理器直接在高速缓存中进行读写操作。
(2)磁盘缓存
同样的,对于读取磁盘数据,处理器把内存中的某块区域作为磁盘的缓存。那么便可以直接在内存中进行读写。处理器在缓存中对数据进行读写操作,但是还是需要把该数据写会到原来的区域中去,这接涉及到了一定的策略。
磁盘写缓存策略
1) 第一种策略称为不缓存(no write),也就是说高速缓存不去缓存任何写操作。当对缓存中的数据进行写时,将直接跳过缓存,直接写到磁盘,同时标记缓存的数据失效。如果后续需要进行读操作,需要重新从磁盘读取数据。
2) 第二种策略称为写透缓存(write-through cache),即写操作将自动更新缓存,同时也更新磁盘文件。这种操作对保持缓存一致性很有好处,所以不需要将缓存标记为失效,同时实现也比较简单。
3) 第三种策略,也是linux所默认采用的,称为回写(write-back)。在这种策略下,程序执行写操作直接写到缓存中,但是不会直接更新磁盘,而是将高速缓存中被写入的页面标记成“脏”,并加入脏页链表中。然后由一个进程(回写进程)周期性将脏页链表的页写会到磁盘,从而让磁盘中的数据和缓存中的数据一致,最后清理缓存的“脏”页标志。“脏”的意思不是说数据不干净,而是说数据没有同步到磁盘。
Linux中IO调度方法的查看和设置的方法
查看当前IO
cat /sys/block/{DEVICE-NAME}/queue/scheduler
cat /sys/block/sd*/queue/scheduler
例:输出结果如下
noop anticipatory deadline [cfq]
设置当前IO
echo {SCHEDULER-NAME} > /sys/block/{DEVICE-NAME}/queue/scheduler
echo noop > /sys/block/hda/queue/scheduler
对于数据库应用,推荐使用deadline的磁盘写策略,性能表现会更好。
默认情况下,出于数据安全性的目的, 如果服务器已经配置了带缓存的RAID控制器,则RAID 控制器的硬盘缓存会被禁用。 虽然启用硬盘缓存会提高性能,但因数据保留在缓存中而未写入磁盘,从而增加导致数据丢失的风险。 这是因为硬盘是没有电池备份用于保留在硬盘缓存中的数据的。针对关键任务应用程序的硬盘缓存均不应被启用。
注:Linux系统的磁盘I/O调优是一件涉及几十个重要参数的复杂工作,上面谈到的磁盘写策略只是其中比较重要的参数之一。
(3)RAID控制器缓存
在物理磁盘之上,现在服务器上已经广泛使用上了RAID控制器,这些RAID卡除了提供各种RAID数据保护功能外,普遍还会自带Cache,从512M到1G、2G、4G、8G都有。
需要注意的是每款RAID控制器所能支持的最大磁盘数量都在有限制的,这个可以从厂商官方资料中进行确认。
Raid控制器缓存,用于临时存储数据,以便控制器把数据写入硬盘,缓存越大,性能也好,但是风险性也就越大,RAID卡一般都配有电池。能够提供高速缓存回写是raid控制器卡的一个重要优点。
配备了高速缓存的企业RAID控制器通常采用备用电池(BBU)选项。目的是当服务器供电中断是向控制器提供电源。保护高速缓存中的数据不丢失。
目前有两种高速缓存保护选项:
- 备份电池(BBU)
- CacheVault技术
BBU是备用电源组(Battery Backup Unit)的缩写,它是一个可换的部件(FRU),是某些型号产品的标配,其他型号产品也可以选配BBU。BBU为RAID控制器缓存提供电源,当发生断电时控制器内缓存中的数据可以保存最长72小时(某些型号可以达到100小时)。用户只需要在BBU电力耗尽之前恢复正常供电,缓存中的数据即可被完整的写回RAID中,避免断电导致数据丢失。
BBU备份电池技术是最为通用的技术解决方案,但也存在不可忽视的一些缺陷,像电池容量受使用时间、工作温度、放电次数的影响,以致于在断电发生时候系统管理员很难知道电池能维持多长时间。通常是需要每两年做一次电池的替换,在此期间电池还需要持续观察来确保其能维持预定的时间。这就导致了大量的追踪和维护的困难。
CacheVault技术采用NAND闪存和超级电容来为raid控制器提供高速缓存保护。当服务器发生断电或者故障时,CacheVault可以自动将缓存在dram中的数据转移至闪存当中。当电源恢复后,NAND闪存中的数据将会被拷贝回高速缓存,直至数据写入磁盘驱动器。优点是消除了锂电池所需要的硬件维护,降低了控制器使用寿命期间的总体成本,提供了更加环保的高速缓存保护技术,同时使raid控制器的性能保持最佳状态。
当系統出现故障或意外断电時,CacheVault就会由超级电容提供电力来把Cache Memory上仍未写入HDD的资料Copy到NAND Flash內,待系统恢复正常時才由NAND Flash再Copy回Cache Memory。电容充电仅需要几分钟就可以了。由于NAND Flash可保留资料长达数年,比BBU只能保留三日的时间长很多,这就可给你更长的时间来解决系统故障问题,而超级电容的寿命亦比BBU电池长,老化速度亦不及电池来得严重,算是一个不错的替代BBU方案。由于BBU电池对使用环境的温度要求比较严格一般10-45度,但是由于RAID卡一般都安装在机箱后面,所以相对温度比较高,所以电池的寿命非常短。
LSI供应商目前提供的带有 CacheVault高速缓存的有阵列卡有 :
- 9270CV-8i 带 CacheVault高速缓存
- 9271-8i 带 CacheVault高速缓存
- 9361-8i 带 CacheVault高速缓存
从采购成本上讲,CacheVault技术的RAID卡要略贵出约1/3。
以上讲了这么多,实际上前提条件是你的数据是存储在服务器的本地磁盘上的,而不是存放到磁盘阵列设备或NAS设备上。如果是后者,那服务器上的RAID控制器的配置策略和磁盘的写策略配置就影响很有限了。因为实际上发挥重要作用的已经是磁盘阵列这个外部存储设备,这类专业存储设备的各类高速缓存设计自然是要更上层楼,见下面的讲解。
(4)磁盘阵列/NAS网络存储设备的缓存
每台磁盘阵列设备都配备了一定数量的内存作为高速缓存使用,而且大多用户以后可以扩充。在磁盘阵列设备中,常见的内存类型由SDRAM(同步内存)、FLASH(闪存)等。不同的磁盘阵列产品出厂时配备的内存容量不同,一般为几十兆到数GB容量不等,这取决于磁盘阵列产品的应用范围。磁盘阵列产品的综合性能发挥还取决于它的处理器能力、硬盘速度及其网络实际环境等因素的制约。总之,选购磁盘阵列产品时,应该综合考虑各个方面的性能参数。
下面是DELL MD3400直连磁盘存储阵列的图片:
注:MD3400算是比较低端的一款磁盘阵列了,当然对于中小企业来说性价比是很高。
对于业务负载会更加巨大的公司来说,能满足技术系统的数据库磁盘IO使用需求才是最重要的,这从来不是一个预算够不够用的问题,而是设备能不能达到性能指标的问题。所以也只能不断得上更高端型号的企业级磁盘阵列,混合阵列,甚至于是全闪存阵列,才能持续提升磁盘IO能力。至于磁盘阵列所能使用的高速缓存也是从几十G到几百G有多种配置方案,高速缓存配件的类型也有SDRAM(同步内存)、FLASH(闪存)、SATA SSD、PCI-E SSD等多种选择。
这里对企业NAS设备不做过多说明了。大家了解下NAS是专业的文件存储设备即可,而且在缓存的使用上,相较于磁盘阵列设备更是有过之而无不及。一个配置调校得很好的企业NAS设备的磁盘I/O性能表现,甚至会比一些低端磁盘阵列还要好。价格上NAS设备要比磁盘阵列便宜许多。不过,在更高性能得磁盘读写服务能力方面,NAS设备的天花板要比磁盘阵列设备低许多,二者交集其实不大,各有最佳实践的使用场景。
这些设备确实都不便宜,但值得指出的一点是,但凡是能直接从市场上买到的可以满足业务系统使用需求的技术和设备,一定就是最便宜的解决方案了。很多中小企业容易受互联网行业感染,一冲动就也去使用基于大量PC服务器搭建的分布式存储系统,这些开源分布式存储的技术能力大到没有边界,陷阱和各种bug同样也是无边无际得多。如果不是企业规模足够大到可以养着几十人的底层工具高级研发团队,专做各种工具的研发和优化,掉坑里时你准备跑路,还是怎么办?
2、RAID控制器的不同策略对系统的影响
本文我们主要以 dell perc 系列的 raid 控制器介绍不同策略对系统性能以及数据一致性的影响。基于 raid 控制器管理的磁盘阵列的性能受到不同策略因素的影响, 对系统性能的影响也不尽相同. 我们只有在理解了 raid 写策略, disk cache, I/O policy 以及 strip size 等不同的设置后,才能更好的判断以及处理系统的性能问题.
主要通过以下几方面介绍不同策略对系统性能的影响:
- write policy
- disk cache
- read ahead policy
- I/O policy
- strip size
(1)write policy (写策略)对性能的影响
Raid 控制器中不同的写策略在写的性能上也有很大的差别, 目前主要有两种可用的模式 — WB(write back) 和 WT(write through)
write back
在该模式下, raid 控制器在数据加载到控制器的缓存后就会立即给 I/O 请求返回确认信息, 应用程序可以继续工作而不用等待数据被写到物理磁盘上. write back 模式在大多数情况下都能够提供更好的写性能. 当然写性能提高的情况下也会有不好的方面, 如果在该模式下突然断电, raid 缓存中的数据可能就有丢失的风险, 一般运营商机房中的 UPS(备用电源) 则能缓解数据丢失的风险, 基于这个原因重要业务的服务器都应该放在有 UPS 系统的机房中.
Raid 卡的 BBU(backup battery status) 特性则提供了另一种保护措施, 在主机异常断电的情况下, 即便没有 UPS, 只要 BBU 电池及电量没有异常, raid 卡里缓存的数据也不会立即丢失。
另外 BBU 在以下情况下会使得 write back 模式切换到 write through 模式:
- 没有充满电
-
正在自动校准(auto learn)
Raid 卡默认情况下会启用自动校准模式以记录 BBU 电池的放电曲线, 以便控制器了解电池的状态, 这个过程可能需要12小时左右, 期间会禁用 write back 模式来保证数据的完整性, 这也会造成系统性能的降低。
校准(learn cycle) 分为以下步骤:
- 控制器给 BBU 电池充满电
- 开始校准, 对 BBU 电池进行放电
-
放电完成后, 完成校准, 并重新充电, 充到电池的最大电量.
如果第二或第三阶段被中断,重新校准的任务会停止,而不会重新执行。DELL 机器默认 90 天校准一次。
write through
在该模式下, 不会使用 raid 控制器的缓存来加速写IO请求. 大多数情况下该模式都慢于 write back 模式, 因为应用程序需要等待数据被写到物理磁盘上. 不过该模式在 raid 级别为 raid 0 或 raid 10 的时候, 如果是顺序写则能提供最高的写带宽(write bandwidth).
(2)disk cache
磁盘缓存策略决定了硬盘的写缓存是否开启. raid控制器设置为 write throuth 模式的时候, 磁盘缓存策略对系统的写性能影响很大, 想想磁盘没有缓存的时候, 每个写操作都要等待数据写到物理磁盘中, 如果是较多的随机写性能肯定会很差; 相反如果 raid 控制器为 write back 模式, 磁盘缓存是否开启对系统的写性能影响很小, 大多场景下都可以忽略影响.
另外磁盘缓存开启的时候, 如果突然断也会存在丢失数据的风险. 从这个角度看, UPS 备用电源真是至关重要, 重要数据的主机应该放到有 UPS 支持的机房中. raid 卡的 BBU 特性则不能保护磁盘缓存的数据.
(3)read ahead policy
read ahead 策略决定 raid 控制器读取数据的时候是只读取一个块(block)的数据还是整个条带(strip)的数据, 该设置对 raid 卡读的性能影响很大.
-
No Read Ahead,在应用发出请求后 raid 控制器仅读取一个块的数据, 在业务随机读取较多的场景下可以选用该策略.
-
Always Read Ahead,应用发出请求后 raid 控制器会读取整个条带的数据放到 raid cache 中, 每个 read 操作会消耗较多的资源. 在这种模式下, 对主要是顺序读取的业务会有很好的性能提升.
-
Adaptive Read Ahead,该策略下由 RAID 控制器根据读请求的类型自行调整是否预取. 该模式结合了上述两种策略的有点. 所以如果不清楚读取的类型或者业务存在顺序读取和随机读取的请求, 则推荐使用自适应模式.
(4)I/O Policy
RAID 控制器的 I/O 策略决定了是否保留 raid cache 中的数据, 如果应用的请求读的都是同一块数据, raid cache 则直接返回数据, 可以减少很多应用访问的时间.
目前该策略主要有两种方式:
- Direct I/O,直接读取, 不使用 raid cache 功能. 大多数场景下可以使用该策略, 因为文件系统, 磁盘及应用等都有自己的缓存, 不太需要 raid cache 功能.
-
Cached I/O,在该种策略下, raid 控制器会把读和写请求先从 raid cache 中获取和更新. 如果有很多读操作都请求同一块数据, 则 raid cache 直接返回数据给读操作. 如果是写操作, 性能则根据 raid write policy 的不同而不同.
(5)strip size
条带大小决定了数据怎么分布到硬盘中, 同样由于硬盘数量的原因, 条带大小也可能决定了一次 I/O 请求需要访问多少磁盘. 通常条带大小较大(512 KB 或 1MB )的话就特别适合顺序读取较多的业务, 因为单块读取的数据更多. 如果业务类型是随机访问, 系统性能则依赖于访问数据块的大小和分配的条带大小的值, 比如数据库系统中, 单个记录是 16KB(比如 MySQL 一个页的大小默认是 16KB), 条带大小是也是 16 KB 的情况下, raid 控制器就能很好的提高系统的性能.
3、RAID控制器选型知识
(1)对于大多数应用服务器而言, 比如数据库服务, 我们可能更关注RAID控制器的以下信息
- interface support: 接口读取数据的速度是否够快, 业务服务器的 sas 盘使用可能更多;
- cache memory size: raid 卡是否支持缓存, 缓存有多大;
- write back cache: raid 卡是否支持 write back 模式的写策略;
- raid level: raid 卡支持的级别, 即通常我们讨论的 raid 级别;
-
raid level 级别中, 大多数的 raid 卡都支持通用的 raid 级别, interface 的速度差别都不大. 所以如果要采购 raid 卡的话, 该 raid 型号至少要支持缓存以及支持 write back 写策略, 缓存多大按预算的价格决定, 一般 512M 的也不错;
- bbu or CacheVault: 两个都是保证服务器断电后raid控制器缓存中数据不丢失的技术,后者成本高些但效果也更好,不过目前仍然是bbu使用得最为广泛。
(2)以Dell PowerEdge RAID Controller (PERC) H730控制器为例进行分析
下图为H730 mini 控制器的照片。
该RAID卡的主要配置为Eight-port 12Gbps PCI Express (PCIe) RAID controller supporting 3Gbps, 6Gbps and 12Gbps SAS or SATA hard-disk or solid-state drives,1GB 1333MT/s DDR3 SDRAM。
Model |
Interface Support |
PCI Support |
SAS Connectors |
Cache Memory Size |
Write Back Cache |
RAID Levels |
Max Drive Support |
RAID Support |
PERC H730 Mini Mono |
12Gb/s SAS
6Gb/s SATA
|
PCI-Express 3.0 |
2x4 Internal |
1GB NV |
Flash Backed Cache |
0,1,5,6,10,50,60 |
32 |
Hardware RAID |
4、使用MegaCli工具查看RAID控制器配置信息
MegaCli需要额外安装相关工具包,使用方法如下。
(1)一些常的查询命令
MegaCli -AdpBbuCmd -GetBbuStatus -aALL |grep ‘Charger Status’ 【查看充电状态】
MegaCli -AdpBbuCmd -GetBbuStatus -aALL【显示BBU状态信息】
MegaCli -AdpBbuCmd -GetBbuCapacityInfo -aALL【显示BBU容量信息】
MegaCli -AdpBbuCmd -GetBbuDesignInfo -aALL 【显示BBU设计参数】
MegaCli -AdpBbuCmd -GetBbuProperties -aALL 【显示当前BBU属性】
MegaCli -cfgdsply -aALL 【显示Raid卡型号,Raid设置,Disk相关信息】
MegaCli -LDInfo -Lall -aALL 查raid级别
MegaCli -AdpAllInfo -aALL 查raid卡信息
MegaCli -FwTermLog -Dsply -aALL 查看raid卡日志
(2)查看 BBU 的状态
如下现在充电是complete的, 差不多90天会校准一次, 已经成功执行了校准操作
# MegaCli -AdpBbuCmd -GetBbuStatus -aALL
BBU status for Adapter: 0
BatteryType: BBU
Voltage: 3902 mV
Current: 0 mA
Temperature: 30 C
Battery State : Operational
BBU Firmware Status:
Charging Status : None
Voltage : OK
Temperature : OK
Learn Cycle Requested : No
Learn Cycle Active : No
Learn Cycle Status : OK
Learn Cycle Timeout : No
I2c Errors Detected : No
Battery Pack Missing : No
Battery Replacement required : No
Remaining Capacity Low : No
Periodic Learn Required : No
Transparent Learn : No
No space to cache offload : No
Pack is about to fail & should be replaced : No
Cache Offload premium feature required : No
Module microcode update required : No
BBU GasGauge Status: 0x0128
Relative State of Charge: 92 %
Charger Status: Complete
Remaining Capacity: 428 mAh
Full Charge Capacity: 468 mAh
isSOHGood: Yes
Exit Code: 0x00
(3)查看BBU的属性信息
[[email protected] ~]# MegaCli -AdpBbuCmd -GetBbuProperties -aALL
BBU Properties for Adapter: 0
Auto Learn Period: 90 Days
Next Learn time: Mon May 28 01:15:36 2018
Learn Delay Interval:0 Hours
Auto-Learn Mode: Transparent
Exit Code: 0x00
(4)查看BBU校准操作信息
[[email protected] ~]# MegaCli -AdpBbuCmd -BbuLearn -aALL
Adapter 0: BBU Learn Succeeded.
Exit Code: 0x00
(5)查看 raid 卡写策略
[[email protected] ~]# MegaCli -LDGetProp -Cache -LAll -aAll
Adapter 0-VD 0(target id: 0): Cache Policy:WriteBack, ReadAhead, Direct, No Write Cache if bad BBU
Exit Code: 0x00
目前的写策略为 Write back (WB), 没有启用 Cached IO 策略, 当 BBU 不正常的时候需要从 write back 切换到 write through.
(6)设置raid 卡写策略
# MegaCli -LDSetProp WT -L0 -a0
Set Write Policy to WriteThrough on Adapter 0, VD 0 (target id: 0) success
Exit Code: 0x00
(7)查看raid卡全面的配置和状态信息
重点看下最后的default setting部分,展示了raid卡当前采用的默认值都是什么。
# MegaCli -AdpAllInfo -aALL
Adapter #0
==============================================================================
Versions
================
Product Name : PERC H730 Mini
Serial No : 5CO042P
FW Package Build: 25.3.0.0016
Mfg. Data
================
Mfg. Date : 12/26/15
Rework Date : 12/26/15
Revision No : A03
Battery FRU : N/A
Image Versions in Flash:
================
BIOS Version : 6.23.03.0_4.16.07.00_0x060C0200
Ctrl-R Version : 5.04-0012
FW Version : 4.250.00-4402
NVDATA Version : 3.1411.00-0019
Boot Block Version : 3.02.00.00-0001
Pending Images in Flash
================
None
PCI Info
================
Controller Id : 0000
Vendor Id : 1000
Device Id : 005d
SubVendorId : 1028
SubDeviceId : 1f49
Host Interface : PCIE
ChipRevision : C0
Number of Frontend Port: 0
Device Interface : PCIE
Number of Backend Port: 8
Port : Address
0 5000c5008f9572c1
1 5000c5008f9589f9
2 5000c5008f95de75
3 5000c5008f9651f9
4 5000c5008f964751
5 5000c5008f9584fd
6 5000c5008f956d39
7 5000c5008f969701
HW Configuration
================
SAS Address : 514187705f6f3900
BBU : Present
Alarm : Absent
NVRAM : Present
Serial Debugger : Present
Memory : Present
Flash : Present
Memory Size : 1024MB
TPM : Absent
On board Expander: Absent
Upgrade Key : Absent
Temperature sensor for ROC : Present
Temperature sensor for controller : Present
ROC temperature : 54 degree Celcius
Controller temperature : 54 degree Celcius
Settings
================
Current Time : 10:30:30 4/25, 2018
Predictive Fail Poll Interval : 300sec
Interrupt Throttle Active Count : 16
Interrupt Throttle Completion : 50us
Rebuild Rate : 30%
PR Rate : 30%
BGI Rate : 30%
Check Consistency Rate : 30%
Reconstruction Rate : 30%
Cache Flush Interval : 4s
Max Drives to Spinup at One Time : 4
Delay Among Spinup Groups : 12s
Physical Drive Coercion Mode : 128MB
Cluster Mode : Disabled
Alarm : Disabled
Auto Rebuild : Enabled
Battery Warning : Enabled
Ecc Bucket Size : 255
Ecc Bucket Leak Rate : 240 Minutes
Restore HotSpare on Insertion : Disabled
Expose Enclosure Devices : Disabled
Maintain PD Fail History : Disabled
Host Request Reordering : Enabled
Auto Detect BackPlane Enabled : SGPIO/i2c SEP
Load Balance Mode : Auto
Use FDE Only : Yes
Security Key Assigned : No
Security Key Failed : No
Security Key Not Backedup : No
Default LD PowerSave Policy : Controller Defined
Maximum number of direct attached drives to spin up in 1 min : 0
Auto Enhanced Import : No
Any Offline VD Cache Preserved : No
Allow Boot with Preserved Cache : No
Disable Online Controller Reset : No
PFK in NVRAM : No
Use disk activity for locate : No
POST delay : 90 seconds
BIOS Error Handling : Pause on Errors
Current Boot Mode :Normal
Capabilities
================
RAID Level Supported : RAID0, RAID1, RAID5, RAID6, RAID10, RAID50, RAID60, PRL 11, PRL 11 with spanning, PRL11-RLQ0 DDF layout with no span, PRL11-RLQ0 DDF layout with span
Supported Drives : SAS, SATA
Allowed Mixing:
Mix in Enclosure Allowed
Status
================
ECC Bucket Count : 0
Limitations
================
Max Arms Per VD : 32
Max Spans Per VD : 8
Max Arrays : 128
Max Number of VDs : 64
Max Parallel Commands : 928
Max SGE Count : 60
Max Data Transfer Size : 8192 sectors
Max Strips PerIO : 42
Max LD per array : 16
Min Strip Size : 64 KB
Max Strip Size : 1.0 MB
Max Configurable CacheCade Size: 0 GB
Current Size of CacheCade : 0 GB
Current Size of FW Cache : 939 MB
Device Present
================
Virtual Drives : 1
Degraded : 0
Offline : 0
Physical Devices : 9
Disks : 8
Critical Disks : 0
Failed Disks : 0
Supported Adapter Operations
================
Rebuild Rate : Yes
CC Rate : Yes
BGI Rate : Yes
Reconstruct Rate : Yes
Patrol Read Rate : Yes
Alarm Control : Yes
Cluster Support : No
BBU : Yes
Spanning : Yes
Dedicated Hot Spare : Yes
Revertible Hot Spares : Yes
Foreign Config Import : Yes
Self Diagnostic : Yes
Allow Mixed Redundancy on Array : No
Global Hot Spares : Yes
Deny SCSI Passthrough : No
Deny SMP Passthrough : No
Deny STP Passthrough : No
Support Security : Yes
Snapshot Enabled : No
Support the OCE without adding drives : Yes
Support PFK : No
Support PI : Yes
Support Boot Time PFK Change : No
Disable Online PFK Change : No
Support LDPI Type1 : No
Support LDPI Type2 : Yes
Support LDPI Type3 : No
Support Shield State : Yes
Block SSD Write Disk Cache Change: No
Supported VD Operations
================
Read Policy : Yes
Write Policy : Yes
IO Policy : Yes
Access Policy : Yes
Disk Cache Policy : Yes
Reconstruction : Yes
Deny Locate : No
Deny CC : No
Allow Ctrl Encryption: No
Enable LDBBM : Yes
Support Breakmirror : Yes
Power Savings : Yes
Supported PD Operations
================
Force Online : Yes
Force Offline : Yes
Force Rebuild : Yes
Deny Force Failed : No
Deny Force Good/Bad : No
Deny Missing Replace : No
Deny Clear : No
Deny Locate : No
Support Temperature : Yes
Disable Copyback : No
Enable JBOD : Yes
Enable Copyback on SMART : No
Enable Copyback to SSD on SMART Error : No
Enable SSD Patrol Read : No
PR Correct Unconfigured Areas : Yes
Enable Spin Down of UnConfigured Drives : No
Disable Spin Down of hot spares : Yes
Spin Down time : 30
T10 Power State : Yes
Error Counters
================
Memory Correctable Errors : 0
Memory Uncorrectable Errors : 0
Cluster Information
================
Cluster Permitted : No
Cluster Active : No
Default Settings
================
Phy Polarity : 0
Phy PolaritySplit : 0
Background Rate : 30
Strip Size : 64kB
Flush Time : 4 seconds
Write Policy : WB
Read Policy : Adaptive
Cache When BBU Bad : Disabled
Cached IO : No
SMART Mode : Mode 6
Alarm Disable : No
Coercion Mode : 128MB
ZCR Config : Unknown
Dirty LED Shows Drive Activity : No
BIOS Continue on Error : 1
Spin Down Mode : None
Allowed Device Type : SAS/SATA Mix
Allow Mix in Enclosure : Yes
Allow HDD SAS/SATA Mix in VD : No
Allow SSD SAS/SATA Mix in VD : No
Allow HDD/SSD Mix in VD : No
Allow SATA in Cluster : No
Max Chained Enclosures : 4
Disable Ctrl-R : No
Enable Web BIOS : No
Direct PD Mapping : Yes
BIOS Enumerate VDs : Yes
Restore Hot Spare on Insertion : No
Expose Enclosure Devices : No
Maintain PD Fail History : No
Disable Puncturing : No
Zero Based Enclosure Enumeration : Yes
PreBoot CLI Enabled : No
LED Show Drive Activity : Yes
Cluster Disable : Yes
SAS Disable : No
Auto Detect BackPlane Enable : SGPIO/i2c SEP
Use FDE Only : Yes
Enable Led Header : No
Delay during POST : 0
EnableCrashDump : No
Disable Online Controller Reset : No
EnableLDBBM : Yes
Un-Certified Hard Disk Drives : Allow
Treat Single span R1E as R10 : Yes
Max LD per array : 16
Power Saving option : Don't spin down unconfigured drives
Don't spin down Hot spares
Don't Auto spin down Configured Drives
Power settings apply to all drives - individual PD/LD power settings cannot be set
Max power savings option is not allowed for LDs. Only T10 power conditions are to be used.
Cached writes are not used for spun down VDs
Can schedule disable power savings at controller level
Default spin down time in minutes: 30
Enable JBOD : Yes
TTY Log In Flash : Yes
Auto Enhanced Import : No
BreakMirror RAID Support : Yes
Disable Join Mirror : Yes
Enable Shield State : No
Time taken to detect CME : 60s
Exit Code: 0x00
参考资料: