1 vCPU 简介
CPU 负责计算机程序指令的执行。QEMU-KVM 提供对虚拟机 CPU 的模拟,对于虚拟机来说,其拥有的 CPU 是真实的, 和物理 CPU 没有区别。
实际上,虚拟机在 host 上表现为一个 qemu 进程,而虚拟机的 vCPU (从 host 上看是 vCPU) 则是该进程下的一个线程。
使用 qemu-kvm 创建一个虚拟机:
[root@lianhua qemu-kvm]# /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio QEMU 2.6.0 monitor - type \'help\' for more information (qemu) VNC server running on \'::1;5900\' (qemu) info cpus * CPU #0: pc=0x000000003fefa56a thread_id=1019305 CPU #1: pc=0x00000000000fd374 (halted) thread_id=1019307 (qemu) info cpus * CPU #0: pc=0x000000003ff0d4ea (halted) thread_id=1019305 CPU #1: pc=0x00000000000fd374 (halted) thread_id=1019307 [root@lianhua home]# ps -eLf | grep qemu root 1019294 1014044 1019294 0 5 12:53 pts/0 00:00:00 /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio root 1019294 1014044 1019300 0 5 12:53 pts/0 00:00:00 /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio root 1019294 1014044 1019305 6 5 12:53 pts/0 00:00:12 /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio root 1019294 1014044 1019307 0 5 12:53 pts/0 00:00:00 /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio root 1019294 1014044 1019309 0 5 12:53 pts/0 00:00:00 /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio
可以看到,虚拟机的 CPU 0 和 1 分别对应线程 1019305 和 1019307。并且,它们都是进程 1019294 的子线程,而进程 1019294 则是通过 qemu-kvm 创建的虚拟机进程。
同时,也可看到虚拟机的子进程数要大于 CPU 数目,因为虚拟机需要一些单独的进程来处理专门的任务,比如 I/O 任务等。
2 vCPU 配置
这里 vCPU 的配置都是使用硬件辅助的虚拟化技术,首先要保证内核已加载 kvm 模块。当然 qemu 也得运行起来。
配置 vCPU 有两种方式,第一种直接使用 qemu-kvm 命令行指定 vCPU 信息,第二种通过 virsh XML 配置 vCPU 信息。两种方式如下所示:
1) vCPU 配置如上例所述,可通过 smp 指定 cpu 的信息来配置:
[root@lianhua qemu-kvm]# /usr/libexec/qemu-kvm -smp 2 -m 1G lianhua.qcow -monitor stdio
该配置会创建一个有两个 vCPU 的虚拟机,且计算机架构为 SMP 架构(计算机架构主要有 SMP 和 NUMA,参考这里了解更多)。
[root@lianhua qemu-kvm]# /usr/libexec/qemu-kvm -smp 3,sockets=3,cores=1,threads=1 -m 1G lianhua.qcow -monitor stdio
该配置会创建一个具有 3 个 vCPU 的虚拟机。对于虚拟机来说,它有 3 个 socket,每个 socket 有 1 个核,且核上未开启超线程,threads 为 1。
2) 通过在 virsh 的 XML 文件中配置 vCPU 信息:
<vcpu placement=\'static\'>6</vcpu> <cputune> <shares>6144</shares> <vcpupin vcpu=\'0\' cpuset=\'9\'/> <vcpupin vcpu=\'1\' cpuset=\'37\'/> <vcpupin vcpu=\'2\' cpuset=\'11\'/> <vcpupin vcpu=\'3\' cpuset=\'39\'/> <vcpupin vcpu=\'4\' cpuset=\'34\'/> <vcpupin vcpu=\'5\' cpuset=\'6\'/> <emulatorpin cpuset=\'6,9,11,34,37,39\'/> </cputune>
如上所示,虚拟机配有 6 个 vCPU,并且在 cputune 标签中设置了 vCPU 和 host 上物理 CPU 的映射关系,即 0 - 9,1 - 37...
在 XML 文件的 cpu mode 标签中可详细定义 cpu 的配置类型:
<cpu mode=\'host-model\'> <model fallback=\'allow\'/> <topology sockets=\'3\' cores=\'1\' threads=\'2\'/> <numa> <cell id=\'0\' cpus=\'0-5\' memory=\'33554432\' unit=\'KiB\' memAccess=\'shared\'/> </numa> </cpu>
如上所示,cpu mode 为 host-model,即根据 host 的 cpu 特性为 domain 选择最接近标准的 CPU 型号(看这里了解 cpu mode 标签)。同时,topology 标签定义了 cpu 的 sockets/cores 和 threads 情况,这里也配置了 numa node,指定 cpu 配置在 numa0 上,cpu 使用的内存为 33554432 和使用的方式 shared。
cpu 配置好之后登陆到 domain 虚拟机中查看 cpu 的配置是否生效:
$ cat /proc/cpuinfo processor : 0 vendor_id : GenuineIntel cpu family : 6 model : 61 model name : Intel Core Processor (Broadwell) stepping : 2 microcode : 0x1 cpu MHz : 2394.454 cache size : 4096 KB physical id : 0 siblings : 2 core id : 0 cpu cores : 1 apicid : 0 initial apicid : 0 fpu : yes fpu_exception : yes cpuid level : 13 wp : yes flags : fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush mmx fxsr sse sse2 ss ht syscall nx pdpe1gb rdtscp lm constant_tsc rep_good nopl cpuid tsc_known_freq pni pclmulqdq ssse3 fma cx16 pcid sse4_1 sse4_2 x2apic movbe popcnt tsc_deadline_timer aes xsave avx f16c rdrand hypervisor lahf_lm abm 3dnowprefetch invpcid_single pti fsgsbase tsc_adjust bmi1 hle avx2 smep bmi2 erms invpcid rtm rdseed adx smap xsaveopt arat bugs : cpu_meltdown spectre_v1 spectre_v2 spec_store_bypass l1tf mds swapgs taa itlb_multihit srbds bogomips : 4788.90 clflush size : 64 cache_alignment : 64 address sizes : 46 bits physical, 48 bits virtual power management: ... $ /bin/bash cpu.sh The physical cpu is: 3 core number in a physical cpu: 1 logical cpu number in a physical cpu: 2 The hyper threading is enabled, each core has 2 threads logical cpu number in host: 6
cpu 配置生效,且 cpu model name 匹配为 Broadwell。
3 vCPU 特性
vCPU 有几大特性,在部署虚机时合理利用这些特性能够使得部署更灵活,同时实现效率最大化。
3.1 vCPU overcommit
在实际虚拟机使用时,不是每个虚拟机都在同时工作,这样就会造成 host 上 cpu 资源的浪费。通过 vCPU 的 overcommit 机制可以有效避免这种资源浪费。
vCPU overcommit,即虚拟机上 vCPU 的个数可以大于 host 上 logical CPU 数目。
3.2 vCPU 热插拔
如果在生产环境上虚拟机的 cpu 资源不够了,那么可以通过 vCPU 的热插拔特性动态的为虚拟机添加 vCPU:
[root@lianhua qemu-kvm]# /usr/libexec/qemu-kvm -smp 3,maxcpus=5,sockets=3,cores=1,threads=1 -m 1G lianhua.qcow -monitor stdio QEMU 2.6.0 monitor - type \'help\' for more information (qemu) VNC server running on \'::1;5900\' (qemu) info cpus * CPU #0: pc=0x000000003fefa56a thread_id=356200 CPU #1: pc=0x00000000000fd374 (halted) thread_id=356201 CPU #2: pc=0x00000000000fd374 (halted) thread_id=356203 (qemu) cpu-add 3 (qemu) info cpus * CPU #0: pc=0x00000000000fc373 (halted) thread_id=356200 CPU #1: pc=0x00000000000fd374 (halted) thread_id=356201 CPU #2: pc=0x00000000000fd374 (halted) thread_id=356203 CPU #3: pc=0x00000000fffffff0 thread_id=357997
如上所示,在虚拟机运行时通过 cpu-add 将 3 号 cpu 加载到虚机中。注意,在进行热插拔时首先要保证有足够的 cpu 资源可供热插拔(maxcpus > smp 指定的 logical cpu 数),如果没有足够资源则会显示无法进行热插拔。
3.3 vCPU 亲和性
部署虚拟机时可配置 vCPU 的亲和性,即将 vCPU 和 host 上 logical CPU 绑定在一起,使得 vCPU 运行在固定的 logical CPU 上。
vCPU 亲和性的配置在上节已经介绍了,这里不再赘述。在 host 上查看绑定的 CPU 使用情况:
1) 配置 vCPU 亲和性:
<vcpu placement=\'static\'>6</vcpu> <cputune> <shares>6144</shares> <vcpupin vcpu=\'0\' cpuset=\'9\'/> <vcpupin vcpu=\'1\' cpuset=\'37\'/> <vcpupin vcpu=\'2\' cpuset=\'11\'/> <vcpupin vcpu=\'3\' cpuset=\'39\'/> <vcpupin vcpu=\'4\' cpuset=\'34\'/> <vcpupin vcpu=\'5\' cpuset=\'6\'/> <emulatorpin cpuset=\'6,9,11,34,37,39\'/> </cputune>
vCPU 分别绑定在 host 上 logical cpu 的 6,9,11,34,37,39 上。
2) 查看 host 上对应 logical cpu 的使用情况:
[root@lianhua home]# ps -eLo ruser,pid,ppid,lwp,psr,args | grep qemu | grep -v grep ... [root@lianhua home]# ps -eLo ruser,pid,ppid,lwp,psr,args | awk \'{if($5==37) print $0}\' root 193 2 193 37 [watchdog/37] root 194 2 194 37 [migration/37] root 195 2 195 37 [ksoftirqd/37] root 196 2 196 37 [kworker/37:0] root 197 2 197 37 [kworker/37:0H] root 145760 2 145760 37 [kworker/37:1] qemu 879955 1 880096 37 /usr/libexec/qemu-kvm -name guest=lianhua ...
第一行命令输出 qemu 创建的进程和线程情况。由于输出信息太多,这里直接省略了。
第二行输出指定 logical cpu 上运行的线程,以 37 号 cpu 为例,它上面运行了系统线程 watchdog,migration 等等,同时也运行了一个虚拟机的线程(该线程是 vCPU 线程,可在 qemu monitor 里使用 info cpus 查看线程和 vCPU 的映射关系),且该线程的进程是 879955,该进程即使创建的虚拟机的 qemu 进程。
最后,查看 host 上其它 logical cpu 是否有调度到 vCPU 线程:
[root@lianhua home]# ps -eLo ruser,pid,ppid,lwp,psr,args | awk \'{if($5==40) print $0}\' root 208 2 208 40 [watchdog/40] root 209 2 209 40 [migration/40] root 210 2 210 40 [ksoftirqd/40] root 212 2 212 40 [kworker/40:0H] root 390900 2 390900 40 [kworker/40:0] root 673792 2 673792 40 [kworker/40:1] root 674097 2 674097 40 [kworker/40:1H] [root@lianhua home]# ps -eLo ruser,pid,ppid,lwp,psr,args | awk \'{if($5==41) print $0}\' root 213 2 213 41 [watchdog/41] root 214 2 214 41 [migration/41] root 215 2 215 41 [ksoftirqd/41] root 216 2 216 41 [kworker/41:0] root 217 2 217 41 [kworker/41:0H]
没有调度到 vCPU 线程,说明虚拟机里 vCPU 成功绑定到 logical cpu。