ubuntu cgroup使用

来源:互联网 发布:java常用算法手册宋娟 编辑:程序博客网 时间:2024/05/19 06:16


”Cgroups是control groups的缩写,最初由Google工程师提出,后来编进linux内核。

Cgroups是实现IaaS虚拟化(kvm、lxc等),PaaS容器沙箱(Docker等)的资源管理控制部分的底层基础。“

#ubuntu cgroup安装
sudo apt-get install cgroup-bin

#cgroup 启动/停止
sudo service cgconfig start/stop


#cgroup 目录
/sys/fs/cgroup


#cgroup 配置文件
/etc/cgconfig.conf


#配置
mount {  
        cpuset = /sys/fs/cgroup/cpuset;  
        net_cls = /sys/fs/cgroup/net_cls;  
        blkio = /sys/fs/cgroup/blkio;  
        perf_event = /sys/fs/cgroup/perf_event;  
        cpu = /sys/fs//cgroup/cpu;  
        cpuacct = /sys/fs/cgroup/cpuacct;  
        devices = /sys/fs/cgroup/devices;  
        memory = /sys/fs/cgroup/memory;  
        freezer = /sys/fs/cgroup/freezer;  

}

cpu.cfs_period_us和cpu.cfs_quota_us来限制该组中的所有进程在单位时间里可以使用的cpu时间。这里的cfs是完全公平调度器的缩写。cpu.cfs_period_us就是时间周期(微秒),默认为100000,即百毫秒。cpu.cfs_quota_us就是在这期间内可使用的cpu时间(微秒),默认-1,即无限制。(cfs_quota_us是cfs_period_us的两倍即可限定在双核上完全使用)。

百度私有PaaS云就是使用轻量的cgoups做的应用之间的隔离,以下是关于百度架构师许立强,对于虚拟机VM,应用沙盒,cgroups技术选型的理解

 

本文用脚本运行示例进程,来验证Cgroups关于cpu、内存、io这三部分的隔离效果。

启动Cgroups

service cgconfig start   #开启cgroups服务

在/cgroup,有如下文件夹,默认是多挂载点的形式,即各个子系统的配置在不同的子文件夹下

[root@localhost /]# ls /sys/fs/cgroup/blkio  cpu  cpuacct  cpuset  devices  freezer  memory  net_cls

 

cgroups管理进程cpu资源

跑一个耗cpu的脚本

x=0while [ True ];do    x=$x+1done;

top可以看到这个脚本基本占了100%的cpu资源

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND          30142 root      20   0  104m 2520 1024 R 99.7  0.1  14:38.97 sh

下面用cgroups控制这个进程的cpu资源

mkdir -p /sys/fs/cgroup/cpu/foo/   #新建一个控制组fooecho 50000 > /sys/fs/cgroup/cpu/foo/cpu.cfs_quota_us  #将cpu.cfs_quota_us设为50000,相对于cpu.cfs_period_us的100000是50%echo 30142 > /sys/fs/cgroup/cpu/foo/tasks

然后top的实时统计数据如下,cpu占用率将近50%,看来cgroups关于cpu的控制起了效果

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                         30142 root      20   0  105m 2884 1024 R 49.4  0.2  23:32.53 sh 

cpu控制组foo下面还有其他的控制,还可以做更多其他的关于cpu的控制

[root@localhost ~]# ls /sys/fs/cgroup/cpu/foo/cgroup.event_control  cgroup.procs  cpu.cfs_period_us  cpu.cfs_quota_us  cpu.rt_period_us  cpu.rt_runtime_us  cpu.shares  cpu.stat  notify_on_release  tasks


cgroups管理进程内存资源

跑一个耗内存的脚本,内存不断增长

x="a"while [ True ];do    x=$x$xdone;

top看内存占用稳步上升

  PID USER      PR  NI  VIRT  RES  SHR S %CPU %MEM    TIME+  COMMAND                                                                                         30215 root      20   0  871m 501m 1036 R 99.8 26.7   0:38.69 sh  30215 root      20   0 1639m 721m 1036 R 98.7 38.4   1:03.99 sh 30215 root      20   0 1639m 929m 1036 R 98.6 49.5   1:13.73 sh

下面用cgroups控制这个进程的内存资源

mkdir -p /sys/fs/cgroup/memory/fooecho 1048576 >  /sys/fs/cgroup/memory/foo/memory.limit_in_bytes   #分配1MB的内存给这个控制组echo 30215 > /sys/fs/cgroup/memory/foo/tasks  

发现之前的脚本被kill掉

[root@localhost ~]# sh /home/test.sh 已杀死

因为这是强硬的限制内存,当进程试图占用的内存超过了cgroups的限制,会触发out of memory,导致进程被kill掉。

实际情况中对进程的内存使用会有一个预估,然后会给这个进程的限制超配50%比如,除非发生内存泄露等异常情况,才会因为cgroups的限制被kill掉。

也可以通过配置关掉cgroups oom kill进程,通过memory.oom_control来实现(oom_kill_disable 1),但是尽管进程不会被直接杀死,但进程也进入了休眠状态,无法继续执行,仍让无法服务。

关于内存的控制,还有以下配置文件,关于虚拟内存的控制,以及权值比重式的内存控制等


[root@localhost /]# ls /sys/fs/cgroup/memory/foo/cgroup.event_control  memory.force_empty         memory.memsw.failcnt             memory.memsw.usage_in_bytes      memory.soft_limit_in_bytes  memory.usage_in_bytes  taskscgroup.procs          memory.limit_in_bytes      memory.memsw.limit_in_bytes      memory.move_charge_at_immigrate  memory.stat                 memory.use_hierarchymemory.failcnt        memory.max_usage_in_bytes  memory.memsw.max_usage_in_bytes  memory.oom_control               memory.swappiness           notify_on_release

 

cgroups管理进程io资源

跑一个耗io的脚本

 dd if=/dev/sda of=/dev/null &

通过iotop看io占用情况,磁盘速度到了284M/s

30252 be/4 root      284.71 M/s    0.00 B/s  0.00 %  0.00 % dd if=/dev/sda of=/dev/null  

下面用cgroups控制这个进程的io资源

mkdir -p /sys/fs/cgroup/blkio/fooecho '8:0   1048576' >  /sys/fs/cgroup/blkio/foo/blkio.throttle.read_bps_device#8:0对应主设备号和副设备号,可以通过ls -l /dev/sda查看echo 30252 > /sys/fs/cgroup/blkio/foo/tasks

再通过iotop看,确实将读速度降到了1M/s

30252 be/4 root      993.36 K/s    0.00 B/s  0.00 %  0.00 % dd if=/dev/sda of=/dev/null  

对于io还有很多其他可以控制层面和方式,如下


[root@localhost ~]# ls /sys/fs/cgroup/blkio/foo/blkio.io_merged         blkio.io_serviced      blkio.reset_stats                blkio.throttle.io_serviced       blkio.throttle.write_bps_device   blkio.weight          cgroup.procsblkio.io_queued         blkio.io_service_time  blkio.sectors                    blkio.throttle.read_bps_device   blkio.throttle.write_iops_device  blkio.weight_device   notify_on_releaseblkio.io_service_bytes  blkio.io_wait_time     blkio.throttle.io_service_bytes  blkio.throttle.read_iops_device  blkio.time                        cgroup.event_control  tasks

 

参考博文:

Cgroup与LXC简介

用cgroups管理cpu资源

百度社区私有云经验分享

 

0 0