VPS参考测评推荐
专注分享VPS主机优惠信息
衡天云优惠活动
华纳云最新优惠促销活动
jtti最新优惠促销活动

便宜国外vps论坛_为ZFS zpool添加固态硬盘缓存 ZIL写缓存|ARC写缓存

locvps
主机参考:VPS测评参考推荐/专注分享VPS服务器优惠信息!若您是商家可以在本站进行投稿,查看详情!此外我们还提供软文收录、PayPal代付、广告赞助等服务,查看详情!
我们发布的部分优惠活动文章可能存在时效性,购买时建议在本站搜索商家名称可查看相关文章充分了解该商家!若非中文页面可使用Edge浏览器同步翻译!PayPal代付/收录合作
原文说:https://www.liujason.com/article/800.html

新建loop虚拟
本地磁盘就是NVME的,如果可以重新分区那是最好,不过我这里嫌麻烦就直接用loop虚拟盘了,性能会差一点点但是不会太多(毕竟本地已经格式化为Ext4了)。

创建镜像文件
大家都喜欢用dd,不过fallocate我觉得更舒服。这里新建两个镜像文件,分别是读缓存和写缓存的说:

  1. root@HPC-HEL1-S101 /home # fallocate -l 300G zfs-log-cache.img
  2. root@HPC-HEL1-S101 /home # fallocate -l 300G zfs-read-cache.img

复制代码

要注意的是,读缓存损坏后数据不会丢失,写缓存损坏的话会导致数据丢失,慎用!

挂载loop
这个没啥好说的,用losetup即可说:

  1. root@HPC-HEL1-S101 /home # losetup -fP zfs-log-cache.img
  2. root@HPC-HEL1-S101 /home # losetup -fP zfs-read-cache.img

复制代码

检查挂载情况

  1. root@HPC-HEL1-S101 /home # losetup -a
  2. /dev/loop1: [66306]:37691140 (/home/zfs-log-cache.img)
  3. /dev/loop2: [66306]:37691139 (/home/zfs-read-cache.img)
  4. /dev/loop0: [66306]:52272397 (/var/lib/vz/images/100/vm-100-disk-0.raw)
  5. root@HPC-HEL1-S101 /home # lsblk
  6. NAME        MAJ:MIN RM   SIZE RO TYPE MOUNTPOINT
  7. loop0         7:0    0    64G  0 loop
  8. loop1         7:1    0   300G  0 loop
  9. loop2         7:2    0   300G  0 loop

复制代码

添加到zpool
查看zpool
首先检查一下zpool的情况说:

  1. root@HPC-HEL1-S101 /home # zpool status
  2.   pool: Hel1-S101
  3. state: ONLINE
  4.   scan: none requested
  5. config:
  6.         NAME        STATE     READ WRITE CKSUM
  7.         Hel1-S101   ONLINE       0     0     0
  8.           raidz1-0  ONLINE       0     0     0
  9.             sda     ONLINE       0     0     0
  10.             sdb     ONLINE       0     0     0
  11.             sdc     ONLINE       0     0     0
  12.             sdd     ONLINE       0     0     0
  13.             sde     ONLINE       0     0     0
  14.             sdf     ONLINE       0     0     0
  15.             sdg     ONLINE       0     0     0
  16.             sdh     ONLINE       0     0     0
  17.             sdi     ONLINE       0     0     0
  18.             sdj     ONLINE       0     0     0
  19. errors: No known data errors

复制代码

添加缓存
分别添加缓存和写缓存说:

  1. root@HPC-HEL1-S101 /home # zpool add Hel1-S101 log /dev/loop1
  2. root@HPC-HEL1-S101 /home # zpool add Hel1-S101 cache /dev/loop2

复制代码

检查缓存情况

  1. root@HPC-HEL1-S101 /home # zpool status
  2.   pool: Hel1-S101
  3. state: ONLINE
  4.   scan: none requested
  5. config:
  6.         NAME        STATE     READ WRITE CKSUM
  7.         Hel1-S101   ONLINE       0     0     0
  8.           raidz1-0  ONLINE       0     0     0
  9.             sda     ONLINE       0     0     0
  10.             sdb     ONLINE       0     0     0
  11.             sdc     ONLINE       0     0     0
  12.             sdd     ONLINE       0     0     0
  13.             sde     ONLINE       0     0     0
  14.             sdf     ONLINE       0     0     0
  15.             sdg     ONLINE       0     0     0
  16.             sdh     ONLINE       0     0     0
  17.             sdi     ONLINE       0     0     0
  18.             sdj     ONLINE       0     0     0
  19.         logs
  20.           loop1     ONLINE       0     0     0
  21.         cache
  22.           loop2     ONLINE       0     0     0
  23. errors: No known data errors

复制代码

缓存效果
用zpool iostat -v可以明显看到SSD的读写缓存已经生效了,后续热文件将直接从cache中读取,降低机械盘的负载。

  1. root@HPC-HEL1-S101 ~ # zpool iostat -v
  2.               capacity     operations     bandwidth
  3. pool        alloc   free   read  write   read  write
  4. ———-  —–  —–  —–  —–  —–  —–
  5. Hel1-S101    132G  90.8T      0     89  3.30K  1.91M
  6.   raidz1     132G  90.8T      0     81  3.30K   991K
  7.     sda         –      –      0      8    333  99.5K
  8.     sdb         –      –      0      7    315  98.6K
  9.     sdc         –      –      0      8    349  99.6K
  10.     sdd         –      –      0      7    334  98.7K
  11.     sde         –      –      0      8    362  99.7K
  12.     sdf         –      –      0      8    326  98.7K
  13.     sdg         –      –      0      8    354  99.6K
  14.     sdh         –      –      0      8    328  98.6K
  15.     sdi         –      –      0      8    349  99.6K
  16.     sdj         –      –      0      8    322  98.5K
  17. logs            –      –      –      –      –      –
  18.   loop1     11.8M   298G      0     10      8  1.21M
  19. cache           –      –      –      –      –      –
  20.   loop2      224M   300G      0      0     49  81.3K
  21. ———-  —–  —–  —–  —–  —–  —–

复制代码

fio测试-16k文件随机
测试代码说:fio -filename=/Hel1-S101/fiotest.bin -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=16k -size=10G -numjobs=30 -runtime=10 -group_reporting -name=zfs-cache-test

  1. Jobs: 30 (f=30): [w(30)][100.0%][w=153MiB/s][w=9782 IOPS][eta 00m:00s]
  2. zfs-cache-test: (groupid=0, jobs=30): err= 0: pid=21034: Thu Jun  4 18:49:56 2020
  3.   write: IOPS=11.1k, BW=173MiB/s (182MB/s)(1734MiB/10002msec); 0 zone resets
  4.     clat (usec): min=5, max=88218, avg=2700.66, stdev=2176.33
  5.      lat (usec): min=6, max=88218, avg=2700.98, stdev=2176.36
  6.     clat percentiles (usec):
  7.      |  1.00th=[   10],  5.00th=[   45], 10.00th=[   52], 20.00th=[  816],
  8.      | 30.00th=[ 1696], 40.00th=[ 2311], 50.00th=[ 2737], 60.00th=[ 3130],
  9.      | 70.00th=[ 3556], 80.00th=[ 3982], 90.00th=[ 4883], 95.00th=[ 6063],
  10.      | 99.00th=[ 7373], 99.50th=[ 8291], 99.90th=[18220], 99.95th=[26346],
  11.      | 99.99th=[53740]
  12.    bw (  KiB/s): min= 3552, max=40271, per=3.33%, avg=5913.96, stdev=4550.90, samples=592
  13.    iops        : min=  222, max= 2516, avg=369.60, stdev=284.39, samples=592
  14.   lat (usec)   : 10=1.10%, 20=0.79%, 50=7.09%, 100=5.98%, 250=2.23%
  15.   lat (usec)   : 500=0.92%, 750=1.26%, 1000=3.18%
  16.   lat (msec)   : 2=11.54%, 4=46.17%, 10=19.38%, 20=0.29%, 50=0.07%
  17.   lat (msec)   : 100=0.01%
  18.   cpu          : usr=0.16%, sys=2.21%, ctx=205649, majf=0, minf=0
  19.   IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
  20.      submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
  21.      complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
  22.      issued rwts: total=0,110988,0,0 short=0,0,0,0 dropped=0,0,0,0
  23.      latency   : target=0, window=0, percentile=100.00%, depth=1
  24. Run status group 0 (all jobs):
  25.   WRITE: bw=173MiB/s (182MB/s), 173MiB/s-173MiB/s (182MB/s-182MB/s), io=1734MiB (1818MB), run=10002-10002msec

复制代码

fio测试-大文件1G连续
测试代码说:fio -filename=/Hel1-S101/fiotest.bin -direct=1 -iodepth 1 -thread -rw=randwrite -ioengine=psync -bs=1G -size=20G -numjobs=30 -runtime=10 -group_reporting -name=zfs-cache-test

  1. zfs-cache-test: (groupid=0, jobs=30): err= 0: pid=6117: Thu Jun  4 18:52:20 2020
  2.   write: IOPS=0, BW=785MiB/s (823MB/s)(30.0GiB/39131msec); 0 zone resets
  3.     clat (msec): min=14642, max=38803, avg=24851.81, stdev=8958.50
  4.      lat (msec): min=14770, max=39124, avg=25138.77, stdev=8987.50
  5.     clat percentiles (msec):
  6.      |  1.00th=[14697],  5.00th=[14697], 10.00th=[14832], 20.00th=[15771],
  7.      | 30.00th=[16174], 40.00th=[16845], 50.00th=[17113], 60.00th=[17113],
  8.      | 70.00th=[17113], 80.00th=[17113], 90.00th=[17113], 95.00th=[17113],
  9.      | 99.00th=[17113], 99.50th=[17113], 99.90th=[17113], 99.95th=[17113],
  10.      | 99.99th=[17113]
  11.   cpu          : usr=0.54%, sys=1.83%, ctx=264186, majf=0, minf=0
  12.   IO depths    : 1=100.0%, 2=0.0%, 4=0.0%, 8=0.0%, 16=0.0%, 32=0.0%, >=64=0.0%
  13.      submit    : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
  14.      complete  : 0=0.0%, 4=100.0%, 8=0.0%, 16=0.0%, 32=0.0%, 64=0.0%, >=64=0.0%
  15.      issued rwts: total=0,30,0,0 short=0,0,0,0 dropped=0,0,0,0
  16.      latency   : target=0, window=0, percentile=100.00%, depth=1
  17. Run status group 0 (all jobs):
  18.   WRITE: bw=785MiB/s (823MB/s), 785MiB/s-785MiB/s (823MB/s-823MB/s), io=30.0GiB (32.2GB), run=39131-39131msec

复制代码

各路大神回复说:

注册说: 拿SSD的生命换HDD的速度

StudyOverseas说: 感谢分享。 与其说拿SSD的生命来换速度,准确的说,是拿钱来换速度,为速度而做的投资未尝不可。 只是如果logcache放在和系统同一相物理磁盘上,SSD坏了会显得比较麻烦

主机参考zhujicankao.com_收集国内VPSVPS测评主机测评云服务器虚拟主机独立服务器国内服务器高性价比建站主机相关优惠信息
详细介绍和测评国外VPS主机,云服务器,国外服务器,国外主机的相关优惠信息,商家背景,网络带宽等等,也是目前国内最好的主机云服务器VPS参考测评资讯优惠信息分享平台

这几篇文章你可能也喜欢:

本文由主机参考刊发,转载请注明:便宜国外vps论坛_为ZFS zpool添加固态硬盘缓存 ZIL写缓存|ARC写缓存 https://zhujicankao.com/33533.html

【腾讯云】领8888元采购礼包,抢爆款云服务器 每月 9元起,个人开发者加享折上折!
打赏
转载请注明原文链接:主机参考 » 便宜国外vps论坛_为ZFS zpool添加固态硬盘缓存 ZIL写缓存|ARC写缓存
主机参考仅做资料收集,不对商家任何信息及交易做信用担保,购买前请注意风险,有交易纠纷请自行解决!请查阅:特别声明

评论 抢沙发

评论前必须登录!