将设为首页浏览此站
开启辅助访问 天气与日历 收藏本站联系我们切换到窄版

易陆发现论坛

 找回密码
 开始注册
查看: 57|回复: 3
收起左侧

ceph 15.2版本pg autoscaler PG自动伸缩

[复制链接]
发表于 2023-1-9 08:29:39 | 显示全部楼层 |阅读模式

马上注册,结交更多好友,享用更多功能,让你轻松玩转社区。

您需要 登录 才可以下载或查看,没有帐号?开始注册

x
使能pg_autoscaler:
/ Y+ o5 Y; a* q( p! |2 Nceph mgr module enable pg_autoscaler
) c$ C  w7 p% u+ O查看PG自动伸缩状态:( ~8 K2 m, V& ?4 R/ g
2 ?  C, e9 @! f3 a0 |) c: e

3 K1 V. J1 B* s) O% }设置PG自动伸缩:(ceph osd pool set pool_name pg_autoscale_mode on)+ g6 H0 f' @) U3 h- ]
ceph osd pool set testpool pg_autoscale_mode on* Y  ~6 H1 Z# ?* U7 w
ceph config set global osd_pool_default_pg_autoscale_mode <mode>
) m1 W. [/ @- e1 n( V2 E: S8 i
  Z' T0 g* g8 ^& e" b如果您希望一个池相对于其他池消耗更多的集群容量,请使用 target_size_ratio 设置。
% g9 }+ s' `' p" t+ ?: ]& o# p可以使用target_size_ratio设置指定池的目标比率。如果您知道某个池相对于其他池应该具有一定的比率,则此设置特别有用。除非另有说明,否则每个池的目标比率默认应为 0。您给池的目标比率越高,您期望池中的 PG 就越大。0 \: P7 V+ R7 s! y
* o. M! i3 v- D1 x5 E; J, J
3 D; w  [4 w0 q
要检查池的目标比率,请使用osd pool autoscale-status并查看TARGET RATIO列。target_size_ratio可以使用ceph osd pool set <pool_name> target_size_ratio <ratio>进行调整。- |! d! x1 X/ |) M7 K
要在创建池期间设置target_size_ratio,请使用ceph osd pool create --target-size-ratio <ratio>。5 ~+ @" W  J2 X7 T4 r' O- W
/ m/ n) @, A$ u8 R; @/ d
使用 noautoscale 标志全局切换所有池的自动缩放器。5 e* E& [9 g% w! G( l3 f9 a8 b5 ^
现在可以为所有带有noautoscale标志的池全局打开和关闭自动缩放器。
5 l' ~8 S: q/ q默认情况下,此标志设置为 false,并且每个池的默认pg_autoscale模式(即 )on保持相同。( D9 f$ [% y; ?1 t4 b: j& O# X% B

$ e: `/ d$ ]0 g% S  b: g5 a如果要为每个池打开自动缩放器,请使用ceph osd pool unset noautoscale。如果要为每个池关闭自动缩放器,请使用ceph osd pool set noautoscale。要获取 noautoscale 标志的当前值,请使用ceph osd pool get noautoscale。
/ ]0 F# [# L1 y2 s+ h+ n* i* \5 b1 O! m) E
使用bias来帮助自动缩放器准确调整 PG 的数量。
; s, ]$ G8 S% V5 ?* r4 C( W偏差是一个乘数,用于根据有关该池的预期 PG 数量的信息手动调整池的 PG。默认情况下,偏差值应为 1.0,除非另有说明。你给池的偏差越大,你期望池中的 PG 就越大。
# m/ a5 |& [2 _! b7 {2 n
" Z' {7 C4 A2 a9 R) o2 L. k要检查池中的bias值,请使用osd pool autoscale-status并查看BIAS列。要在现有池上设置bias ,请使用ceph osd pool set <pool_name> pg_autoscale_bias <bias>。
% O' j* h4 T& N- l% R$ D) }2 |  I4 D% e
如果您提前知道池的使用率,请在创建池之前使用 pg_num 选项。
' C; ?1 O+ I8 m* y0 j; D首次创建集群或池时,仅消耗一小部分集群容量。因此,您的系统可能会低估集群或池所需的 PG 数量。如果您提前知道集群或池的使用率,请在创建池之前使用该pg_num选项。这将帮助您的集群提前计入适当数量的 PG。
. V# q' _" U. R
9 w: U. w8 \; E% {( b) ^: X4 {5 Q要检查池的pg_num值,请使用ceph osd pool autoscale-status并查看PG_NUM列。要指定创建池时设置pg_num,请使用ceph osd pool create <pool_name> <pg_num>。要设置池中允许的最小 pg 数,请使用ceph osd pool set <pool-name> pg_num_min <pg_num>。 要设置池中允许的最大 pg 数,请使用ceph osd pool set <pool-name> pg_num_max <pg_num>。
+ M+ Y7 n% |% a, u$ _" t$ i/ X& w# c; h' [+ Z
使用 pg_num_max 值设置池中的最大 PG 数。
+ h( n8 l6 j4 @+ s9 S- f7 T可以指定池中的最大 PG 数。这在创建较小的池(例如 .mgr、元池或不带--bulk标志的池)时很有用。+ K& f' Z) N0 p1 P
! N5 J. e, m2 K2 f- q. ]6 f6 N
要在创建池时指定最大 PG 计数,请在命令中使用可选--pg-num-max <num>参数。ceph osd pool create创建池后,使用ceph osd pool set <pool-name> pg_num_max <num>进行设置。
/ E$ {. j- a; i& s, z  y* r4 {" |/ e9 Q1 N. H) Y9 U$ V: u) E. A
使用 pg_num_min 值设置池中的最小 PG 数。& `$ B! s. K- w0 j; U5 `* C+ E: `
同样,我们可以指定一个池中的最小 PG 数。当我们想要客户端在执行 IO 时看到的并行量的下限时,这是有利的,即使池大部分是空的。这在创建更大的池(例如设置了--bulk标志的池)时很有用。
& ^9 P3 \2 U  w3 M9 m/ R
" F1 d. f2 a& [* W+ |要在创建池时指定最小 PG 计数,请在命令中使用可选--pg-num-min <num>参数。ceph osd pool create创建池后,使用ceph osd pool set <pool-name> pg_num_min <num>进行设置。, v" U/ P* D. y% M
5 w2 m1 W; u3 @. o- [
* z5 Q  Y4 e/ _; L2 H; q7 D7 O" K
设置目标ratio:2 {8 W" G5 F8 d2 \% j
ceph osd pool set volumes target_size_ratio .8
2 s% b# B; i1 \查看是否开启:
9 Y! q" o! x  `+ ~+ r8 c4 C* w
" Q, O  @# a/ u7 `" C; Z* H; j  G" q$ a& C  ]

( ?" |  b! Y) f3 ?; d  {$ Q4 f/ z2 c; ], M4 U
1 }# S& G0 ?& n3 z9 g1 {' u* v
2 f0 Q; j1 w. Z  g# F' g! H8 L
8 I! I( C% m! X# p- E% l3 y

, b2 N% o3 i' @+ W% n8 B% D
 楼主| 发表于 2023-1-9 09:05:26 | 显示全部楼层
关闭自动伸缩:' s5 X+ w2 _, f- O  S( D
ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode off
, e# o1 O1 ^: Q- Hset pool 6 pg_autoscale_mode to off
; D& |* q1 \# ]/ `7 M- w开启自动伸缩:+ i: I9 b: I) c# v8 z6 s0 O( Y7 H
[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode on
8 m4 Z1 t9 _0 i- hset pool 6 pg_autoscale_mode to on
6 h! e7 c. ^5 l* I9 |8 ?" ~
8 ?) x% a% Z7 A+ m# ]8 J8 H  i! _/ z! Z' `& v0 k# V4 T
[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode off
3 `# D) W+ M# s2 ~1 h" Xset pool 6 pg_autoscale_mode to off
- m& `- h8 l" Y0 Y[root@ceph1 ~]# ceph osd pool ls detail 5 g5 ^% U+ N& J7 m7 k5 \. R
pool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
, F3 F5 P1 b% hpool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw+ ~4 u$ t$ U6 m& q5 v
pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw
; a* J! @/ j0 Lpool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw1 t) z+ }& D3 l/ S2 c- D% C6 t
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 156 lfor 0/156/154 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw0 b2 _$ R3 Y/ E, E, i
pool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode off last_change 376 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs
, {' T' a# p; @7 c: x  X9 Ipool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs2 I/ K0 r2 y% A5 Q
pool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw& a; X  ^+ h, i# x& ^
# s2 \' Y) ~- M) |' w
[root@ceph1 ~]# ceph osd pool set cephfs.cephfs.meta pg_autoscale_mode on2 `1 \% v0 A4 r
set pool 6 pg_autoscale_mode to on
0 G. i7 q% ~! o5 e[root@ceph1 ~]# ceph osd pool ls detail
/ M" \5 O# O: [! K3 U6 a/ Kpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth& z$ t, E: i1 P! K' t- K  M
pool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw
+ i- {+ m$ W9 @. A" H: Npool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw
. X# }5 s; y' K: f( s$ ^6 Wpool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw4 l* _5 t0 L+ j9 u0 O% M) V
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 156 lfor 0/156/154 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw; b+ W( A" V1 x% f0 c' U; I
pool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs, a2 u6 ]. U: ]# R) ?1 N) b- N
pool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs
" u: ~: n# f/ k% Y: s7 _- U% M7 Jpool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
! D# ?( `2 {, v( W( ~2 p  n
& ~% r( w% Q' h- j; S7 x) D9 g
 楼主| 发表于 2023-1-9 09:07:39 | 显示全部楼层
调整pool的pg数之后我们观察到的变化如下:6 L- ~, i2 t9 P( u6 C/ G
[root@ceph1 ~]# ceph osd pool set default.rgw.meta pg_num 645 t/ y  M0 E+ ?) l4 h* H
set pool 5 pg_num to 64
3 Y, {0 I, C/ m- \+ S! m[root@ceph1 ~]# ceph osd pool set default.rgw.meta pgp_num 64" H% |7 q' j- n
set pool 5 pgp_num to 64
; A  u1 e# q- u
7 \8 J& k/ L$ a, ], E% ?7 C6 f此时的状态:
; i* q% r6 `* F9 Z[root@ceph1 ~]# ceph -s
( V- E8 j% ~" b  S% g5 {  cluster:1 ?( M( A/ j6 Q: A( N8 T
    id:     433d3d2a-8e4a-11ed-b84b-000c29377297: E- J! ?3 R. x
    health: HEALTH_OK
' z! d) U9 U0 Q1 J$ f
# B$ L/ Q0 a) @# u5 b5 f( I  services:
) B+ x. `" ]1 [, A7 [# J- D    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 4m)
, `; f6 z/ K4 U' t    mgr: ceph2.twhubv(active, since 3m), standbys: ceph1.zmducz, ceph3.dkkmft
+ V9 J$ {, ~7 t! `0 K* ]    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby/ V  ~& O% F! G- D) i7 V) Q9 k
    osd: 3 osds: 3 up (since 3m), 3 in (since 11h)% ]" Q  `6 y8 q( u4 l5 |  `
    rgw: 3 daemons active (ceph1, ceph2, ceph3)# I, J, k. Q2 G% H9 s
, V6 Y% j2 `2 J  X/ r, m: v
  task status:
( _/ R9 \- v9 Y6 i6 Q6 F
1 n# r9 }7 g* s# \0 `! w  data:
2 ?+ z4 d( l) A0 b    pools:   8 pools, 233 pgs
' ~! Q7 q; {- b9 O5 p    objects: 240 objects, 157 KiB6 H% c- i) W  z
    usage:   3.0 GiB used, 57 GiB / 60 GiB avail
" `& J2 U$ k% w4 Q2 a    pgs:     233 active+clean* W7 u7 @; `' k! b- p3 F5 p6 E& Q
7 z1 {5 V% Q# \. p9 V# Y

  R3 v. }/ N6 d
6 Y& x6 F" u. L) ~, a6 ?1 e" O- P+ G0 U4 C
pgs到达某个值:
" X+ f0 `+ c/ J6 h  s) g
- V+ @% `# |/ s# E& h4 z. A
3 ^: \- B: A1 i# ?- X1 Z8 E查看pool池的详细记录:
# k9 o3 k! \$ v0 Q$ u
3 h4 A3 L2 j' l9 \- r2 Y[root@ceph1 ~]# ceph osd pool ls detail
! L: q" R1 ~  Vpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
9 x7 M1 H! @7 I' m7 `pool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw8 r' H' u& U! U1 P& G5 D4 j) c
pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw0 [2 b# c7 r3 \6 r9 U7 S. d
pool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw
3 f  c, \2 R/ S% npool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 64 pgp_num 64 autoscale_mode on last_change 381 lfor 0/156/379 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
. ~6 ^. Q5 E/ D0 H1 @8 V1 ~pool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs
* v' ^; {1 g1 e$ G0 G+ `" [pool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs
/ }1 J% o9 K1 W: Fpool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw* v$ W4 G1 ]! ]  s6 ]

% ~* t! {! c  i发生变化,pg开始下降:0 `3 H( B" Y, }7 E
[root@ceph1 ~]# ceph osd pool ls detail
' S3 |$ P' r5 t8 xpool 1 'device_health_metrics' replicated size 2 min_size 1 crush_rule 0 object_hash rjenkins pg_num 1 pgp_num 1 autoscale_mode on last_change 375 flags hashpspool,selfmanaged_snaps stripe_width 0 pg_num_min 1 application mgr_devicehealth
, T2 u* [9 v- ]! e5 X5 Vpool 2 '.rgw.root' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 35 flags hashpspool stripe_width 0 application rgw! v4 h& s, k" m, O, ~' ?3 X+ [7 e
pool 3 'default.rgw.log' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 37 flags hashpspool stripe_width 0 application rgw
% j( |7 D$ G9 F. @pool 4 'default.rgw.control' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 39 flags hashpspool stripe_width 0 application rgw9 G; z3 d( ]6 W3 t" m- E
pool 5 'default.rgw.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 61 pgp_num 59 pg_num_target 8 pgp_num_target 8 autoscale_mode on last_change 400 lfor 0/400/398 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
% a5 k" E2 ]+ \, V/ fpool 6 'cephfs.cephfs.meta' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 377 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 16 recovery_priority 5 application cephfs
( u: w# N4 ]; d  T( zpool 7 'cephfs.cephfs.data' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 32 pgp_num 32 autoscale_mode on last_change 163 flags hashpspool stripe_width 0 application cephfs8 M3 T, k7 ^, ?6 `+ E3 @# @
pool 8 'default.rgw.buckets.index' replicated size 3 min_size 2 crush_rule 0 object_hash rjenkins pg_num 8 pgp_num 8 autoscale_mode on last_change 297 lfor 0/297/295 flags hashpspool stripe_width 0 pg_autoscale_bias 4 pg_num_min 8 application rgw
6 ^) Z$ S5 R1 T. ?
  K3 }8 e* v) q, Q: K, m+ |状态pgs也在下降:* c/ ]. `% W8 X2 {- {
[root@ceph1 ~]# ceph -s. h3 b; Y7 Z, b; `
  cluster:
# q5 b7 Q, j6 n8 A2 R, D& o6 z6 Q    id:     433d3d2a-8e4a-11ed-b84b-000c29377297; U  z7 e! P9 ]$ S
    health: HEALTH_OK
+ x: Z, i( M5 K7 D3 b& b
0 k2 E8 M! R/ m* b' ]1 Y  services:
. ]8 J' H) n; _    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 5m)
) w2 `6 L( r/ W1 M: k    mgr: ceph2.twhubv(active, since 4m), standbys: ceph1.zmducz, ceph3.dkkmft
& Z! J: |* {* A8 ]( n: D    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby2 g" P7 E& c8 _% h
    osd: 3 osds: 3 up (since 4m), 3 in (since 11h)8 z' q# i% E( u* b+ f
    rgw: 3 daemons active (ceph1, ceph2, ceph3)
, h/ s0 L" T6 N0 p/ s
+ |/ L/ n4 P% G3 W) `1 }  task status:2 U  ?4 M% ?! _6 V+ R% A( y* r

( Y) a  F2 B. N  data:
* E3 x! n; M, E/ T( _2 O    pools:   8 pools, 228 pgs
- [6 P. ^0 }$ R    objects: 240 objects, 157 KiB
: r3 N' J7 y7 x& }# f, u  A( T    usage:   3.0 GiB used, 57 GiB / 60 GiB avail/ T' o+ l2 n3 q* s, C6 n
    pgs:     228 active+clean
9 T) E% G& K3 _: b7 y& q
# J0 e  ?% j# t% I3 f9 M" I  progress:
; r/ ^# f3 n; V7 S/ S    PG autoscaler decreasing pool 5 PGs from 64 to 8 (0s)5 \( ~! M$ @: v2 j0 I- r
      [............................]
! o. l, L  i9 c0 R6 a% F7 J! e1 C
: u2 {+ P+ Y" n% X: v[root@ceph1 ~]# ceph -s
; z$ f2 l% H# |8 F2 ?2 S: S$ w  cluster:. {5 J3 N6 I8 a, q& G2 F% F
    id:     433d3d2a-8e4a-11ed-b84b-000c29377297
& {$ F! c+ f8 l. G3 J" t: [    health: HEALTH_OK: {0 U! |3 D$ F; b2 j

4 q) i$ j8 H* \# w) Y; Y  services:
. P# p6 S2 F/ e- v    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 5m)
$ y( i: O8 z$ _: r) U    mgr: ceph2.twhubv(active, since 4m), standbys: ceph1.zmducz, ceph3.dkkmft1 h) ]' I+ u3 ?6 q
    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby
& H+ u! F/ S! m( ~    osd: 3 osds: 3 up (since 4m), 3 in (since 11h)+ f9 W6 i1 A4 T+ ]
    rgw: 3 daemons active (ceph1, ceph2, ceph3)
/ {' T  I) V1 T2 h) l( x9 a $ c) ?; O; L' C; k
  task status:
, P# A1 \- F& l, s: u' A * n( X: t. n1 K3 ]5 A. J; ~' X" G
  data:6 W& T. M/ X- l+ W. h8 m
    pools:   8 pools, 228 pgs
( G0 w( m: v" G+ h    objects: 240 objects, 157 KiB' n$ T) `# S, A. `; w
    usage:   3.0 GiB used, 57 GiB / 60 GiB avail
& F; Y8 N" U2 @  K    pgs:     228 active+clean
+ n9 V7 H! \' ]1 a# _! } 9 m. b2 w- o9 q
  progress:
4 {& i) U1 _9 n! c$ G' j/ l    PG autoscaler decreasing pool 5 PGs from 64 to 8 (0s)
# W! _2 J2 _6 V4 P( b& x      [............................] 1 Q+ `1 l% f2 z
2 Q& S- d: H8 _+ V
: }6 g. S3 k3 _! Q5 J% \8 P! @- ~
$ D& m  J1 w7 \# k! ~4 R0 D3 D
等待同步一会
2 W/ n3 y+ ?5 |% q7 l: c* |6 L[root@ceph1 ~]# ceph -s4 z) y1 A; i; ]
  cluster:
" d& V1 M& {' T# ?( n6 `, R9 D1 b    id:     433d3d2a-8e4a-11ed-b84b-000c293772979 j, m9 @6 I, N, T
    health: HEALTH_OK
# A* E, Y! G( p; ^
  q: w% m' D/ A5 v0 d" k  services:
, o& Y% A1 g- ]/ K5 C0 J% D. j# k    mon: 3 daemons, quorum ceph1,ceph2,ceph3 (age 10m)& A3 f1 u% ~- N; H3 L' B! t/ p
    mgr: ceph2.twhubv(active, since 9m), standbys: ceph1.zmducz, ceph3.dkkmft0 {( Q; ]2 |2 M4 _: }  C' V# R8 E
    mds: cephfs:1 {0=cephfs.ceph3.idylsu=up:active} 1 up:standby% Z& b4 m# F& Z1 Q; \
    osd: 3 osds: 3 up (since 9m), 3 in (since 11h)/ {- V% |; S" n) \) `# J5 V
    rgw: 3 daemons active (ceph1, ceph2, ceph3)8 ^7 g, j6 g5 {- [* F

: f) [/ v- y+ H4 l% `  {) j9 i  task status:2 H+ p' \) U  F) `! q! T, w0 D) A

  s0 @+ ?$ F& L$ N/ o+ K  data:% F: O! F3 _0 `: F5 |
    pools:   8 pools, 185 pgs
* O* ^; q0 }9 w1 \    objects: 240 objects, 157 KiB% x8 s5 c4 b" Q7 g0 j* v
    usage:   3.0 GiB used, 57 GiB / 60 GiB avail- P* j; N+ n$ h2 L; a/ u
    pgs:     185 active+clean
2 W+ Z5 {1 V. S. b* Q3 {/ W0 V! x& K
  progress:7 x% ?0 _) n4 i' \1 s1 D) U
    PG autoscaler decreasing pool 5 PGs from 64 to 8 (5m)4 U1 n2 c- R6 s$ f/ ]0 {
      [======================......] (remaining: 81s)
. g  P2 {4 ^2 l8 c0 G  I7 u4 i2 L+ G( U% R( L! @
自动下降到185。因为是虚机下降速度较慢。& ]# a. A  ]# t$ y" _
 楼主| 发表于 2023-1-9 09:37:11 | 显示全部楼层
[root@ceph1 ~]# ceph osd pool autoscale-status   x6 {5 `2 g: i' k
Error ENOTSUP: Module 'pg_autoscaler' is not enabled (required by command 'osd pool autoscale-status'): use `ceph mgr module enable pg_autoscaler` to enable it
+ X4 `) Z- A2 ~3 s; ^1 I  r7 Z[root@ceph1 ~]# ceph mgr module enable pg_autoscaler
2 U$ |1 D4 }, T[root@ceph1 ~]# ceph osd pool autoscale-status
& K& h* N- i9 Z5 A1 J) U, `5 J. n! tPOOL                  SIZE TARGET SIZE RATE RAW CAPACITY  RATIO TARGET RATIO EFFECTIVE RATIO BIAS PG_NUM NEW PG_NUM AUTOSCALE & w# ~4 Z) W) [7 L0 |+ t
default.rgw.meta      857               2.0        1799G 0.0000                               1.0     32            warn      
* `0 e+ ]0 |9 h& M) C3 udefault.rgw.control     0               2.0        1799G 0.0000                               1.0     32            warn      
0 \4 S: \+ ]2 v& E0 C; }.rgw.root            3653               2.0        1799G 0.0000                               1.0     32            warn      4 J: O* R3 h$ q3 x) O
ocs                 88467M              2.0        1799G 0.0960                               1.0    128         32 warn      
* u+ |  g! |- o+ P& x9 j3 u; q# V) J! mmetadata             7775               2.0        1799G 0.0000                               4.0     32            warn      
" \# n$ _, c1 S1 }default.rgw.log      3520               2.0        1799G 0.0000                               1.0     32            warn      2 @8 r5 \* T, a3 H/ s
cephfsdata              0               2.0        1799G 0.0000                               1.0     64            warn      ) }! E1 x7 ]( U" k, ~, H
[root@ceph1 ~]# ceph osd pool autoscale-status $ `/ u0 s( f# y# `
POOL                  SIZE TARGET SIZE RATE RAW CAPACITY  RATIO TARGET RATIO EFFECTIVE RATIO BIAS PG_NUM NEW PG_NUM AUTOSCALE
; g  j- M, M( c( G2 f9 Qdefault.rgw.meta      857               2.0        1799G 0.0000                               1.0     32            warn      
' ]) L3 R2 O# Q3 h5 b  rdefault.rgw.control     0               2.0        1799G 0.0000                               1.0     32            warn      " c0 H/ ]9 t5 q7 ?
.rgw.root            3653               2.0        1799G 0.0000                               1.0     32            warn      
; O2 _5 G/ Q+ S# wocs                 88467M              2.0        1799G 0.0960                               1.0    128         32 warn      ' o: ]- E* `9 S& P' `
metadata             7775               2.0        1799G 0.0000                               4.0     32            warn      6 K3 U  g$ [; G& I
default.rgw.log      3520               2.0        1799G 0.0000                               1.0     32            warn      
) U5 g% L* H- d; ecephfsdata              0               2.0        1799G 0.0000                               1.0     64            warn        p1 o6 v# ^4 n4 T, f4 O- r+ N
; d& i  N, }8 V( [) L
# j$ Z4 j5 c: W1 L5 J
  [" M3 c  E3 C/ S" q/ w
. S+ G6 b1 n3 I1 D6 d
设置目标ratio:$ [' c8 e! w/ S/ }( N) M
ceph osd pool set volumes target_size_ratio .8
, g5 t; u+ Y; t3 i* Y. a
+ Y! Z/ |* H% V  p  D: S2 K查看是否开启
5 ]% \. B0 d' S  P, c[root@ceph1 ~]# ceph osd pool autoscale-status * H6 E% m8 G: @
POOL                         SIZE  TARGET SIZE  RATE  RAW CAPACITY   RATIO  TARGET RATIO  EFFECTIVE RATIO  BIAS  PG_NUM  NEW PG_NUM  AUTOSCALE  ! |* j% a2 V) ^4 C7 T* w
device_health_metrics         19                 2.0        61428M  0.0000                                  1.0       1              on         5 d( X" c' c. w! ?" q2 R3 }  U! M
.rgw.root                   2110                 3.0        61428M  0.0000                                  1.0      32              on         
8 j4 j  G! ^+ |1 i- B! I" k6 k; rdefault.rgw.log             3583                 3.0        61428M  0.0000                                  1.0      32              on         
& F1 B8 Z0 w4 w& W; K& tdefault.rgw.control            0                 3.0        61428M  0.0000                                  1.0      32              on         
. S  K' P  G0 y2 }default.rgw.meta             829                 3.0        61428M  0.0000                                  4.0       8              on         ) d4 R) D5 U9 @+ m, V! @2 C5 s( [
cephfs.cephfs.meta         72392                 3.0        61428M  0.0000                                  4.0      16              on         & I. K; S% l  X0 |
cephfs.cephfs.data         131.2k                3.0        61428M  0.0000                                  1.0      32              on         
% J+ B5 @/ O1 Y& {& T. ndefault.rgw.buckets.index  96810                 3.0        61428M  0.0000                                  4.0       8              on       % T3 b! Y, ^, c9 l) M3 O
您需要登录后才可以回帖 登录 | 开始注册

本版积分规则

关闭

站长推荐上一条 /4 下一条

如有购买积分卡请联系497906712

QQ|返回首页|Archiver|手机版|小黑屋|易陆发现 点击这里给我发消息

GMT+8, 2023-2-9 13:56 , Processed in 0.046616 second(s), 22 queries .

Powered by LR.LINUX.cloud bbs168x X3.2 Licensed

© 2012-2022 Comsenz Inc.

快速回复 返回顶部 返回列表