Hi,
The same situation with Ceph 18.2.7:
# lsblk
NAME
MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sdb
8:16 0 605G 0 disk
├─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--92f3aa68--5ea9--45f0--9736--1e940e32a694
252:9 0 100G 0 lvm
├─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--05597602--be0a--4bef--ba6f--00f1fd6a00f8
252:11 0 100G 0 lvm
└─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--cd611225--b826--446d--ac9c--8fbea4c77cce
252:13 0 100G 0 lvm
sdc
8:32 0 605G 0 disk
├─ceph--1f1e5a91--6030--4f23--a6c0--793863682798-osd--db--3dbf6581--ddbf--4b97--9bd7--2f3d2e2b4370
252:5 0 100G 0 lvm
└─ceph--1f1e5a91--6030--4f23--a6c0--793863682798-osd--db--3930da0a--479f--4e2d--a58a--3404a8add512
252:7 0 100G 0 lvm
sdd
8:48 0 2.2T 0 disk
sde
8:64 0 2.2T 0 disk
sdf
8:80 0 18T 0 disk
sdg
8:96 0 18T 0 disk
└─ceph--77e27c98--c003--4050--ba1f--2c6b4b3209c6-osd--block--dbd1d26c--72be--4632--82a7--5aabce5f17aa
252:4 0 18T 0 lvm
sdh
8:112 0 18T 0 disk
└─ceph--a2de7aa4--9ee6--4f2b--ab67--fb0e021c1e86-osd--block--acced776--dec8--4fa6--b946--b9cd8d264f40
252:6 0 18T 0 lvm
sdi
8:128 0 18T 0 disk
└─ceph--0332a3d4--eeb6--47a4--8fd3--60cb362b2eae-osd--block--25c23ee7--51a8--4113--9c64--5e46a71acc69
252:8 0 18T 0 lvm
sdj
8:144 0 18T 0 disk
└─ceph--35a572b9--618b--411a--95a5--ffcbcc6909fd-osd--block--d6339590--f5d0--4db8--8f1a--c9fa884f8a05
252:10 0 18T 0 lvm
sdk
8:160 0 18T 0 disk
└─ceph--d8226699--19af--4845--b0c4--01888eda4f0c-osd--block--cdbb54d3--790e--47eb--b3ee--5a743c820d5a
252:12 0 18T 0 lvm
# ceph orch set-managed osd.hdd2025
Set unmanaged to False for service osd.hdd2025
# lsblk
NAME
MAJ:MIN RM SIZE RO TYPE MOUNTPOINTS
sdb
8:16 0 605G 0 disk
├─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--92f3aa68--5ea9--45f0--9736--1e940e32a694
252:9 0 100G 0 lvm
├─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--05597602--be0a--4bef--ba6f--00f1fd6a00f8
252:11 0 100G 0 lvm
└─ceph--2e6edbc5--08b5--4112--b019--00eb77d37be7-osd--db--cd611225--b826--446d--ac9c--8fbea4c77cce
252:13 0 100G 0 lvm
sdc
8:32 0 605G 0 disk
├─ceph--1f1e5a91--6030--4f23--a6c0--793863682798-osd--db--9fe6e4c3--5b3c--4d4f--b889--e18e1667d1f3
252:3 0 100G 0 lvm
├─ceph--1f1e5a91--6030--4f23--a6c0--793863682798-osd--db--3dbf6581--ddbf--4b97--9bd7--2f3d2e2b4370
252:5 0 100G 0 lvm
└─ceph--1f1e5a91--6030--4f23--a6c0--793863682798-osd--db--3930da0a--479f--4e2d--a58a--3404a8add512
252:7 0 100G 0 lvm
sdd
8:48 0 2.2T 0 disk
sde
8:64 0 2.2T 0 disk
sdf
8:80 0 18T 0 disk
└─ceph--da0dacf6--f310--4713--a998--73869949bd07-osd--block--725f73c2--9b15--434e--876a--954823a33373
252:2 0 18T 0 lvm
sdg
8:96 0 18T 0 disk
└─ceph--77e27c98--c003--4050--ba1f--2c6b4b3209c6-osd--block--dbd1d26c--72be--4632--82a7--5aabce5f17aa
252:4 0 18T 0 lvm
sdh
8:112 0 18T 0 disk
└─ceph--a2de7aa4--9ee6--4f2b--ab67--fb0e021c1e86-osd--block--acced776--dec8--4fa6--b946--b9cd8d264f40
252:6 0 18T 0 lvm
sdi
8:128 0 18T 0 disk
└─ceph--0332a3d4--eeb6--47a4--8fd3--60cb362b2eae-osd--block--25c23ee7--51a8--4113--9c64--5e46a71acc69
252:8 0 18T 0 lvm
sdj
8:144 0 18T 0 disk
└─ceph--35a572b9--618b--411a--95a5--ffcbcc6909fd-osd--block--d6339590--f5d0--4db8--8f1a--c9fa884f8a05
252:10 0 18T 0 lvm
sdk
8:160 0 18T 0 disk
└─ceph--d8226699--19af--4845--b0c4--01888eda4f0c-osd--block--cdbb54d3--790e--47eb--b3ee--5a743c820d5a
252:12 0 18T 0 lvm
As can be seen a third DB volume has been added to sdc
and the OSD uses all of the 18TB of sdf.
When adding a completely new disk a fourth DB volume gets created on sdb
and the new OSD on sdl uses all of the 18TB.
Something must have been changed between reef and squid, not for the better.
Regards
--
Robert Sander
Linux Consultant
Heinlein Consulting GmbH
Schwedter Str. 8/9b, 10119 Berlin
https://www.heinlein-support.de
Tel: +49 30 405051 - 0
Fax: +49 30 405051 - 19
Amtsgericht Berlin-Charlottenburg - HRB 220009 B
Geschäftsführer: Peer Heinlein - Sitz: Berlin
_______________________________________________
ceph-users mailing list -- [email protected]
To unsubscribe send an email to [email protected]