@nuron @ij
Ja gerade bei den Stichwörtern "unterschiedlicher Größen" und "flexiblen Verbund" ist #btrfs ein sehr gute und zu Empfehlende Wahl.
Aktuell sollte man halt noch nicht #raid5 und #raid6 nehmen.
Man kann #btrfs aber erst mal mit #raid1c4 gründen und später problemlos umconvertieren.
Aktuell habe ich bspw. ein #btrfs mit 60 HDD von 250G-16T im einsatz, das mal als #raid1c4 gestartet hat und aktuell als #raid1c3 läuft.
Sobald #raid6 stabil ist, convertiere ich das dann online um.

1/x

So sieht eine #heatmap von #btrfs über mehre Jahre mit anfänglich <10 Disk und aktuell 60 #HDD s aus das aktuell 100Tb groß ist. Erst DATA, METADATEN, SYSTEM #raid1c4 und aktuell DATA #raid1c3 und METADATA, SYSTEM #raid1c4
Und bevor ihr Fragt, nein, nicht einen hauch von Problemen bei der Datenstabilität.

1. https://github.com/knorrie/btrfs-heatmap
2. https://codeberg.org/Waimanu/btrfs-heatmap-systemd/src/branch/main

Die freien und grauen Flächen entstehen dadurch das sowohl #snappper als auch #bees im Einsatz sind.

#raid

GitHub - knorrie/btrfs-heatmap: Visualize the layout of data on your btrfs filesystem over time

Visualize the layout of data on your btrfs filesystem over time - knorrie/btrfs-heatmap

GitHub
@schenklklopfer Es geht, #RAID0 #RAID1 #RAID1C3 #RAID1C4 gehen problemlos und #RAID5 und #RAID6 für die DATA Chunks gehen auch; Man sollte nur dann für die METADATA und SYSTEM Chunks #RAID1C3 nehmen.
Passend zum Feierabend:
`4171 out of about 4179 chunks balanced (4179 considered), 1% left`
Dann ist die Umconvertirung des #btrfs von #raid1c4 in #raid1c3 abgeschlossen und ich kann #bees wieder laufen lassen.
@norman Wenn das MD-Raid frisch erstellt ist, muss er es ja erst mal Syncen, was IO frisst. Möglich das dies dein Testcasr verfälscht hat? `cat /proc/mdstat` sollte dir da mehr Erkenntnisse liefern. Ansonsten mal mit #iotop ggf. Schauen ob es unerwartetes delay gibt.
#btrfs nutze ich auch sehr ausgibt, aber #raid56 nutze ich da nur sehr ungern. Wenn dann sowieso nur mit METADATA- und SYSTEM-Chunks in #raid1c4 bzw. #raid1c3.
Ich glaube #hdd 28 heute morgen in #btrfs #raid1c4 eingebunden.
Durch das Füllverhalten von btrfs bei diesem #raid Level, brauch ich nicht mal ein rebalancing, da es immer die 4 leersten devices füllt und damit die neue Disk erst mal immer für neue Chunks vorgesehen ist. Das gleicht sich dann über die Zeit angenehm, von selbst aus. #ddrescue und ein rsync von 3TB laufen auch, ich kann also entspannt arbeiten gehen und die Haus IT macht schon.
@ij I feel you.
Auch wenn mein neuer Server nen #HP ist und die wirklich viel Blödsinn haben, die #RAID6 nur mit Lizenzkey usw. Ist der Server mit #SFP+ und einem #Mellanox Port, in Kombination mit 60 Diskslots, perfect für mich. Nach dem ich das #iLO aufgemacht habe, darf ich jetzt auch die Lüfter steuern. Controller in #HBA mode gesetzt und #Btrfs mit #Raid1c4, schon ist das ganze gut nutzbar.
Projekt #btrfs im #raid1c4 mit 23 #hdd von 68.35GiB bis 7.28TiB und #luks , zusammen mit #bees und #heatmap nimmt gestallt an.