```bash
while true; do
sleep 1
grep --perl-regexp --quiet '^1*\d\.' /proc/loadavg &&
btrfs balance status /mnt/btrfs/… | grep --quiet 'No balance found on' &&
btrfs balance start -dconvert=raid10 -dlimit=1 /mnt/btrfs/…
sleep 1
done
```

Mögen die Spiele beginnen. 300TB #btrfs von #raid1c3 in #raid10 Konvertieren.
Denke mal in ein paar Monaten wird das erst durch sein.

@nuron @ij
Ja gerade bei den Stichwörtern "unterschiedlicher Größen" und "flexiblen Verbund" ist #btrfs ein sehr gute und zu Empfehlende Wahl.
Aktuell sollte man halt noch nicht #raid5 und #raid6 nehmen.
Man kann #btrfs aber erst mal mit #raid1c4 gründen und später problemlos umconvertieren.
Aktuell habe ich bspw. ein #btrfs mit 60 HDD von 250G-16T im einsatz, das mal als #raid1c4 gestartet hat und aktuell als #raid1c3 läuft.
Sobald #raid6 stabil ist, convertiere ich das dann online um.

1/x

So sieht eine #heatmap von #btrfs über mehre Jahre mit anfänglich <10 Disk und aktuell 60 #HDD s aus das aktuell 100Tb groß ist. Erst DATA, METADATEN, SYSTEM #raid1c4 und aktuell DATA #raid1c3 und METADATA, SYSTEM #raid1c4
Und bevor ihr Fragt, nein, nicht einen hauch von Problemen bei der Datenstabilität.

1. https://github.com/knorrie/btrfs-heatmap
2. https://codeberg.org/Waimanu/btrfs-heatmap-systemd/src/branch/main

Die freien und grauen Flächen entstehen dadurch das sowohl #snappper als auch #bees im Einsatz sind.

#raid

GitHub - knorrie/btrfs-heatmap: Visualize the layout of data on your btrfs filesystem over time

Visualize the layout of data on your btrfs filesystem over time - knorrie/btrfs-heatmap

GitHub
@schenklklopfer Es geht, #RAID0 #RAID1 #RAID1C3 #RAID1C4 gehen problemlos und #RAID5 und #RAID6 für die DATA Chunks gehen auch; Man sollte nur dann für die METADATA und SYSTEM Chunks #RAID1C3 nehmen.
Passend zum Feierabend:
`4171 out of about 4179 chunks balanced (4179 considered), 1% left`
Dann ist die Umconvertirung des #btrfs von #raid1c4 in #raid1c3 abgeschlossen und ich kann #bees wieder laufen lassen.
@norman Wenn das MD-Raid frisch erstellt ist, muss er es ja erst mal Syncen, was IO frisst. Möglich das dies dein Testcasr verfälscht hat? `cat /proc/mdstat` sollte dir da mehr Erkenntnisse liefern. Ansonsten mal mit #iotop ggf. Schauen ob es unerwartetes delay gibt.
#btrfs nutze ich auch sehr ausgibt, aber #raid56 nutze ich da nur sehr ungern. Wenn dann sowieso nur mit METADATA- und SYSTEM-Chunks in #raid1c4 bzw. #raid1c3.

Ich liebe #BTRFS 💗
Auf dem #NAS eine dritte Platte dazugeschoben. Nun laufen die Dokumente und Fotos statt im RAID1 auf #RAID1c3 (drei Kopien), die Mediensicherungen nun statt RAID0 auf unterschiedlich großen Partitionen nun im RAID1 (auf 3 Platten und unterschiedlich großen Partitionen) und noch eine einfache Partition mit dem Restplatz auf der neuen Riesigen.
Klar, viel Doku lesen und rumprobieren und natürlich hatte ich mich in der Vorbereitung mit TiB (fdisk) und TB (parted) verrechnet...😵‍💫
Aber alles lief mit 100 % uptime der mounts. Hammer! (auch wenn das ja problemlos anders gegangenwäre. lol)
Selbst das resizing inkl. #LUKS Encryption Layer ging on the fly.

I love #Linux, I love all you developers out there making this possible!!😍🥰😍
FOSS for life🤩🤩