Bon, j'essaie de vérifier l'intégrité de mes énormes copies... j'utilise

#find . -type f -printf "%p %k KB\n"

Pour certains fichiers, le résultat à droite et à gauche est différent, hélas, alors que

#ls -l <nom du fichier>

et

#sha256sum <nom du fichier>

donnent le mĂȘme rĂ©sultat. Je sens que je suis sur la bonne piste !

@ffeth Une histoire de "sparse file" peut-ĂȘtre ? (DĂ©solĂ©, je ne connais pas la traduction officiel de ce terme technique).
En gros, les parties vides du fichier ne sont pas Ă©crits sur le disque. Un fichier d'une taille de 5Kio contenant principalement des 0 prendra ainsi peut-ĂȘtre 2Kio sur le disque.
@ffeth En fait oublie (partiellement) mon pouet précédent, il fait peu de sens.
Peut-ĂȘtre des spĂ©cificitĂ©s du file-system qui diffĂšre (taille des blocs, type de fs, ...) ?
Sinon, pour l'intégrité, je te conseille de comparer le hash de plusieurs algorithmes (md5, sha1 et sha256 par exemple) ;)
@louisb Je fais des vérifs d'intégrité lentes de temps en temps et des vérifs rapides plus souvent. Il y a 70 To (beaucoup de duplication en hardlinks) à comparer :-)

@louisb @yrougy il me semble que les fichiers Ă  trous sont les plus probables car tune2fs -l me donne pour les deux systĂšmes de fichiers ext4 :

Block size: 4096
Fragment size: 4096
Group descriptor size: 64
Blocks per group: 32768
Fragments per group: 32768
Inodes per group: 2048
Inode blocks per group: 128
Flex block group size: 16