Hm, zumindest bei S3 Storage von #Contabo ist #s3fs nicht gerade schnell... Solange es nur ein paar Dateien im Bucket gibt, geht es noch. Aber ein gut gefülltes Bucket...
Ah ja, mit dem großen PC geht es wesentlich schneller. Aber jetzt sind über 1.000.000 Dateien zu löschen, und das dürfte trotzdem sehr, sehr lange dauern... Immerhin, 1180 hat er schon geschafft.
Ist übrigens der Cache meiner aufgegebenen Calckey-Instanz. Die habe ich auf S3 Storage ausgelagert, weil preisgünstig - aber der Nebeneffekt ist der langsame Zugriff auf S3.