Mein #rant über #Betriebssysteme und deren #filecopy oder #filehandling generell:
Was haben alle Computer vom C64 (und davor) mit Datasette bis zu modernen Geräten mit Linux/Windows/macOS und SSD Speicher gemeinsam? Genau: Das Datei-Handling!
Eine Datei wird 2025 im Grunde exakt genauso auf einen Datenträger kopiert wie in den 80er Jahren (und davor). Fürs Netzwerk gilt dasselbe. Alles wie damals. (1/9)
Das ist kein Problem, solange man wenige einzelne oder einzelne große kopieren möchte. Heute ist ein Foto größer als damals auf 10+ Disketten gepasst hätten und dafür ist das schon flott geworden, weil die CPUs und die Schnittstellen schneller wurden. Das ist aber mehr so ein netter Effekt der generellen Entwicklung, am Konzept hat nichts geändert. (2/9)
Ich meine, im Grunde toll: Wer heute eine Kiste aus den 80ern ins Netz bekommt, wird Daten austauschen können vermute ich … aber will ich das? Also nicht mit spezieller Software/Treibern sondern als Standard? (3/9)
Was ich möchte, ist, dass ich 65 GB in tausenden html, png, jpg, rtf, … Dateien in Sekunden von der internen auf die externe SSD bekomme. Die Interne liest mit etwas um 3+ GB/s oder mehr(?), die externe könnte immerhin knapp 1 GB/s schreiben - und selbst wenn es nur 500 MB/s wären. Stattdessen dauert das gerne ne Stunde oder so … (4/9)
Weil jede F*ING Datei einzeln geöffnet, geschrieben, bestätigt, geschlossen wird?! Hat seit den 70er oder 80ern bis 2025 NIEMAND mal eine gute Idee gehabt, wie moderne Betriebssysteme effizienter mit Dateien umgehen können? Ich meine als Standard, ab Werk, normal halt, ohne dass ich mir irgendwelche spezialtools dafür aneignen muss die VIELLEICHT etwas schneller sein KÖNNTEN, mich aber schon Stunden kosten sie überhaupt zu recherchieren und zu lernen? (5/9)
Ihr kennt Star Trek TNG/DS9 wo Speicher-Röhrchen auf ein Terminal gelegt werden um dann komplette Schiffsbibliotheken / Logbücher in Sekunden zu tranferieren? Hier meine Spekulation wie das funktioniert: (6/9)
Weil auch 2300+ viele Dateien immer noch ein Problem darstellten (und es auf Schiffen mit hunderten Personen sicher millionen von Datein gab) fand man eine andere Lösung: Es wurd einfach ALLES(!) in EINEN(!) großen Blob geschrieben, EINE Datei für ALLES! Natürlich mit vielen Redundanzen und Prüfsummen zur Selbstreparatur. (7/9)
Ein cleverer Algorithmus oder sogar die KI zerlegen diesen Blob dann auf Anforderung in einzelne Elemente die wie Dateien aussehen… Du willst Logbücher eines Tages? Prima, hier alle Einträge des Tages von allen Personen an Bord Alphabetisch…
Du willst alle Untersuchungsergebnisse für eine Person? OK, hier eine Liste nach Datum … Am Ende aber wirklich alles nur Einsprungsadressen in den großen Blob! (8/9)

Du willst alle Logbücher kopieren? Prima - hier EIN BLOB mit allen Einträgen… zack, geht so schnell wie das Interface ist… on the fly gzip oder so … 

Das ist die einzige Lösung die ich sehe um die Arbeit mit unseren Computern noch signifikant zu beschleunigen! man man man (9/9)

Ein Nachtrag zum #rant
Unter Windows11 so ein Verzeichnis von externer SSD löschen? 1-10 Millisekunden, richtig? FALSCH!
Weil natürlich JEDE EINZELNE DATEI (knapp 200.000 Dateien) einzeln(!) gelöscht wird… klar, ne?

Früher(tm), wurde am Verzeichnis ein "?" ins Filesystem geschrieben so dass klar war: "Das kann überschrieben werden" … aber hey, das wäre zu einfach und viel zu unsicher … komm her: eine Datei gelöscht, noch eine Datei gelöscht, die 3. auch, guck wie schnell ich bin, 4 Dateien …

@nSonic Das liegt daran, dass zu viele Festplatten und vor allem USB-Sticks einfach abziehen, ohne sie auszuwerfen. Deshalb ist bei Windows standardmäßig der Cache bei USB-Laufwerken deaktiviert. Schau mal im Gerätemanager, Laufwerke, <Dein Stick>, Einstellungen, Richtlinien, da kannst Du auf „Bessere Leistung“ umstellen.

Das beschleunigt das Kopieren von vielen Dateien *dramatisch*.

@nSonic Hat aber (neben Speicherplatz, Du kopierst ja immer alles) auch Datenschutzprobleme … Du kannst das aber "simulieren", indem Du die Dateien zuerst in ein Archiv (tar) packst und das dann auf den Stick kopierst. Teilweise ist das tatsächlich schneller.

Eigentlich ganz normal, Dateien lokal mit tar zu bündeln, dann über Netz zu übertragen und auf dem Ziel wieder zu entpacken: `tar cf - -C sourceDir . | ssh user@ziel tar xf - -C targetDir`

@teilweise Nur dass das einpacken und auspacken dieselben Probleme hat und ggf „ewig“ dauert.

Datenschutz gibt es in TNG im Grunde nicht mehr 😂 das ist also kein Problem. Ggf ist der Datenstrom innerhalb des blobs halt codiert und je nach zugangslevel kannst du sinnvolle Daten oder nur Rauschen sehen/lesen. Aber ich glaube bei TNG sind es keine Dateien mehr in dem Sinne sondern „Ereignisse“ die nach Request gebündelt werden 🤔