Tampaknya bakal lebih irit di #misskey dibanding #mastodon.

Pertama masalah resource lawan performa. Misskey pakai #nodejs yg karakteristiknya non-blocking #async jadi tidak perlu banyak worker dibandingkan #rubyonrails nya #mastodon.

Kedua, misskey tidak cache remote media gak kayak mastodon yang simpan semua remote media (bikin boros kapasitas #s3).

Colek @adhisimon

Tapi itu ya baru kesan pertama saya.

#fediverse #feditips

@semurjengkol @adhisimon

Wah menarik ini reviewnya, dan saya setuju, penyakit mastodon itu untuk media cache, saya sendiri pakai non S3, alias langsung taruh di server, dan tiap hari jalan kan crontab untuk hapus cache sudah berusia diatas 7 hari.
Alasanya ya, kalau sudah lewat 7 hari, kalau lihat suatu post, ya akan tarik lagi gambar atau apa yang ada di post itu.

Tapi overall pengunaan resources nya bagaimana om?

@aku @adhisimon untuk resources di sisi server saya liat lebih ringan om, gak perlu worker-worker lain. Di mastodon kita butuh sidekiq karena seperti saya katakan, #rubyonrails tidak seperti #nodejs yang async dan non-blocking, sehingga mastodon butuh multi-process/multi-thread.

Iya resenya mastodon dia cache remote media, instance mastodon saya 2 minggu dia pakai sekitar 200GB di S3, kebayang kalo lebih ramai lagi konten federated nya.

Tapi untuk bersihin cache mastodon sepertinya tidak perlu juga om pakai crontab, kan ada setting di Administration -> Server Settings -> Content Retention.

@semurjengkol @adhisimon settingan yang ada disana tidak cukup om.
Pengalaman saya, tetap di butuhkan crontab untuk menjalankan beberapa perintah untuk bersih bersih om.

Saya lupa pertama kali anakmanis ada, tapi saya kasih screenshot pertama kali di temukan. Kurang lebih sudah 2 tahun lebih om. Dan jumlah yang terfederasi dengan anakmanis sekitar 17 ribu instance.

Walapun database lumayan gede karena saya hampir tidak pernah hapus post, tapi data cache hanya 32 GB om. Alasannya, karena 1-2

@semurjengkol @adhisimon saya berani hapus cache, disebabkan apabila sudah 7 hari, dan apabila user dari anakmanis, mengunjugi post tersebut, otomatis mastodon (engine anakmanis) akan ambil kembali media yang ada di post tersebut.

Saya berani lakukan ini, karena saya tidak pakai S3 jadi tidak perlu takut dengan proses hapus data yang di lakukan tiap hari.

Mungkin instance om jauh lebih lama dari anakmanis, sehingga federasinya jauh lebih banyak? Makanya data om jauh lebih banyak? 2-2

@aku gak loh justru instance mastodon saya blm sebulan loh

@adhisimon Iya berdasarkan stat, instance om di temukan pertama kali hampir 14 hari yang lalu.
Dan baru ada 5000 an instance yang terfederasi dengan om, tapi akan bertambah cepat, karena distat disebut ada 250 instance perhari yang terfederasi sama om.

Wah user om ada banyak ya, kalau saya practically hanya saya sendirian disini  

Untuk lebih lengkapnya om bisa lihat di screenshot ini

@adhisimon ohya om, satu lagi, karena saya instance kecil, untuk melengkapi pos yang kadang tidak lengkap disaya, saya mengunakan satu tools, mungkin akan berguna untuk om, agar federasi om akan lebih cepat nambahnya.
Namun di lain pihak, data akan baik itu database karena post, dan cache akan makan lebih cepat juga.

Kalau om tertarik bisa lihat disini https://github.com/nanos/FediFetcher

Mudah mudahan bisa berguna om, sekarang saya pamit rebahan dulu, sudah hampir setengah 1 malam disini

GitHub - nanos/FediFetcher: FediFetcher is a tool for Mastodon that automatically fetches missing replies and posts from other fediverse instances, and adds them to your own Mastodon instance.

FediFetcher is a tool for Mastodon that automatically fetches missing replies and posts from other fediverse instances, and adds them to your own Mastodon instance. - nanos/FediFetcher

GitHub

@aku sorry baru saya balas om.

FediFetcher sudah saya pakai dari awal-awal.

Akun-akun di mastodon saya itu banyaknya bot. Kalau sekarang isinya bot-bot buat nge-fetch RSS situs berita dan masukin ke mastodon.

Iya wasabi memang objek kena hitung minimal 90 hari tetap kena bill. Tapi secara hitung-hitungan saya masih okay. Selain buat mastodon, saya biasa pakai wasabi buat backup data regular. So far dia solusi s3 paling ekonomis yang saya temukan.

@adhisimon santai om, saya juga baru bisa balas sekarang, biasa pagi seru dan di lanjutkan untuk aktivitas.
Wah pantesan saya lihat antara dari feed domain om, om memberikan servis untuk yang lain. Bagi yang suka lihat berita dari medsos mereka ini mungkin berguna, dan bila mau komentar tinggal quote pos dimaksud  

AHA saya sempat kira om pakai sejenis Minio om. Tapi kalau mau bagus, memang mendingan kasih profesional yang mengerjakan. Jadi tinggal pakai saja.

@aku oh untuk mastodon ini pakai s3 saya sendiri, tapi bukan #minio, pakainya #seaweedfs.

Minio malas karena boros resource dan kalo mau nambahin skalabilitas ribet, harus bikin cluster storage baru. Dan lagi minio jg mulai bikin marah dan ditinggal kalangan #foss.

Kalo mau coba, selain seaweedfs, ada yang sederhana dan gampang om buat impelmentasi #s3, coba cek #garagehq.

@aku Tapi sebenarnya, pakai #s3 di infra sendiri justru agak kontradiksi, karena sebenarnya tujuan pakai S3 dari penyedia cloud adalah kapasitas "tak terbatas" secara ekonomis.

@adhisimon hanya saja, hitungan ekonomis untuk mereka belum tentu untuk yang lain juga.
Namun bila mission critical ya mau ngga mau dipakai juga.
Menurut saya S3 (yang beneran ya om, alias punya Amazon) targetnya adalah perusahaan menengah keatas bicara untuk size dan penggunaannya.
Dulu sempat semangat sama hetzner tapi ternyata, mahal juga kalau dipikir pikir.
Untuk domisili saya harga mirip wasabi om https://www.hetzner.com/storage/object-storage/

Dan ini limitnya https://docs.hetzner.com/storage/object-storage/overview/#limits

S3 storage solution: Object Storage by Hetzner

Get your object storage: S3 Storage that grows with your needs ✓ GDPR-compliant ✓ cheap price ✓ 100% green electricity

@aku gini nih om ceritanya kalo di saya, tujuan pakai #S3 biasanya biar gk pusing krn space makin besar. Sebentar-sebentar nambah HDD tdk praktis apalagi kalau di datacenter.

Nambah cloud blockstorage seperti EBS biasanya mahal n harus langsung dialokasikan sizenya. Beda dengan S3 yang pay as you used. Dan harga S3 lbh ekonomis dibanding EBS (disini maksud saya relatif lebih ekonomisnya).

Jd sebagian besar pemakai S3 ya mereka yang memang perkirakan butuh kapasitas yang akan semakin bertambah.

@aku contoh lagi motif kenapa saya pakai S3 untuk off-site remote backup server-server perusahaan saya di datacenter. Kalau backup di datacenter itu juga ya percuma, kan kalo backup sebisa mungkin di lokasi terpisah.

Nah space paling ekonomis di cloud ya S3. Itu juga kenapa saya pakai wasabi buat off-site remote backup. Limitasi harus minimal 90 hari bukan ganjalan karena memang policy backup saya simpan 90 hari.