Как развивалась виртуализация в Авито

Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито . Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов. Виртуализация в Авито — это неотъемлемая часть технического стека, как и во многих других IT-компаниях. На этапе основания Авито виртуализация уже была широко распространённой технологией. Проект нуждался в эффективных и гибких решениях для управления ресурсами, в возможности масштабироваться в будущем и в обеспечении стабильной работы при растущей нагрузке. В этой статье попробую провести читателя от истоков виртуализации в Авито до современных решений и показать, как эти изменения повлияли на архитектуру и возможности компании. Описать общую хронологию развития виртуализации без полного погружения в технические детали — об этом расскажу подробнее в следующих частях. Дисклеймер: ранняя история инфраструктуры компании восстановлена не по документации, а по воспоминаниям инженеров, которые работали в тот период. Это устная история — с допущениями, реконструкцией контекста и попыткой передать факты и логику решений.

https://habr.com/ru/companies/avito/articles/1027504/

#virtualization #proxmox #openvz #lxc #clusterization #ceph #ldap #baremetal #history #avitotech

Как развивалась виртуализация в Авито

Всем привет! Меня зовут Ярослав Покрепов , я DevOps-инженер в Авито .  Виртуализация — это технология создания изолированных и независимых виртуальных сред на базе физических ресурсов....

Хабр

Скованные одним цефом: как тестируем Ceph в MWS Cloud Platform

Смело предположу, что каждый инженер, на регулярной основе работающий с SDS Сeph, не единожды находился в состоянии фрустрации от сложности и неоднозначности этой технологии. Я хотел бы попробовать помочь и поделиться своим опытом решения проблем с производительностью. В этой статье я кратко расскажу про некоторые инструментальные подходы к решению возникающих задач. Всем привет! Меня зовут Александр Пивкин, я ведущий SRE-инженер в MWS Cloud Platform. Сейчас Ceph — основная технология хранения данных в

https://habr.com/ru/companies/mws/articles/1031132/

#cloud #ceph #mws_cloud #mwscloudplatform #облако #хранение_данных

Скованные одним цефом: как тестируем Ceph в MWS Cloud Platform

Смело предположу, что каждый инженер, на регулярной основе работающий с SDS Сeph, не единожды находился в состоянии фрустрации от сложности и неоднозначности этой технологии. Я хотел бы попробовать...

Хабр

Deleted my old #ceph cluster #homelab #selfhosted .

This cluster was mostly idle.

#technology #observability #grafana #prometheus #sysadmin

Alright, with the k8s update going to smoothly, I will continue with the update of my Ceph cluster to v20/Tentacle.

Need to get things done while the Gods keep smiling on my Homelab. 😁

#HomeLab #Ceph

От MinIO к SeaweedFS: опыт замены S3-хранилища

Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В какой-то момент мы поймали себя на этом с MinIO.

https://habr.com/ru/companies/dbraincloud/articles/1028694/

#seaweedfs #minio #s3 #хранилище #кубернетес #kubernetes #контейнеризация #s3хранилище #инфраструктура #ceph

От MinIO к SeaweedFS: опыт замены S3-хранилища

Есть такой опасный момент в инфраструктуре: когда все вроде бы работает, но трогать это лишний раз не хочется. Не потому что идеально. А потому что есть ощущение — если полезешь, станет хуже. В...

Хабр
It's alive! #Proxmox #Ceph #Homelab

Finally: ceph.io has an atom feed now 🎉

The last blog I was unable to add to my feed reader.

https://github.com/ceph/ceph.io/pull/1062

#ceph #rss #feed

Implement Atom feed for blog by jmundack · Pull Request #1062 · ceph/ceph.io

Redoing #908 as a new PR since CI is blatantly ignoring that PR Fixes: #658 Credits to xdavidwu for all the work!

GitHub

The #Ceph at work drives me crazy...

We want to organize the data in subvolumes and subvolume groups.
Seems that I'm unable to mount different subvolumes that are on the same default volume at once.

So, ok, then mounting the directories directly from CephFS. Easy going, works on my private Ceph on Proxmox like a charme.

Only thing: it is not working at work. Only one mount possible.

Oh my....
One difference between those two installations are:
Private Cluster: Proxmox with Debian packages
Work Cluster: official container images via podman.

Does someone know if there are issues with containerized Ceph?

EDIT:
Found the guilty option: "fsc" was causing the problems. Removing that mount option did the trick. Yay! :)
And tomorrow I'll test subvolumes again...

#followerpower

S3 и зачем вообще городить ещё один клиент…

Вы нормально знаете Ceph, пулы, RGW, где смотреть логи и почему внезапно полезли 403. Вопрос в другом: вокруг кластера живут люди, которым нужен не Ceph, а S3 как диск в облаке . Им нужно залить билд, вытащить дамп, перекинуть префикс между стендами, выдать временную ссылку, проверить, что объект реально лежит и какой у него размер. Без чтения ceph -w s3cmd rados etc, без объяснений про placement groups и без вашего участия в каждой мелочи. CLI и скрипты вы держите для себя и для пайплайнов. Консоль облака у вас может быть про другой контур. А типичный пользователь упирается в простую вещь: хочу окно с таблицей, перетаскиванием и понятной ошибкой , а не пятнадцать шагов «спроси админа». Отсюда и смысл отдельного десктопного клиента под S3 API: не заменить вам эксплуатацию, а снять с вас поток однотипных ручных запросов и дать людям самообслуживание в рамках выданных ключей и политик.

https://habr.com/ru/articles/1023538/

#S3 #ceph #minio #client #s3cmd #aws #aws_s3 #aws_sdk

S3 и зачем вообще городить ещё один клиент…

Боль, но не про "что такое RGW" Вы нормально знаете Ceph, RGW, где смотреть логи и почему внезапно вылез 403. Вопрос не в том, чтобы объяснять вам, что такое бакет. Вопрос в том, что  рядом с...

Хабр

Год в проде с Ceph: как мы пришли к новой референсной архитектуре

Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage), почему остановились на Ceph, а также о наших процессах в R&D. В этой статье , поделюсь, что мы поймали за год в продакшене, какие решения в дизайне кластеров оказались ошибочными, как это изменило нашу референсную архитектуру и к чему мы пришли в итоге.

https://habr.com/ru/companies/runity/articles/1021222/

#регоблако #ceph #s3 #hsdc #конфигурация #exhausted #jbod #hba #архитектура #кластер

Год в проде с Ceph: как мы пришли к новой референсной архитектуре

Привет, Хабр! Меня зовут Игорь Шишкин, я руковожу отделом разработки облачной платформы и архитектором SDS в Рунити. Ранее я уже рассказывал про то, как мы выбирали SDS (Software Defined Storage),...

Хабр