Red Hat is contributing llm-d to the #CNCF, turning fragmented AI into modular, interoperable microservices. 🐧

The goal? Make AI inference a first-class citizen in the same cloud-native environment as your traditional apps.

I love how Red Hat continues to fuel the #OpenSource ecosystem. From our roots in #Kubernetes and #etcd to newer projects like #KEDA and #CRI-O, we’re committed to building "well-lit paths" for everyone.

#RedHat #KubeCon #CloudNativeCon #AI #llmd

https://www.redhat.com/en/blog/why-were-contributing-llm-d-cncf-standardizing-future-ai?sc_cid=701f2000000txokAAA&utm_source=bambu&utm_medium=organic_social

Why we’re contributing llm-d to the CNCF: Standardizing the future of AI

Red Hat is contributing llm-d to the Cloud Native Computing Foundation (CNCF) as a Sandbox project to standardize high-performance, distributed AI inference serving within the cloud-native stack. This contribution aims to bridge the capabilities gap between AI experimentation and production by providing a specialized data-plane orchestration layer that maximizes infrastructure efficiency and enables flexible deployment on any choice of hardware.

Learn the critical failure points when running LLM inference on Kubernetes, including resource constraints, operator compatibility, security, scalability, and monitoring best practices for production workloads.

#Kubernetes #LLM Inference #Dynatrace #GPU Resource Allocation #Service Mesh #Network Policies #KEDA #Triton Inference Server #Redis #Prometheus

https://dasroot.net/posts/2026/02/running-llm-inference-on-kubernetes-what-breaks-first/

Running LLM Inference on Kubernetes: What Breaks First

Learn the critical failure points when running LLM inference on Kubernetes, including resource constraints, operator compatibility, security, scalability, and monitoring best practices for production workloads.

Technical news about AI, coding and all

Blog - I had a new bit of learning with Kubernetes Event Driven Autoscaling today

Changing Piefed Worker Scaling to be Based on Queue Size in Kubernetes with KEDA
I recently caused myself a bit of a minor issue by installing some updates on the Keyboard Vagabond cluster. It wasn’t a big deal, just s…

Changing Piefed Worker Scaling to be Based on Queue Size in Kubernetes with KEDA

I recently caused myself a bit of a minor issue by installing some updates on the Keyboard Vagabond cluster. It wasn't a big deal, just s...

Software and Tech
Blog - I had a new bit of learning with Kubernetes Event Driven Autoscaling today

_Changing Piefed Worker Scaling to be Based on Queue Size in Kubernetes with KEDA_ I recently caused myself a bit of a minor issue by installing…

Реальный кейс настройки Pod Autoscaling в k8s с точки зрения разработчика

На носу 2026 год, а я хочу поделиться своим путешествием по переводу приложения на инфраструктуру Kubernetes. И самая сложная и интересная часть, как раз, настройка автоскейлинга. Не слишком ли заезженная тема? Думаю нет, потому что я буду рассказывать именно с позиции разработчика приложения, а не девопса. Мне повезло, я без понятия как это всё настраивается. Я буду рассказывать как это всё работает. Конфигов кубера будет минимум, рассуждений и погружений в метрики максимум. В конце оставил TL;DR. Поехали?

https://habr.com/ru/articles/973936/

#kubernetes #hpa #horizontal_pod_autoscaler #keda #ec2 #cadvisor #k8s

Реальный кейс настройки Pod Autoscaling в k8s с точки зрения разработчика

Что я знаю о бриллиантах? Я устраиваю боксерские бои. Всего неделю назад я устраивал боксерские бои и радовался жизни, и вдруг... Что я знаю о бриллиантах? На носу 2026 год, а я хочу поделиться своим...

Хабр

From event-driven architectures to autoscaling, from #cloudnative #microservices to agentic AI, from corporate to #opensource and startups - the latest episode of OpenObservability Talks has it all!

I invited co-creator of #Dapr & #KEDA @yaronschneider to give us us the grand tour:
https://medium.com/p/eb2f4013d9a1

Автомасштабируем узлы кластера Kubernetes. Часть 2

Всем привет! Это вновь Илья Смирнов, архитектор решений из

https://habr.com/ru/companies/cloud_ru/articles/948140/

#keda #мультиклауд #масштабирование #eventdriven

Автомасштабируем узлы кластера Kubernetes. Часть 2

Всем привет! Это вновь Илья Смирнов, архитектор решений из Cloud.ru . В прошлой статье мы рассмотрели традиционные подходы к масштабированию подов и узлов кластера Kubernetes. Но остался нерешенным...

Хабр
Hah score! Managed to push data from #HomeAssistant to #MQTT using the MQTT Publish action in HA, then https://github.com/hikhvar/mqtt2prometheus picks it up and services it up to #Prometheus for use in queries. Will need to switch my #Keda scale object from a #RabbitMQ one to a Prometheus query. But will first let this metric sit there for a few days to make sure it behaves as expected.

Автомасштабируем узлы кластера Kubernetes. Часть 1

Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы максимально, но требовать дополнительных ресурсов, например, для параллельной обработки нескольких объектов в очереди. Триггером масштабирования кластера может быть не утилизация, а события от внешних систем — например, очереди сообщений Kafka, системы мониторинга Prometheus или от платформы CI/CD. Всем привет! Меня зовут Илья Смирнов, я архитектор решений в

https://habr.com/ru/companies/cloud_ru/articles/941976/

#keda #k8s #kubernetes #автомасштабирование #managed_kubernetes

Автомасштабируем узлы кластера Kubernetes. Часть 1

Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы...

Хабр

Автомасштабирование KEDA. Часть 1

Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы максимально, но требовать дополнительных ресурсов, например, для параллельной обработки нескольких объектов в очереди. Триггером масштабирования кластера может быть не утилизация, а события от внешних систем — например, очереди сообщений Kafka, системы мониторинга Prometheus или от платформы CI/CD. Всем привет! Меня зовут Илья Смирнов, я архитектор решений в Читать дальше

https://habr.com/ru/companies/cloud_ru/articles/940956/

#keda #kubernetes #k8s #автомасштабирование #managed_kubernetes #cloudru_evolution

Автомасштабирование KEDA. Часть 1

Автомасштабирование узлов кластера Kubernetes и горизонтальное масштабирование подов позволяют быстро расширить ресурсы при пиковых нагрузках. Но сложные приложения могут не нагружать поды или узлы...

Хабр