🚀 Deploy Elastic Stack on Ubun...
Kibana là công cụ trực quan hóa dữ liệu dựa trên web, tích hợp với Elasticsearch để phân tích và hiển thị log, metric thời gian thực. Hỗ trợ DevOps & DevSecOps qua dashboard giám sát hiệu suất, phát hiện anomally, điều tra sự cố & báo cáo tuân thủ. Tính năng nổi bật: trực quan hóa dữ liệu, tìm kiếm nâng cao, RBAC, xuất báo cáo, Canvas & plugin mở rộng. Viết bằng JavaScript/TypeScript + React, do Elastic phát triển. Bản core miễn phí, bản trả phí mở thêm tính năng bảo mật, học máy.
Dec 14th, 2025: [EN] Build a map to compare metrics by country or region with ES|QL - Elastic Community and Ecosystem / Advent Calendar by Nathan Reese

Kibana map tutorial "Build a map to compare metrics by country or region" creates a map using Elasticsearch’s DSL querying. Recent ES|QL functions LOOKUP JOIN (8.18) and ST_GEOTILE (9.2) allow the map in this tutorial to be re-created with ES|QL. Below are the steps to re-create the tutorial map with ES|QL. Then, the steps go beyond what is possible in the original tutorial and normalizes the choropleth layer by country population. Prerequisites If you don’t already have Kibana, set it up ...
Как корпоративный поисковый портал стал платформой для цифровых ассистентов
Привет! Меня зовут Антон Фролов — я ведущий менеджер продукта в Content AI. В этой статье расскажу, как мы превратили корпоративный поисковый портал Intelligent Search в платформу для создания цифровых ассистентов с поддержкой LLM. Если у вас уже есть прототип ассистента на базе open-source компонентов, платформа может помочь оперативно разработать решение production-уровня для автоматизации различных процессов с внутренними документами.
https://habr.com/ru/articles/971412/
#Intelligent_Search #поисковые_технологии #nlp #ai #elasticsearch #kibana #apache_zookeeper #apache_tomcat #java
Пошаговая настройка вывода логов из .NET-автотестов в ELK (Filebeat → Logstash → Elasticsearch → Kibana)
Всем привет, с вами Юрий Ковальчук, backend разработчик в ВебРайз. В этой статье разберем процесс вывода логов из приложения c автотестами на .NET в ELK с последующей визуализаций в Kibana. ELK представляет из себя достаточно массивный инструмент для сбора, хранения, обработки и анализа логов, организации мониторингов. С наскоку разобраться с ним вряд ли получится, поэтому подготовили небольшую инструкцию с примерами - на базе простого теста прокинуть результаты до Kibana.
https://habr.com/ru/articles/966038/
#elk #elasticsearch #logstash #kibana #filebeat #логирование #логи #net #net_core #c#

Всем привет, с вами Юрий Ковальчук, backend разработчик в ВебРайз. В этой статье разберем процесс вывода логов из приложения c автотестами на .NET в ELK с последующей визуализаций в Kibana. ELK...
OpenTelemetry — не то, чем кажется…
Привет! Меня зовут - Евгений, работаю в финтехе и проектирую системы, которые обрабатывают миллионы запросов, интегрируются с десятками внешних сервисов и живут в Kubernetes. А еще я преподаю Java/Spring Boot и рассказываю студентам, как не наступать на чужие грабли, а создавать свои и прыгать на них. Больше 10 лет в разработке — и за эти годы в череде проектов я видел одну и ту же боль: отсутствие системного подхода к наблюдаемости. Логи, метрики и трейсы появляются «по остаточному принципу»: что-то добавили при отладке, что-то прилетело из чужой либы, что-то настроили на проде. Итог — инженеры часами разбирают простые инциденты, а продуктовые команды теряют скорость. В статье поделюсь нашим опытом: как мы строим наблюдаемость в системах, почему OpenTelemetry — это больше чем стандарт и какими принципами мы руководствуемся. Ну давай посмотрим что у тебя там...
https://habr.com/ru/companies/tbank/articles/965256/
#opentelemetry #monitoring #springboot #kotlin #aop #java #grafana #kibana
Как я автоматизировал анализ логов из Kibana с помощью LLM и AI-агентов
Инструменты вроде OpenSearch, Elastic или Kibana давно стали стандартом для поиска и визуализации логов благодаря удобству и мощной поисковой системе. Однако, когда речь заходит о сложном анализе — агрегациях, парсинге, выявлении сложных закономерностей — их встроенные средства быстро достигают предела возможностей. Особенно сложно становится, если структура логов далека от идеала: например, как у нас — всё содержимое свалено в одно поле Message в формате JSON. Меня зовут Игорь Щегловитов, я работаю экспертом по тестированию в QC облачной инфраструктуры и веб-порталов. Раньше наша команда решала такие задачи кастомными утилитами на C#, которые выгружали логи из ELK и анализировали их локально. Однако каждое новое требование превращалось в мини-проект: доработать код, написать новые парсеры, скрипты агрегации и фильтрации. Работа замедлялась, техдолг рос. Я решил использовать связку AI-агентов с кастомными промптами, собственный сервисный слой (MCP) для доступа к логам и LLM-модель, чтобы превращать пользовательские запросы в автоматический алгоритм анализа. Так, кейсы вроде «Посчитай уникальных пользователей за сутки» или «Проанализируй ошибки за период» решаются без ручного кодинга. Под катом мой кейс: расскажу, как это сделал, поделюсь ссылкой на гитхаб, так что, если хотите упростить себе анализ логов, — эта статья для вас.
https://habr.com/ru/companies/kaspersky/articles/953780/
#kibana #opensearch #ai #roocode #логи #llm #машинное_обучение #тестирование #roo_code #elasticsearch
@xeraa Maybe you’re right. We’re experimenting at the moment.
Currently we have ES/Kibana on one of our VMs for (text) logs sent by Docker via Fluent, and Grafana Cloud with Graphite for metrics sent by Telegraf via carbon-relay-ng.
The metrics part runs smoothly. The only drawback is that some queries for dashboards or alerts are annoying to get right with Graphite.