🚀 Deploy Elastic Stack On Ubuntu VPS (5 Minute Quick-Start Guide) - VPS Hosting Blog | Dedicated Servers | Reseller Hosting

Here’s the guide to deploy Elastic Stack on Ubuntu VPS, with secure access, HTTPS proxying, and service optimization.

RadWeb, LLC

Kibana là công cụ trực quan hóa dữ liệu dựa trên web, tích hợp với Elasticsearch để phân tích và hiển thị log, metric thời gian thực. Hỗ trợ DevOps & DevSecOps qua dashboard giám sát hiệu suất, phát hiện anomally, điều tra sự cố & báo cáo tuân thủ. Tính năng nổi bật: trực quan hóa dữ liệu, tìm kiếm nâng cao, RBAC, xuất báo cáo, Canvas & plugin mở rộng. Viết bằng JavaScript/TypeScript + React, do Elastic phát triển. Bản core miễn phí, bản trả phí mở thêm tính năng bảo mật, học máy.

#Kibana #De

Dec 14th, 2025: [EN] Build a map to compare metrics by country or region with ES|QL - Elastic Community and Ecosystem / Advent Calendar by Nathan Reese

https://discuss.elastic.co/t/dec-14th-2025-en-build-a-map-to-compare-metrics-by-country-or-region-with-es-ql/383243

#elastic #kibana #geospatial

Dec 14th, 2025: [EN] Build a map to compare metrics by country or region with ES|QL

Kibana map tutorial "Build a map to compare metrics by country or region" creates a map using Elasticsearch’s DSL querying. Recent ES|QL functions LOOKUP JOIN (8.18) and ST_GEOTILE (9.2) allow the map in this tutorial to be re-created with ES|QL. Below are the steps to re-create the tutorial map with ES|QL. Then, the steps go beyond what is possible in the original tutorial and normalizes the choropleth layer by country population. Prerequisites If you don’t already have Kibana, set it up ...

Discuss the Elastic Stack
🚀 Deploy Elastic Stack On Ubuntu VPS (5 Minute Quick-Start Guide) - VPS Hosting Blog | Dedicated Servers | Reseller Hosting

Here’s the guide to deploy Elastic Stack on Ubuntu VPS, with secure access, HTTPS proxying, and service optimization.

RadWeb, LLC

Как корпоративный поисковый портал стал платформой для цифровых ассистентов

Привет! Меня зовут Антон Фролов — я ведущий менеджер продукта в Content AI. В этой статье расскажу, как мы превратили корпоративный поисковый портал Intelligent Search в платформу для создания цифровых ассистентов с поддержкой LLM. Если у вас уже есть прототип ассистента на базе open-source компонентов, платформа может помочь оперативно разработать решение production-уровня для автоматизации различных процессов с внутренними документами.

https://habr.com/ru/articles/971412/

#Intelligent_Search #поисковые_технологии #nlp #ai #elasticsearch #kibana #apache_zookeeper #apache_tomcat #java

Как корпоративный поисковый портал стал платформой для цифровых ассистентов

Привет! Меня зовут Антон Фролов — я ведущий менеджер продукта в Content AI. В этой статье расскажу, как мы превратили корпоративный поисковый портал Intelligent Search в платформу для создания...

Хабр

Пошаговая настройка вывода логов из .NET-автотестов в ELK (Filebeat → Logstash → Elasticsearch → Kibana)

Всем привет, с вами Юрий Ковальчук, backend разработчик в ВебРайз. В этой статье разберем процесс вывода логов из приложения c автотестами на .NET в ELK с последующей визуализаций в Kibana. ELK представляет из себя достаточно массивный инструмент для сбора, хранения, обработки и анализа логов, организации мониторингов. С наскоку разобраться с ним вряд ли получится, поэтому подготовили небольшую инструкцию с примерами - на базе простого теста прокинуть результаты до Kibana.

https://habr.com/ru/articles/966038/

#elk #elasticsearch #logstash #kibana #filebeat #логирование #логи #net #net_core #c#

Пошаговая настройка вывода логов из .NET-автотестов в ELK (Filebeat → Logstash → Elasticsearch → Kibana)

Всем привет, с вами Юрий Ковальчук, backend разработчик в ВебРайз. В этой статье разберем процесс вывода логов из приложения c автотестами на .NET в ELK с последующей визуализаций в Kibana. ELK...

Хабр

OpenTelemetry — не то, чем кажется…

Привет! Меня зовут - Евгений, работаю в финтехе и проектирую системы, которые обрабатывают миллионы запросов, интегрируются с десятками внешних сервисов и живут в Kubernetes. А еще я преподаю Java/Spring Boot и рассказываю студентам, как не наступать на чужие грабли, а создавать свои и прыгать на них. Больше 10 лет в разработке — и за эти годы в череде проектов я видел одну и ту же боль: отсутствие системного подхода к наблюдаемости. Логи, метрики и трейсы появляются «по остаточному принципу»: что-то добавили при отладке, что-то прилетело из чужой либы, что-то настроили на проде. Итог — инженеры часами разбирают простые инциденты, а продуктовые команды теряют скорость. В статье поделюсь нашим опытом: как мы строим наблюдаемость в системах, почему OpenTelemetry — это больше чем стандарт и какими принципами мы руководствуемся. Ну давай посмотрим что у тебя там...

https://habr.com/ru/companies/tbank/articles/965256/

#opentelemetry #monitoring #springboot #kotlin #aop #java #grafana #kibana

OpenTelemetry — не то, чем кажется…

Привет! Меня зовут - Евгений, работаю в финтехе и проектирую системы, которые обрабатывают миллионы запросов, интегрируются с десятками внешних сервисов и живут в Kubernetes. А еще я преподаю...

Хабр
agent builder: bringing native MCP and custom tools right to #elasticsearch + #kibana (available on serverless and in the next release everywhere)
it tools look like an agentic stored procedure (prompt + context + query) bringing that power closer to your data. but that‘s just the start — with workflows there is a lot more coming

Как я автоматизировал анализ логов из Kibana с помощью LLM и AI-агентов

Инструменты вроде OpenSearch, Elastic или Kibana давно стали стандартом для поиска и визуализации логов благодаря удобству и мощной поисковой системе. Однако, когда речь заходит о сложном анализе — агрегациях, парсинге, выявлении сложных закономерностей — их встроенные средства быстро достигают предела возможностей. Особенно сложно становится, если структура логов далека от идеала: например, как у нас — всё содержимое свалено в одно поле Message в формате JSON. Меня зовут Игорь Щегловитов, я работаю экспертом по тестированию в QC облачной инфраструктуры и веб-порталов. Раньше наша команда решала такие задачи кастомными утилитами на C#, которые выгружали логи из ELK и анализировали их локально. Однако каждое новое требование превращалось в мини-проект: доработать код, написать новые парсеры, скрипты агрегации и фильтрации. Работа замедлялась, техдолг рос. Я решил использовать связку AI-агентов с кастомными промптами, собственный сервисный слой (MCP) для доступа к логам и LLM-модель, чтобы превращать пользовательские запросы в автоматический алгоритм анализа. Так, кейсы вроде «Посчитай уникальных пользователей за сутки» или «Проанализируй ошибки за период» решаются без ручного кодинга. Под катом мой кейс: расскажу, как это сделал, поделюсь ссылкой на гитхаб, так что, если хотите упростить себе анализ логов, — эта статья для вас.

https://habr.com/ru/companies/kaspersky/articles/953780/

#kibana #opensearch #ai #roocode #логи #llm #машинное_обучение #тестирование #roo_code #elasticsearch

Как я автоматизировал анализ логов из Kibana с помощью LLM и AI-агентов

OpenSearch, Elastic или Kibana и подобные им инструменты — уже давно стандарт для поиска и визуализации логов, ведь они удобны, у них мощная поисковая система. Но сложный анализ — агрегации, парсинг,...

Хабр

@xeraa Maybe you’re right. We’re experimenting at the moment.

Currently we have ES/Kibana on one of our VMs for (text) logs sent by Docker via Fluent, and Grafana Cloud with Graphite for metrics sent by Telegraf via carbon-relay-ng.

The metrics part runs smoothly. The only drawback is that some queries for dashboards or alerts are annoying to get right with Graphite.

#Elasticsearch #Kibana #Graphite #Grafana #DevOps