Od piątku 13 marca nasze kosy spalinowe niestrudzenie pracowały na zboczach Góry Sosnówki. Na pierwszej linii stanęło dwoje dzielnych kosiarzy – Magda Galus i Bartłomiej Bart Nurczyński. Wieczorem dotarły posiłki i przez weekend działaliśmy już w całkiem sporym zespole wolontariuszek i wolontariuszy 💪
W akcji czynnej ochrony murawy kserotermicznej wzięło udział łącznie 29 osób!
Dzięki współpracy z Regionalnym Centrum Wolontariatu w Kielcach - Europejski Korpus Solidarności Sosnówka gościła wolontariuszy z:
🇦🇿 Azerbejdżanu
🇹🇷 Turcji
🇮🇹 Włoch
🇫🇷 Reunion (Francja)
Naszym wolontariuszem był również Prof. Jürgen Dengler z 🇩🇪 Niemiec.
Dziękujemy za niesamowitą atmosferę podczas akcji! I cieszymy się, że pozytywny przekaz o ochronie polskiej przyrody idzie w świat – i to dosłownie!
Razem możemy więcej! 🤝
Marcowa akcja czynnej ochrony muraw kserotermicznych to efekt połączonych sił Centrum Ochrony Mokradeł oraz naszego lokalnego partnera Fundacji Vernalis.
Fundacja Vernalis to organizacja założona przez wieloletniego członka Centrum Ochrony Mokradeł - Bartłomieja Nurczyńskiego. Fundacja to młoda, pełna pasji ekipa, która wykonuje kawał dobrej roboty na lokalnym podwórku.
Dziękujemy za Wasze zaangażowanie, wysiłek włożony w ochronę murawy, inspirujące rozmowy, dobry nastrój i wspólnie spędzony czas! 💚
#ochronaprzyrody #Sosnówka #Wolontariat #FundacjaVernalis #Kielce #CentrumWolontariatuKielce #EuropejskiKorpusSolidarności #EKS #Ekologia #ActiveConservation #NatureLovers #murawa #ngo
Учора до ночі провозився з #clouddriver від #Spinnaker: це компонент, який відповідає за опрос стану хмарних сервісів (Kubernetes кластера, Docker регістрі). Под почав крашитись після перевода на нову #EKS ноду та вижирати доступні CPU ресурси.
Раніше я виявив, що така поведінка через накопичення команд опросу EKS кластерів та Docker регістрі. Справа у тому, що для обох процесів треба отрмати #AWS токени.
Для EKS це була команда:
```
aws eks get-token --cluster-name XXX --output json
```
Але в поді іноді її виконання займало до 10 секунд. AWS CLI написаний на #Python, тому працює повільно. Заміним цю команду на aws-iam-authenticator, який написаний на #Go та працює в 5-6 разів швидше:
```
aws-iam-authenticator token -i XXX
```
Наступна проблема з #Docker. Команда автентифікації була
```
aws ecr get-authorization-token --output text --query 'authorizationData[].authorizationToken' | base64 -d | sed 's/^AWS://'
```
Ця команда теж іноді по 10-15 секунд виконувалась та віджирала CPU. Токен дійсний на 12 годин, але опрос запускається кожні 5 хвилин, тому є сенс кеширувати його. Вигадав таку команду, не лякайтесь ;-) Її треба було саме однорядкову, тому що вона буде додана в #YAML конфіг #Spinnaker:
```
[ ! -f /tmp/ecr-token ] || \
[ $(( $(date +%s) - $(date +%s -r /tmp/ecr-token) )) -gt 36000 ] \
&& aws ecr get-authorization-token --output text \
--query "authorizationData[].authorizationToken" | \
base64 -d | sed "s/^AWS://" > /tmp/ecr-token; \
cat /tmp/ecr-token
```
Вона перевіряє наявність файла, якщо нема кешированого токена створює його та оновлює його якщо він старий, після просто видає його.
Після цього команди перестали накопичуватись на навантаження на под значнно впало.
Ліг спати щасливий як ніколи ;-)
#devops #troubleshooting
AI-powered event response for Amazon EKS
https://aws.amazon.com/blogs/architecture/ai-powered-event-response-for-amazon-eks/
AWS DevOps Agent is a fully managed autonomous AI Agent that resolves and proactively prevents incidents, continuously improving reliability and performance of applications in AWS, multicloud, and hybrid environments.
#AWS #AwsDevOpsAgent #EKS #AI
AI-powered event response for Amazon EKS | Amazon Web Services

In this post, you'll learn how AWS DevOps Agent integrates with your existing observability stack to provide intelligent, automated responses to system events.

Amazon Web Services

AWS has 200+ services. Most companies use about 15. The same ones show up in every project: EC2, S3, Lambda, RDS, DynamoDB, API Gateway, CloudFront, SQS, SNS, CloudWatch.
That handles 80% of everything. Wrote a guide covering just the ones that matter.

#aws #cloud #infrastructure #EC2 #IAM #S3 #RDS #DynamoDB #Lambda #APIGateway #CloudFront #Route53 #SQS #SNS #CloudWatch #EKS #CDN

https://heyjoshlee.medium.com/the-80-20-of-aws-the-services-that-actually-matter-13509ff90115

The 80/20 of AWS (the services that actually matter)

AWS has over 200 services. That number is intimidating. You log into the console, see a wall of icons, and immediately feel like you need a…

Medium

Learn how to provision AWS EKS clusters with secure IAM architecture using Terraform — complete with IRSA (IAM Roles for Service Accounts), OIDC provider setup, IMDSv2-enforced node groups, and KMS encryption. Includes ready-to-use Terraform modules.

https://iamdevbox.com/posts/orchestrating-kubernetes-and-iam-with-terraform-a-comprehensive-guide/?utm_source=mastodon&utm_medium=social&utm_campaign=blog_post

#keycloak #terraform #kubernetes #eks #aws

Orchestrating Kubernetes and IAM with Terraform: A Comprehensive Guide

Orchestrating Kubernetes and IAM with Terraform: Learn to streamline cloud infrastructure management effortlessly. Dive into this comprehensive guide!

IAMDevBox

My dear #fediverse, does someone has a nice #ansible repo to setup an #EKS on aws? If I can avoid to start from scratch 😅

#sysadmin #devops #linux #opensource #foss

I wrote up a quick how-to for running data backups inside a Kubernetes cluster using CronJobs. I wish it was as simple as a crontab + bash script like the olden days, but it works well enough. It is nice how declarative and stateless it is though!

https://nbailey.ca/post/backup-k8s-cronjob/

#kubernetes #backup #backups #cronjob #postgres #postgresql #kafka #aws #s3 #eks #bash #terraform #sysadmin #linux #blog #blogpost

Backup Postgres databases with Kubernetes CronJobs

A key part of operating any safe and reliable system is ensuring that there is a way to recover deleted or lost data in a prompt and consistent way. One key part of that is to maintain automatic backups that are recoverable and verifiable. This is a quick and easy way to accomplish that goal, by using existing pieces of infrastructure that are common in production networks. There are countless ways to perform a backup, this is simply one of the “easiest” given these ingredients are available.

A multi-cloud strategy, building a distributed system, your Kubernetes pods need secure, passwordless authentication across AWS, Azure, and GCP. https://hackernoon.com/the-clean-way-to-access-aws-azure-and-gcp-from-kubernetes-no-secrets-no-rotations #eks
The Clean Way to Access AWS, Azure, and GCP From Kubernetes (No Secrets, No Rotations) | HackerNoon

A multi-cloud strategy, building a distributed system, your Kubernetes pods need secure, passwordless authentication across AWS, Azure, and GCP.

Як так виходить, що DevOps кандидат, який працював декілька років в #EPAM, потім в #LuxSoft, а зараз знов в #EPAM, маючи декілька сертифікації #AWS (отриманих в том же ЕПАМ), а також сертифікацію по #Kubernetes #SKAD, не знає відповіді на питання:
- що треба зробити в новому кластері #EKS щоб створити балансер для деплоймента?
Не без труда кандидат відповів, що треба зробити #ingress з типом #nginx, але не зміг відповісти чому після цього балансер не створився (бо в новому кластері немає nginx ingress controller). Ну, й я б ставив ALB ingress controller, не nginx.
При чому це був типу strong middle по скілах. Мені здається, що у мене стронг джуни знають відповідь, бо кожний грається з кластером та самі усе потрібне в нього ставлять.

So, like, #AWS #EKS.. the kernel defaults for the EKS nodes are by in large, consistent with 10mbps half duplex networking on a workstation. Judging by how many hoops you need to jump through to manage sysctl's on EKS and #K8S in general, I can only see one of two possible explanations:

1) There's some magic kernel module installed for EKS or K8S that obviates the need to tune the kernel for server workloads.

2) We stopped caring about synchronizing the network stack to the network it's connected to and the use of the server because it's cloud and/or K8S and wasting resources is just what we do for the convenience of buying Bezos a new spaceship or super yacht.

I see a ton of network implicated slowdowns in pipelines on EKS.There's a fuckton of dropped packets, retransmits, and context switches. We can tell the kernel to spend a bit more time per cycle on processing network packets. We can increase the default and max buffer sizes for TCP and UDP sockets which are transmitting MASSIVE amounts of data for "15GBps" bursts. We can adjust the TCP timeout to match the AWS network to prevent half-open connections. We can increase the kernel backlog depth for busy services. Maybe, I mean, **I** can. It's a twisted, gnarly, and wholly undocumented nightmare for K8S and EKS mostly involving logging into the EKS nodes and manually setting the sysctls one at a time.. Does anyone have a better way? I've yet to read something that demonstrated how to do this in some sane manner.. FWIW, it was one `file` and one `exec` resource in Puppet to adjust an entire fleet consistently.