Как перенести Ghost CMS на vps с панелью FASTPANEL

Появилась необходимость перенести уже установленный ghost cms на другой vps, на котором уже установлена FASTPANEL. Вдохновившись статьей " Установка Ghost на сервер под управлением ispmanager ", я подумал, что это будет просто. На деле же оказалось несколько сложнее. Конечно можно установить в docker контейнер и не париться с панелью. Но я решил остановиться на варианте без контейнеризации. В этой статье у меня был 1 чистый сервер на котором был установлен ghost cms без докера. Второй сервер уже в работе с установленной FASTPANEL. Начнем пожалуй с бэкапов.

https://habr.com/ru/articles/981230/

#ghost #cms #ubuntu #nginx #fastpanel #npm #mailgun #smtp #headers #кэширование

Как перенести Ghost CMS на vps с панелью FASTPANEL

Как перенести Ghost CMS на vps с панелью FASTPANEL Появилась необходимость перенести уже установленный ghost cms на другой vps, на котором уже установлена FASTPANEL. Вдохновившись статьей " Установка...

Хабр

Sometimes ranting helps I guess. After I reverted everything back to Nginx Reverse Proxy (after getting fed up with configuring Nginx) I noticed that this ominous '/desktop#/' thing was still getting appended to my selfhosted apps URLs.

That means it was just cached from the ezBookkeeping app (which uses it to show the desktop page instead of the mobile page) I tried first and configured wrong for a short amount of time but that was enough for the browser to cache it and append it to every other URL.

#selfhosting #nginx #nginxproxymanager #cache #reverseproxy

I think I just give up configuring Nginx and just stay with Nginx Proxy Manager. That would mean I can't configure everything through files but at least it works.

I have now spent 2 days trying to get Nginx to work and I managed to reverse proxy to my selfhosted services with valid SSL certificates created with a DNS challenge but when I try to access my services via the configured URL I get an "/desktop#/" appended to it and half the apps don't like that and won't work with that.

I wish I could use Caddy but the way modules are installed for it is so unnecessarily convoluted IMO compared to Nginx plugins which you can just install with your package manager instead of having to build it with the modules included for yourself (or creating your own Docker image) which makes maintaining it a PITA (and I need a module for Caddy because I need DNS challenge for SSL certificates because I don't want to open any ports on my server).

Rant over I think

#selfhosting #nginx #caddy #reverseproxy #rant #nginxproxymanager #dnschallenge

Finally finished creating my Ansible tasks to setup certbot with DNS challenge. Next up are the Ansible tasks to setup Nginx so I can finally replace Nginx Proxy Manager with it.

#selfhosting #nginx #certbot #nginxproxymanager #ansible

I finally had some time after migrating from traefik to implement ModSecurity with the core ruleset for my nginx servers.

#Cybersecurity #ModSecurity #Nginx #Sysadmin #selfhosted #homelab

Hace tiempo que esta circulando la famosa teoría del internet muerto. Luego de un pequeño descuido en mi server me puse a meditar en que tal vez sea real.

Introducción

A saber cuando publicare esta entrada, pero a fecha del 18 de noviembre del 2025, estuve haciendo algo de limpieza en mi server. Como ya no iba a usar mas Apache2, decidí desinstalarlo. Aparte de un susto por haber usado apt purge apache2 de forma imprudente, tras salir un mensaje de que evitó borrar el directorio donde alojo mis webs, realmente no parecía haber ningún tipo de novedad. Pero se puso muy lento de repente. No tardé en darme cuenta de que pasaba algo y quise revisar. Lo primero que encontré, fue que los gráficos de mi VPS mostraban un consumo exageradisimo. Captura de pantalla de log de mi vps, mostrando un consumo desmesurado de cpu Rápidamente empece a revisar los logs. Era una cantidad asombrosa de llamadas desde un servidor chino al archivo xmlrpc.php que previamente habia deshabilitado por código y bloqueado por fail2ban. Si bien, al deshabilitarlo por código producía un error 405, produce un consumo excesivo de CPU por alguna razón que desconozco. Estoy actualmente en un proceso de limpieza del blog del cual luego hablaré, pero a pesar de eso, y mas los repetidos intentos de hacer no se que en ese archivo, empezaba a desbordarse los limitados recursos de mi procesador. Tras lucharle un buen rato para entender lo que pasaba y resolverlo, encontré que el problema estaba en que al desinstalar Apache2, se borraron sus logs, pero fail2ban tenia reglas para apache, que comenzaron a fallar al no encontrar los logs que correspondían. Corregido eso, comenzó a aplicarse la regla que hice para que se bloqueen por iptables toda llamada a xmlrpc.php, porque al no usarlo, cualquiera que intente acceder a el seria sospechoso, asi que bastaba un solo intento para ser bloqueado por IP. Adjunto mi primitiva jaula llamada block_xmlrpc.conf en /etc/fail2ban/jail.d/ [block_xmlrpc]enabled = truefilter = block_xmlrpc logpath = /var/log/nginx/*.access.log #port = http,httpsmaxretry = 1findtime = 3h bantime = 12h y adjunto mi primitivo filtro block_xmlrpc.conf en /etc/fail2ban/filter.d/ [Definition]failregex = ^<HOST>.*"(GET|POST) .*(\.env|xmlrpc\.php|\.git) En realidad una tarea muy facil de resolver, pero que me deja reflexionando sobre algo

La teoría del internet muerto

Esta teoría ha estado ganando popularidad y siento que … tal vez no esta demasiado equivocada. La teoría de Internet muerta (también conocida como Internet muerta o la teoría de la conspiración de Internet muerta) es una teoría de conspiración que afirma que desde alrededor de 2016 Internet ha consistido principalmente en la actividad de bots y ha generado automáticamente contenido manipulado por la curación algorítmica, como parte de un esfuerzo coordinado e intencional para controlar la población y minimizar la actividad humana orgánica. Los defensores de la teoría creen que estos bots sociales fueron creados intencionalmente para ayudar a controlar los algoritmos y aumentar los resultados de búsqueda con el fin de influir en los consumidores. Algunos defensores de la teoría acusan a las agencias gubernamentales de usar bots para manipular la percepción pública. La teoría de Internet muerta ha ganado tracción porque muchos de los fenómenos observados son cuantificables, como el aumento del tráfico de bots, pero la literatura sobre el tema no apoya la teoría completa Wikipedia Tal vez la parte conspiranoica no sea real. La verdad, me da bastante igual si lo es, pero es increíble la cantidad de trafico no orgánico que hay en internet. Estadisticas de Jetpack para el blog de interlan Actualmente tengo un promedio de visitantes de 35 personas por semana. No tengo la certeza de que haya 35 personas humanas leyendo mis contenidos, porque no comentan. Lo que muestra como comentarios solo son los pingback que los tengo activados y el me gusta que aparece, es el que me dio un usuario del fediverso @pragmaticdx, posiblemente, el único lector humano que puedo confirmar desde mi web. Paginas mas visitadas en los últimos 7 días en interlan.ec ¿Por que dudo tanto de mis lectores? ¿Por la tendencia de estos artículos? No realmente. Esto es una curiosidad, tal vez consecuencia del SEO. Encuentro raro que haya 7 personas leyendo un articulo tan viejo, pero encuentro sumamente raro que esta tendencia se haya mantenido en las estadísticas de los últimos 12 meses. Paginas mas visitadas en los últimos 12 meses en interlan.ec ¿Por que habrían 368 personas buscando y leyendo sobre el desarme de unos xiaomi buds 4 lite, o buscando drivers para lenovo yogabook, o el desarme de un proyector chino? No tengo idea. Le sospecho menos a los de resolución de problemas como los de nextcloud o mailu. Pero el punto es el siguiente.

35 usuarios a la semana no producen tanto trafico

Jetpack filtra las estadísticas de tal manera que solo, en teoría, se muestre el trafico orgánico. Es decir, ignora todo el trafico aparte del que considera humano. Así que utilizando GoAccess filtré el trafico registrado en los logs a un periodo 24 de octubre al 20 de noviembre de 2025, para ver el total de trafico que llegaba unicamente a ese sitio web. Total Requests195.987Valid Requests195.987Failed Requests0Unique Visitors20.732Requested Files20.509Referrers0Not Found3041Static Files107Tx. Amount1.29 GiB Un monstruoso trafico de 1.29GiB Estuve revisando los logs y si bien una parte importante del trafico es generada por el plugin de activityPub. otra parte importante esta generada por actores desconocidos. Trafico al sitio interlan.ec por sistema operativo Hay un 20.47% de trafico (60.384 peticiones en el intervalo de tiempo dado) generado por sistemas operativos desconocidos. Esto es, probablemente crawlers maliciosos que escanean la red en busca de vulnerabilidades. Por supuesto que no les interesa identificarse. Y claro, tenemos a los que se identifican como «otros» que incluyen hasta teléfonos que ni navegadores tenían17.053 (8.70%)15 (0.07%)11.52 MiB (0.87%)Apache-HttpClient/4.5.23 (0.00%)1 (0.00%)32.4 KiB (0.00%)Apache-HttpClient2 (0.00%)2 (0.01%)384 B (0.00%)Apache-HttpClient/4.5.132 (0.00%)1 (0.00%)24.7 KiB (0.00%)SonyEricssonW850i/R1ED2 (0.00%)1 (0.00%)24.7 KiB (0.00%)BlackBerry9530/4.7.0.1672 (0.00%)2 (0.01%)10 B (0.00%)SymbianOS/9.21 (0.00%)1 (0.00%)5 B (0.00%)SonyEricssonK800i/R1CB1 (0.00%)1 (0.00%)5 B (0.00%)SymbianOS/8.01 (0.00%)1 (0.00%)5 B (0.00%)BlackBerry9700/5.0.0.3511 (0.00%)1 (0.00%)5 B (0.00%)BlackBerry9000/4.6.0.1671 (0.00%)1 (0.00%)5 B (0.00%)BlackBerry8300/4.2.21 (0.00%)1 (0.00%)5 B (0.00%)SonyEricssonK610i/R1CB Estas peticiones raras, también pueden ser actores maliciosos automatizados que están dando vueltas por internet Ahora bien, también hay agentes de usuarios extraños. Trafico del servidor interlan.ec organizado por navegadores (user agent) Cerca del 37% de mi trafico es claramente Crawlers. 75.109 (38.32%)7677 (37.03%)335.22 MiB (25.42%)Crawlers26.992 (13.77%)2235 (10.78%)39.44 MiB (2.99%)(http.rb/5.3.118.457 (9.42%)95 (0.46%)3.84 MiB (0.29%)(Mastodon/4.1.256817 (3.48%)26 (0.13%)2.07 MiB (0.16%)robot3087 (1.58%)294 (1.42%)4.63 MiB (0.35%)(http.rb/5.2.02377 (1.21%)56 (0.27%)24.61 MiB (1.87%)Barkrowler/0.91643 (0.84%)19 (0.09%)15.28 MiB (1.16%)GPTBot/1.21433 (0.73%)1379 (6.65%)21.26 MiB (1.61%)AhrefsBot/7.01376 (0.70%)191 (0.92%)28.19 MiB (2.14%)Googlebot/2.11286 (0.66%)13 (0.06%)25.47 MiB (1.93%)BLEXBot/1.01083 (0.55%)537 (2.59%)20.84 MiB (1.58%)SemrushBot/7~bl762 (0.39%)26 (0.13%)6.5 MiB (0.49%)DataForSeoBot/1.0759 (0.39%)600 (2.89%)13.55 MiB (1.03%)bingbot/2.0737 (0.38%)48 (0.23%)10.36 MiB (0.79%)Parser644 (0.33%)26 (0.13%)4.45 MiB (0.34%)DotBot/1.2611 (0.31%)1 (0.00%)9.9 MiB (0.75%)bot603 (0.31%)26 (0.13%)2.64 MiB (0.20%)(Takahe/0.10.0-dev586 (0.30%)543 (2.62%)10.31 MiB (0.78%)Amazonbot/0.1568 (0.29%)7 (0.03%)6.29 MiB (0.48%)GPTBot/1.3 Solo puse esta vez unos cuantos de la enorme lista que sale en la vista de crawlers. Teóricamente no son maliciosos, pero es una cantidad importante de trafico en mi sitio web. Aun así es posible de ver muchos crawlers de GPT en diferentes versiones.

Conclusiones

Me sigo esforzando para que mi sitio sea mas ligero. Mi objetivo actual es que sea perfectamente navegable mediante el navegador elinks pero que también sea mas ligero para dar una respuesta mas rápida. Pero realmente no se si humanos visiten mi blog. La abrumadora cantidad de bots y crawlers que llegan solo a robarse mi contenido o directamente intentar causarme algún mal me hace pensar que tal vez y si, el internet esta muerto. Pero tampoco hago mucho por alcanzar cierta difusión. Por el momento solo les dejo un video de Caleon que habla del tema, porque o no hay conclusión o la conclusión es que no hay nadie en internet.  

Actualización

No tengo idea de por que se han vuelto tan insistentes en atacar el archivo xmlrpc.php. Fail2ban hace un buen trabajo bloqueando a los intensos, pero hay tantos desde tantas direcciones IP distintas y con tan poca diferencia de tiempo entre si, que pienso que es un mismo autor pero diferentes IP Salida lnav filtrada para mostrar solo aataques xmlrpc.php https://interlan.ec/blog/2025/12/26/analisis-de-logs-la-teoria-del-internet-parece-real/ #articulo #devops #fail2ban #fediverso #nginx #port #seguridadInformática #selfhosting #servidores #spam #teoriaDelInternetMuerto #vps

@graves501

> I'm just wondering how you keep your containers up to date in an easy manner?

For a while i was only #selfhosting my #NextCloud, so I kept the #AIO and #nginx together. It felt natural to just add #forgejo to it.

Yeah, I'm still getting my footing with a lot of things.

📌 Hướng dẫn cài đặt PPanel 1.2.2 từ A‑Z: tải server, chạy MySQL & Redis bằng Docker, cấu hình ppanel.yaml, khởi chạy server, xây dựng frontend với Bun, triển khai tĩnh qua Nginx, thiết lập reverse proxy + CORS, bảo mật HTTPS bằng Cloudflare Flexible SSL, tạo node và quản lý. 👍

#PPanel #Docker #Nginx #Cloudflare #Proxy #CôngNghệ #Guide #CàiĐặt

https://dev.to/jimquote/ppanel-122-wan-zheng-an-zhuang-zhi-nan-cong-ling-kai-shi-bu-shu-dai-li-mian-ban-ip6

PPanel 完整安装指南:从零开始部署代理面板

本文原载于 PayIn Blog,转载请注明出处。 前言:本文基于 PPanel 1.2.2 版本编写。由于 PPanel 项目持续更新,官方文档 https://ppanel.dev/...

DEV Community

How to Setup a Reverse #Proxy with HTTPS Using #Nginx and #Certbot (5 Minute Quick-Start Guide)

This article outlines how to setup a reverse proxy with HTTPS using Nginx and Certbot.
What is a Reverse Proxy?
A reverse proxy is a server that sits between client devices and a backend server, forwarding client requests to the backend server and returning the server's response to the clients. Unlike a forward proxy, ...
Continued 👉 https://blog.radwebhosting.com/how-to-setup-a-reverse-proxy-with-https-using-nginx-and-certbot-5-minute-quick-start-guide/?utm_source=mastodon&utm_medium=social&utm_campaign=mastodon.raddemo.host #proxyserver #letsencrypt #reverseproxy