La huella digital – El rastro imborrable que puede resolver un crimen

Recientemente, fui invitado por el equipo de La Nación + para participar en su panel de análisis periodístico, en el programa de los domingos, conducido por Gustavo Carabajal, Caso Abierto. El objetivo fue aportar una perspectiva técnica sobre un caso que conmociona a la opinión pública: la actividad sospechosa en las redes sociales de una persona que fue hallada sin vida (Caso del enfermero hallado muerto en Palermo).

Durante mi intervención, hice especial hincapié en un concepto fundamental para la justicia moderna: la huella digital es absoluta y siempre queda un registro.

https://youtu.be/85BMUOd0V9M

El misterio de los perfiles que «cobran vida»

Uno de los puntos más inquietantes del caso analizado es que la cuenta de la red social X (anteriormente Twitter) de la víctima cambió su configuración de público a privado pocas horas después de que se encontrara el cuerpo. Ante la pregunta de si esto podría ser una acción programada, mi respuesta fue contundente: no es posible programar un cambio de privacidad de este tipo.

Este acto requiere una intervención manual. Como expliqué en el programa, esto significa que alguien, utilizando uno de los dispositivos de la víctima o un acceso remoto, administró la cuenta después del fallecimiento.

Por qué la tecnología es el testigo clave

En la era digital, es prácticamente imposible desaparecer sin dejar rastro. Durante el panel, destaqué tres puntos clave que los peritos informáticos analizan en estos casos:

  • Registros en servidores: Más allá de lo que se borre en un teléfono o computadora, las plataformas como X, Instagram o incluso OnlyFans mantienen registros detallados en sus servidores.
  • Múltiples conexiones: Las redes sociales permiten ver cuántos y qué tipo de dispositivos estaban conectados simultáneamente a una cuenta.
  • Geolocalización y registros de acceso: Cada inicio de sesión deja una marca que indica la provincia o zona general de conexión, además de la identificación del equipo utilizado.
  • La importancia del peritaje judicial

    Aunque un usuario común no puede acceder a estos datos técnicos de terceros, la justicia tiene las herramientas para solicitar a los proveedores de servicios (como X o Instagram) el historial completo de accesos.

    En casos donde se debate si la causa de muerte fue un homicidio o una situación accidental, estos rastros digitales se vuelven pruebas irrefutables. Todo lo que hacemos en internet, sin importar la aplicación o el sistema operativo, guarda un registro.

    #ArielCorgatelli #arielmcorg #ciberseguridad #dispositivosMóviles #EvidenciaDigital #huellaDigital #investigaciónJudicial #Justicia #LaNaciónMás #periciaTécnica #peritajeInformático #PORTADA #rastroDigital #redesSociales #seguridadInformática #servidores #tecnología

    04/01 - 1º de abril: Dia da Mentira -
    💧#Privatização que não garante tarifa menor
    🚧 #Pedágios mais caros e estradas que não melhoram
    🏥 #Servidores desvalorizados
    📚 #Educação sem investimentos prometidos

    https://www.instagram.com/p/DWl6F69DktZ/ -

    RI @lcmarcolino13 -
    .Temos mentirosos profissionais? -

    Luiz Claudio Marcolino on Instagram: "📅 1º de abril: Dia da Mentira Mas em São Paulo, a população já cansou de ouvir promessas que não se cumprem. O governo de Tarcísio de Freitas segue vendendo soluções que não chegam na vida real. 💧 Privatização que não garante tarifa menor 🚧 Pedágios mais caros e estradas que não melhoram 🏥 Servidores desvalorizados 📚 Educação sem os investimentos prometidos A conta sempre sobra para quem mais precisa. ❌ Não é pegadinha. ❌ Não é brincadeira. ❌ É a realidade de milhões de paulistas. 1º de abril é só hoje — mas a verdade precisa ser cobrada todos os dias. #diadamentira #sãopaulo #políticaspúblicas #sabesp #educação"

    445 likes, 28 comments - lcmarcolino13 on April 1, 2026: "📅 1º de abril: Dia da Mentira Mas em São Paulo, a população já cansou de ouvir promessas que não se cumprem. O governo de Tarcísio de Freitas segue vendendo soluções que não chegam na vida real. 💧 Privatização que não garante tarifa menor 🚧 Pedágios mais caros e estradas que não melhoram 🏥 Servidores desvalorizados 📚 Educação sem os investimentos prometidos A conta sempre sobra para quem mais precisa. ❌ Não é pegadinha. ❌ Não é brincadeira. ❌ É a realidade de milhões de paulistas. 1º de abril é só hoje — mas a verdade precisa ser cobrada todos os dias. #diadamentira #sãopaulo #políticaspúblicas #sabesp #educação".

    Instagram

    🔥 JBoss/WildFly ou Apache Tomcat: Qual Escolher? 🖥️

    Está em dúvida entre esses dois servidores? Ambos têm suas vantagens, mas qual é o ideal para seu projeto? Entenda as diferenças e descubra qual atenderá melhor às suas necessidades!

    👉 Leia no blog: https://nova.escolalinux.com.br/blog/jboss-wildfly-ou-apache-tomcat-qual-devo-escolher?utm_source=dlvr.it&utm_medium=mastodon

    #Tecnologia #Servidores #Java #Tomcat #JBoss #WildFly

    Jboss/Wildfly ou Apache Tomcat: Qual devo escolher?

    O administrador de sistemas é um profissional de extrema importância, principalmente para empresas que desejam ter um sistema de computadores em rede eficiente.

    Paulo Oliveira

    Guía para Servidores Mac Mini: Encendido Automático con Linux

    Como muchos ya saben, tengo en casa 2 Mac Mini 2012 con procesadores Intel que están haciendo la función de servidores, uno con Ubuntu Server y otro con Debian. Estos equipos son ideales para usarlos como servidores porque consumen muy poco, tienen buena refrigeración, son silenciosos, y se pueden actualizar en cuanto a memoria RAM y disco duro. Por diversos motivos he tenido interrupciones de electricidad, y estaba buscando como configurar ambos Mac Mini para que, cuando detectaran que […]

    https://www.systeminside.net/guia-para-servidores-mac-mini-encendido-automatico-con-linux/

    🔥 JBoss/WildFly ou Apache Tomcat: Qual Escolher? 🖥️

    Está em dúvida entre esses dois servidores? Ambos têm suas vantagens, mas qual é o ideal para seu projeto? Entenda as diferenças e descubra qual atenderá melhor às suas necessidades!

    👉 Leia no blog: https://nova.escolalinux.com.br/blog/jboss-wildfly-ou-apache-tomcat-qual-devo-escolher?utm_source=dlvr.it&utm_medium=mastodon

    #Tecnologia #Servidores #Java #Tomcat #JBoss #WildFly

    Jboss/Wildfly ou Apache Tomcat: Qual devo escolher?

    O administrador de sistemas é um profissional de extrema importância, principalmente para empresas que desejam ter um sistema de computadores em rede eficiente.

    Paulo Oliveira
    Cómo instalar Docker en Debian 11 Bullseye

    Docker es un software bastante popular presente hoy en día en muchos procesos de desarrollo de software y despliegue. Veamos cómo obtenerlo en workstations o servidores que ejecuten Debian 11.

    Nos Gusta Linux
    Esto solo es un script bash para tener una idea de cuantos lectores RSS se tienen.

    Introducción

    Esto es solo un proyecto rápido originado por la curiosidad que me dio el post de Manuel Moreale sobre cuantos le leen por lectores RSS, el cual también es una reacción a un post de Kev sobre como los lectores leen sus contenidos. Ambos han recurrido a formularios y han obtenido sus resultados, siendo que Manuel Moreale incluso añadió datos técnicos sacados de sus Logs, con lo que tuve la idea de evitar los formularios e ir directo a los Logs. Entiendo que hago esto desde una posición de privilegio del conocimiento. Después de todo, tengo acceso a mis logs y puedo procesarlos a gusto. Compartiré el código con el fin de que otros puedan usarlo y si asi lo desean, contribuir con ideas para mejorarlo, pero eso también beneficiaria solo a los que tengan acceso a sus Logs. Tampoco es para tanto. Si sale bien, se me podría ocurrir una idea para que sea mas fácil de utilizar. Los logs de nginx/apache son abrumadores. Ya antes tuve que segmentarlos para no perderme entre tanta cosa, separando los logs por subdominios. Aun así, la cantidad de trafico kk es abrumadora. Hay demasiados bots, crawlers y personas con intenciones sospechosas, y leerlos da flojera. Es demasiado que analizar. Desde hace rato, he estado intentando de entender comandos de linux que ayuden a procesar texto. La verdad, las herramientas existentes, aunque cripticas, son asombrosas. Mira la velocidad en la que trabajan con grandes volúmenes de datos y el resultado siempre es excelente. Me salvé gracias a esto para segmentar archivos SQL y ahora lo aprovecharé para este breve experimento.

    Descripción del Problema

    En teoría, suena sencillo. Solo necesito recopilar los datos de la URL /feed que es donde publica mi blog de WordPress los Feeds RSS. En teoría, solo los lectores RSS deberían visitar esa URL pero ya sabes, ahi estan metidos los bots y crawlers todo el tiempo, asi que es muy fácil inflar las estadísticas con datos que no queremos. También, aunque se ejecute el script de forma regular, corre el riesgo de captar datos repetidos inflando aun mas las estadísticas, así que, es necesario evitar datos repetidos. Para saber cuantos lectores RSS unicos visitan el sitio, lo mejor es hacer una asociacion entre la direccion IP y su User Agent de esta manera puedo generar un UID que permitiria sumar la estadistica de cuantos lectores RSS estan cargando mi contenido desde el Feed. Esto por supuesto, no es infalible. especialmente los Feeds que cambian la version en el nombre del User Agent, quedarian sumados como un lector adicional en lugar de ser unico. Otra cosa es que es difícil saber cual es un lector RSS y cual no. Como criterio de búsqueda, he determinado que este tenga las palabras RSS, Feed, Reader, SimplePie, W3C_Validator, TinyPRSS y NewsBlur en su user agent. Iré sumando ideas, pero hay demasiados. a veces pienso que hay mas lectores de RSS que blogs. Como curiosidad, también agregué patrones para identificar lectores del fediverso (teóricamente algunas plataformas como friendica, pueden seguir un sitio mediante los RSS) así que agregue los patrones de Mastodon, Pleroma, Friendica, PixelFed, Lemmy y ActivityPub. Por ultimo, bots. Todo lo que parezca bot (asumiendo que son honestos y dicen ser bots) con los patrones bot, googlebot, bingbot, slurp, duckduckbot, yandexbot, spider, crawl. Para este proceso hay que hacer algunos archivos temporales que serviran para el procesamiento de los datos.

    Control-RSS

    El script es sencillo en teoria. Tiene un monton de Regex, pero solo eso es lo unico intimidante. De hecho te animo a ayudarme a mejorarlo, aunque no se tampoco que interes habria en mejorarlo. Igual, Siguiendo el patrón que he aprendido al hacer el bot de Channel2RSS en el que se separa la configuración del programa, tengo un archivo de configuración, el cual debe llamarse config.conf, pero que dejo un ejemplo que añade la extensión .example. # --- Configuración del Script ---LOG_FILE="/var/log/nginx/access.log" # Ruta a tu archivo de log principal# Si usas Apache, podría ser /var/log/apache2/access.log o similarURL_A_MONITORIZAR="/feed" # El script es principalmente para ver datos de RSS, pero lo puedes modificar tu gustoOUTPUT_FILE="visitantes_unicos.json" # Archivo JSON de salida# --- Fin de Configuración --- Antes de ejecutar el programa, debes asegurarte de que tienes instalado JQ, GnuPlot y AWK. JQ sirve para procesar JSON en la consola, GnuPlot para los graficos y AWK para el procesamiento de texto plano en los logs. #!/bin/bash# 1. Cargar configuraciónif [ ! -f config.conf ]; then echo "Error: config.conf no encontrado"; exit 1; fisource ./config.conf # Inicializar JSON si no existeif [ ! -f "$OUTPUT_FILE" ]; then echo '{"datos": [], "resumen": {}}' > "$OUTPUT_FILE"fiecho "Procesando logs de $LOG_FILE..."# 2. Extracción rápida con AWK awk -v url="$URL_A_MONITORIZAR" '$7 == url || $7 ~ url { split($4, t, /[:/]/); fecha=t[1]"/"t[2]"/"t[3]; hora=t[4]":"t[5]; ua=""; for(i=12; i<=NF; i++) ua=(ua=="" ? $i : ua" "$i); gsub(/"/, "", ua); print $1 "|" fecha "|" hora "|" ua}' "$LOG_FILE" | sort -u > temp_data.txt # 3. Actualización Incremental del JSONecho "Actualizando base de datos (evitando duplicados)..."while IFS="|" read -r ip fecha hora ua; do # ID Único: Asociación IP + Agente ID_UNICO=$(echo "${ip}${ua}" | md5sum | cut -d' ' -f1) # Clasificación de Agentes IS_RSS=$([[ "$ua" =~ (RSS|Feed|Reader|SimplePie|W3C_Validator|TinyPRSS|NewsBlur) ]] && echo "true" || echo "false") IS_FEDIVERSE=$([[ "$ua" =~ (Mastodon|Pleroma|Friendica|PixelFed|Lemmy|ActivityPub) ]] && echo "true" || echo "false") IS_BOT=$([[ "$ua" =~ (bot|googlebot|bingbot|slurp|duckduckbot|yandexbot|spider|crawl) ]] && echo "true" || echo "false") # Inserción segura con JQ (Solo si el UID no existe) jq --arg id "$ID_UNICO" --arg ip "$ip" --arg f "$fecha" --arg h "$hora" --arg ua "$ua" \ --arg rss "$IS_RSS" --arg fedi "$IS_FEDIVERSE" --arg bot "$IS_BOT" \ 'if .datos | any(.[]; .uid == $id) then . else .datos += [{"uid": $id, "ip": $ip, "fecha": $f, "hora": $h, "agente": $ua, "es_rss": ($rss=="true"), "es_fedi": ($fedi=="true"), "es_bot": ($bot=="true")}] end' \ "$OUTPUT_FILE" > "$OUTPUT_FILE.tmp" && mv "$OUTPUT_FILE.tmp" "$OUTPUT_FILE"done < temp_data.txt # 4. Cálculo del Resumen (Corregido error de sintaxis)AHORA=$(date +"%Y-%m-%d %H:%M:%S") jq --arg fecha_act "$AHORA" '.resumen = { "total_visitantes_unicos": (.datos | length), "usuarios_rss": ([.datos[] | select(.es_rss == true)] | length), "usuarios_fediverso": ([.datos[] | select(.es_fedi == true)] | length), "bots_crawlers": ([.datos[] | select(.es_bot == true)] | length), "usuarios_estandar": ([.datos[] | select(.es_rss == false and .es_fedi == false and .es_bot == false)] | length), "ultima_actualizacion": $fecha_act}' "$OUTPUT_FILE" > "$OUTPUT_FILE.tmp" && mv "$OUTPUT_FILE.tmp" "$OUTPUT_FILE"# 5. Generar Gráfica de Frecuencia jq -r '.datos[].fecha' "$OUTPUT_FILE" | sort | uniq -c | awk '{print $2, $1}' > freq.dat gnuplot <<EOFset terminal pngcairo size 800,400set output 'grafica_semanal.png'set title "Evolución de Visitantes Únicos"set xtics rotate by -45set style fill solidplot 'freq.dat' using 2:xtic(1) with boxes title "Visitas"EOF# 6. Generar Informe HTML cat <<HTML > informe.html<!DOCTYPE html><html><head> <meta charset="UTF-8"> <title>Análisis de Audiencia 2026</title> <style>body{font-family:sans-serif; margin:40px; background:#f4f4f9;} .card{background:white; padding:20px; border-radius:8px; box-shadow:0 2px 5px rgba(0,0,0,0.1);}</style></head><body> <div class="card"> <h1>Informe: $URL_A_MONITORIZAR</h1> <p><b>Actualizado:</b> $(jq -r '.resumen.ultima_actualizacion' "$OUTPUT_FILE")</p> <hr> <ul> <li>👤 <b>Visitantes Únicos:</b> $(jq '.resumen.total_visitantes_unicos' "$OUTPUT_FILE")</li> <li>rss <b>Lectores RSS:</b> $(jq '.resumen.usuarios_rss' "$OUTPUT_FILE")</li> <li>🌐 <b>Fediverso (Mastodon/Etc):</b> $(jq '.resumen.usuarios_fediverso' "$OUTPUT_FILE")</li> <li>🤖 <b>Bots y Crawlers:</b> $(jq '.resumen.bots_crawlers' "$OUTPUT_FILE")</li> <li>🖥️ <b>Navegadores Estándar:</b> $(jq '.resumen.usuarios_estandar' "$OUTPUT_FILE")</li> </ul> <img src="grafica_semanal.png" style="max-width:100%;"> </div></body></html>HTML rm temp_data.txt freq.dat echo "Proceso completado. Revisa informe.html y $OUTPUT_FILE" De forma muy resumida, este código permite ir creando un archivo JSON que puedes usar a tu gusto de manera privada. Recuerda tener cuidado con esto pues contiene las IP de las personas que te siguen y probablemente ni ti ni ellos querrán que se divulgue esa información. Basado en este archivo JSON se genera una imagen con GNUPlot mediante simplemente contar las entradas por fechas. Por ultimo, Genera un archivo HTML que te permitirá ver de forma resumida visitantes unicos, lectores de RSS, Fediverso, Bots y Crawlers y Navegadores Estandares. Puedes poner estos dos últimos, la imagen y el archivo HTML, en un directorio publico de tu servidor, en mi caso como hice en el post de NextCloud y Aria2 usando NGinx para tener un directorio que puedo usar de forma publica sin que WordPress lo neutralice. En mi caso, estoy pensando en hacer una página para mostrar esta información, pero a modo de ejemplo, la dejaré aquí, incrustada como iframe como hice en la entrada de las galerías especiales. 

    Conclusiones

    El experimento es interesante. RSS es solo un archivo y no se le suele prestar mucha atención, así que en las estadísticas no suele contar cuantos lo utilizan y visto lo visto, es relativamente difícil sacar resultados apreciables a la hora de saber cuantos individuos lo usan para acceder al sitio. Para este ejercicio he intentado asociar la dirección IP con el user agent, con lo que se puede hacer una idea, pero la misma persona puede usar diferentes lectores en diferentes dispositivos, así sea la misma IP. He dejado este código en publico por si le interesa a alguien. Por supuesto, le he creado una entrada en mi repo git para poder clonarlo y usarlo por cualquiera que así lo desee. https://git.interlan.ec/Drk0027/control-rss ¿Deseas hacer algun comentario? Aqui hay una caja de comentarios que puedes utilizar. ¿Quieres contactarte conmigo? Por correo electronico por supuesto en [email protected] ¿Quieres profundizar en este tema? Vamos pal foro en forum.interlan.ec https://interlan.ec/blog/2026/03/06/proyecto-control-rss/ #Código #DIY #experimentos #linux #logs #nginx #programacion #proyecto #recursos #selfhosting #servidores
    La usurpación de identidad es una técnica bastante curiosa en el sentido de que no funciona para causar ningún daño técnico, sino para engañar al humano del otro lado del computador. Ya revisamos lo que sucedía en el Spoofing y ahora me salen con el SMTP Smuggling.

    Introducción

    SMTP Smuggling y Email Spoofing son medidas de ingeniería social mas que ataques técnicos. Por supuesto se necesita conocimientos técnicos para efectuarlos, pero no vulneran la seguridad de la cuenta del usuario ni la comprometen en el servidor. Solo sirve para mandar mensajes amenazadores a los dueños de la cuenta quien, dependiendo de su pericia técnica y social, puede o no caer en el engaño y ceder a las extorsiones del atacante. En entradas anteriores ya revisamos que es el Email Spoofing y como contrarrestarlo efectivamente.  Por supuesto que funciona, pero ahora me ha llegado un nuevo correo. De parte de mi mismo y con el unico contenido de «Hello.». No pos. Miedo. Fuente del correo enviado mediante smtp smuggling

    SMTP Smuggling

    Es una técnica bastante reciente. Por supuesto hablo de años, pero no tan reciente como el spoofing que ya podría contarse en décadas. Se basa en confundir al servidor mediante caracteres especiales. Según estoy revisando, parece que por el 2023 se anuncio de su existencia y en el 2024 Postfix hizo declaraciones al respecto. En la pagina https://smtpsmuggling.com/ hacen una explicación sobre la técnica y como funciona, mostrando una lista de software afectado. Me resulta gracioso notar que la lista es larguísima y creen que puede ser mayor, pero hay un solo software que parece inmune. qmail. El SMTP Smuggling es una vulnerabilidad novedosa que permite la suplantación de correo electrónico al explotar las diferencias de interpretación del protocolo SMTP en constelaciones de servidores vulnerables. Más específicamente, diferentes entendimientos de las llamadas secuencias de «final de datos» entre los servidores SMTP salientes (de envío) y de entrada (recepción) pueden permitir que un atacante contrabandee, por lo tanto, correos electrónicos con contrabando SMTP (ver Figura 1). Los actores de amenazas pueden abusar de esto para enviar correos electrónicos maliciosos desde direcciones de correo electrónico arbitrarias, lo que permite ataques de phishing dirigidos. El software afectado identificado en el lado saliente incluye Exchange Online y GMX, que albergan millones de dominios. En el lado de entrada, más de un millón de instancias SMTP, incluyendo Postfix, Sendmail, Cisco y otros se ven afectados. Esto permitió suplantar correos electrónicos de millones de dominios (por ejemplo, microsoft.com, github.com, gmx.net) a millones de servidores SMTP.Explicación del stmp smuggling

    Lo que Postfix dice

    Al parecer lo que hay temporalmente es un parche que se puede aplicar mas no una solución persistente. En la pagina de postfix dicen lo siguiente: Días antes de unas vacaciones de Navidad de más de 10 días y la producción asociada Congelación del cambio, SEC Consult ha publicado un ataque de suplantación de correo electrónico Que implica una composición de servicios de correo electrónico con diferencias específicas En la forma en que manejan las terminaciones de línea distintas de <CR><LF>. Técnicamente, el ataque explota la confusión de END-OF-DATA en un servicio de recepción de correo, engañando a un servicio de envio de correo  para enviar una secuencia de END-OF-DATA no estándar <LF>. <LF> o <LF>. <CR><LF> en la mitad de un mensaje de correo electrónico, seguido de los comandos SMTP del atacante que inyectan un mensaje de correo electrónico falsificado (la secuencia estándar de END-OF-DATA es <CR><LF>. <CR><LF>). La vulnerabilidad fue introducida hace muchas décadas en Sendmail, por permitir que la línea no estándar <LF> termine además de la Estándar <CR><LF>. Para compatibilidad con programas Que esperan el comportamiento de Sendmail, la línea no estándar <LF> El final también fue permitido por otros servidores SMTP, incluyendo Postfix y Exim. Desafortunadamente, la información crítica proporcionada por el investigador no se pasó a los mantenedores de Postfix antes de la publicación de la Ataque, de lo contrario, ciertamente habríamos convencido a la SEC Consultar Posponer la publicación hasta después de que la gente tuvo la oportunidad de actualizar su Postfix u otros sistemas afectados. El resultado neto: un ataque de día cero presumiblemente no deseado fue Publicado porque algunas personas no eran conscientes del alcance del ataque. Después de que se publicó el ataque, se asignaron CVE para Postfix, Sendmail, y Exim (ver cve.mitre.org para una lista completa de MTA afectadas).

    Solución

    Actualiza XD Postfix ya publicó un parche persistente en las versiones 8.5.23 en adelante. Esta es una lección para mi. Porque al notar este ataque, me di cuenta de que he estado recibiendo spam de este tipo y no me había dado cuenta. Daba por sentado que eran cuentas secuestradas o creadas para este menester en esos servicios y solo me di cuenta cuando al parecer alguien hacia un scanner de vulnerabilidad en mi server y mandó ese mensaje que destaqué al principio. Al compa que andaba revisando mi server… Tenias razón. No tenia mi server actualizado… hasta ahora.

    Conclusiones

    Pues esto es un descuido. Aunque es un ataque relativamente reciente, mi servidor no estaba preparado para ello. Ya he realizado los debidos procesos de actualización con lo que al menos esta vulnerabilidad debería estar resuelta. https://interlan.ec/blog/2026/02/27/seguridad-smtp-smuggling/ #correoElectrónico #devops #email #seguridadInformática #selfhosting #servidores #solucionDeProblemas #spam #vps

    🔥 JBoss/WildFly ou Apache Tomcat: Qual Escolher? 🖥️

    Está em dúvida entre esses dois servidores? Ambos têm suas vantagens, mas qual é o ideal para seu projeto? Entenda as diferenças e descubra qual atenderá melhor às suas necessidades!

    👉 Leia no blog: https://nova.escolalinux.com.br/blog/jboss-wildfly-ou-apache-tomcat-qual-devo-escolher?utm_source=dlvr.it&utm_medium=mastodon

    #Tecnologia #Servidores #Java #Tomcat #JBoss #WildFly

    Jboss/Wildfly ou Apache Tomcat: Qual devo escolher?

    O administrador de sistemas é um profissional de extrema importância, principalmente para empresas que desejam ter um sistema de computadores em rede eficiente.

    Paulo Oliveira
    Un poroto comparado con el de Undernet 🤣 #undernet #datacenter #centrodedatos #servidores #uruguay