737 Followers
75 Following
131 Posts

Shugyosha. Digital Rights Defender. Security Developer. Programming Language Nerd.

I am the technical director for CAD - Centro de Autonomía Digital. We build Free Software for the world. I used to work for ThoughtWorks.

I am a martial artist - primarily Bujinkan Budo Taijutsu and Brazilian Jiu-jitsu.

I am currently politically persecuted by the government of Ecuador.

Websitehttps://olabini.se
Pronounshe/him
Workhttps://autonomia.digital
Email[email protected]
GPGhttps://keys.openpgp.org/vks/v1/by-fingerprint/7B4578C7D0122BF76B5EE5DD6786A150F6A2B28F
Blog (OpSec)https://reap.ec
Due to increasing demand, Centro de Autonomía Digital is opening a limited number of advisory engagements for organizations requiring high-assurance security support.
✨✊🏽Para defender nuestra privacidad y seguridad digital, la mejor estrategia es la prevención.
💥💪🏽Aplicar un modelado de amenazas nos permite identificar oportunamente vulnerabilidades y riesgos de seguridad, facilitando el diseño de medidas de prevención y mitigación desde etapas tempranas.
🔔¡Activa las notificaciones! 📣
No te pierdas nuestra nueva sección: #Consejitos.
Tips rápidos para fortalecer tu autonomía digital.

La Inteligencia Artificial en tu TV

En 2026, el televisor ha dejado de ser una "ventana al mundo" para convertirse en un observador silencioso. Los nuevos sensores (luz, movimiento, sonido y cámaras con visión computacional) prometen una experiencia inmersiva, pero detrás de la comodidad del ajuste automático de brillo y el control por gestos, se esconde una infraestructura de vigilancia y consumo de recursos que rara vez se discute.

La Ilusión del "Apagado"

El mayor mito del hogar moderno es que un dispositivo está apagado cuando la pantalla se oscurece. Para que un televisor responda a un comando de voz o detecte tu presencia al entrar en la habitación, sus sensores deben estar en estado de "escucha activa" permanente.

Esta recolección de datos no se limita a tus gustos cinematográficos. La IA procesa:

Hábitos de vida: A qué hora despiertas, cuándo sales de casa y cuántas personas habitan el hogar.

Datos biométricos: Tu postura, tus gestos e incluso el tono de tu voz, que puede revelar estados emocionales.

Privacidad ambiental: Cámaras que captan el interior de tu hogar y micrófonos que registran conversaciones privadas para "mejorar el reconocimiento de voz".

Derechos Humanos y Planeta

La integración masiva de estos sensores plantea dilemas que van más allá de un simple ajuste de configuración:

Vigilancia y Derechos: El derecho a la privacidad es un derecho humano fundamental. Cuando las empresas creadoras recolectan petabytes de datos sobre la vida íntima para crear perfiles publicitarios (o peor, venderlos a terceros), están erosionando la autonomía individual. Nos convertimos en productos predecibles y manipulables.

El Desperdicio de lo "Inteligente": Cada sensor añadido requiere metales raros, cuya extracción es destructiva para los ecosistemas. Además, la IA que procesa estos datos no vive en tu televisor, sino en centros de datos masivos que consumen cantidades industriales de energía y agua para enfriar sus servidores, contribuyendo al calentamiento global.

Obsolescencia Programada: Un sensor de luz puede durar décadas, pero el software de IA que lo gestiona puede quedar "obsoleto" en tres años, convirtiendo un dispositivo funcional en basura electrónica (e-waste) difícil de reciclar.

¿Qué hacen con tu información?

Las grandes corporaciones utilizan esta data para el perfilado algorítmico. No solo quieren saber qué compras, sino cómo te sientes. Tu información se procesa para alimentar modelos de aprendizaje automático que buscan predecir comportamientos de masas, una moneda de cambio extremadamente valiosa en la economía de la atención.

La tecnología no es mala por definición, pero la falta de transparencia sí lo es. Como consumidores, es vital entender que cada sensor es un punto de entrada a nuestra intimidad.

La verdadera "tecnología inteligente" no es la que tiene más sensores, sino la que permite al usuario tener el control total sobre ellos. Proteger nuestra privacidad no es un acto de paranoia, es un acto de resistencia para preservar nuestra esencia en un mundo cada vez más digitalizado.

EL DESARROLLO DE
LA IA NO PUEDE
SEPARARSE DE LA
PRIVACIDAD DIGITAL

Te contamos cómo nace
nuestra alianza y qué estamos
construyendo juntxs.

En un momento donde cada vez
más industrias capitalizan
nuestros datos personales y las
herramientas de inteligencia
artificial se multiplican
exponencialmente.

Vale la pena detenernos a
preguntar:

¿estas tecnologías
cuidan nuestra
privacidad y nuestra
autonomía?

En este escenario, pensar la
tecnología con cuidado,
criterio y responsabilidad ya
no es opcional, es necesario.

Por eso, hoy queremos contarles
algo importante.

Diversa y el Centro de
Autonomía Digital

Una forma más justa,
más consciente y más
inclusiva.

Iniciamos un camino conjunto para
fortalecer una forma distinta de pensar
la inteligencia artificial, los datos y la
privacidad.

Esta alianza nace de una
convicción simple pero profunda:

la tecnología debe estar
al servicio de las
personas, no al revés.

Creemos que la IA puede
amplificar derechos, no
ponerlos en riesgo.

DIVERSA + CAD

Nos encontramos en una misma
mirada sobre cómo debería construirse
la tecnología:

* IA que respeta la privacidad y no
explota datos personales
* Software libre y descentralización
como base de la soberanía digital
* Conocimiento accesible, creado
desde y para el Sur Global
* Investigación comprometida con los
derechos humanos
* Transparencia y responsabilidad
en el desarrollo tecnológico

Desde Diversa, aportamos una mirada
ética y situada sobre la IA: gobernanza
responsable, diseño justo y soluciones
tecnológicas pensadas desde el contexto.

Cada organización trae
saberes distintos que se
complementan.

Desde el Centro de Autonomía Digital, se
fortalece la privacidad como derecho
humano, la seguridad digital y el uso de
software libre para una mayor autonomía
digital.

Cuando juntamos estas miradas, se
potencia algo clave:

Construimos herramientas reales
para desafíos reales, pensadas desde
el Sur Global, donde
la inteligencia artificial
fortalece la autonomía y
cuida la privacidad.

Esta alianza es importante para
organizaciones, comunidades,
instituciones y personas que quieren usar
la tecnología sin perder el control sobre
sus datos.

Porque una IA
segura es una IA
que cuida tu
privacidad.

Protección de datos personales en organizaciones de sociedad civil del Sur Global: Urgencia, desafíos y responsabilidad

En los últimos años, la importancia de los datos personales ha crecido de manera exponencial. Lo que antes se consideraba información administrativa —nombres, números telefónicos, direcciones— hoy es un activo estratégico que influye en decisiones de políticas públicas, mecanismos de vigilancia estatal y estrategias comerciales de grandes corporaciones tecnológicas. Para las organizaciones de sociedad civil (OSC), especialmente en contextos marcados por altos niveles de violencia, discriminación y vigilancia estatal o corporativa, el manejo de datos personales no es un asunto técnico accesorio: es una cuestión de vida, seguridad y defensa de los derechos humanos.
En el CAD nos hemos enfrentado repetidamente a una realidad que es sistemática y preocupante: muchas OSC en Ecuador, Latinoamérica y el Sur Global no cuentan con protocolos sólidos de manejo, almacenamiento y tránsito de datos personales, tanto de sus equipos como de las comunidades con las que trabajan. Esta carencia es el resultado de un entorno donde las prioridades de financiamiento, las capacidades técnicas y las exigencias regulatorias no han empujado aún a la protección de datos al centro de la agenda.
Las OSC trabajan con poblaciones vulnerables: personas defensoras de derechos, comunidades indígenas, víctimas de violencia de género, migrantes, ambientalistas y grupos LGBTIQ+, entre otros. Estos grupos no solo enfrentan discriminación estructural; muchas veces están en el radar de gobiernos autoritarios, fuerzas de seguridad, empresas extractivistas y redes de crimen organizado. El manejo deficiente de datos personales (listados de beneficiarios, ubicaciones físicas, historiales de atención, imágenes y testimonios sensibles, entre otros) expone directamente a estas personas a riesgos reales.
En Ecuador, por ejemplo, la mayoría de organizaciones no tienen políticas claras de clasificación de datos, mecanismos de cifrado, controles de acceso o procesos para responder a brechas de seguridad. A menudo los datos se almacenan en dispositivos personales, cuentas de correo sin autenticación de dos factores o servicios de almacenamiento sin que previamente se realicen evaluaciones de riesgo. Estas prácticas no sujetas a protocolos definidos pueden parecer eficientes en el corto plazo, pero generan vulnerabilidades críticas cuando hay intentos de acceso no autorizado o cuando se producen extravíos de dispositivos.
Los riesgos a los cuales están expuestos los datos personales que custodian las OSC son múltiples y se cruzan de diversas maneras:
En el Ecuador y otros países de la región, existen antecedentes de uso de herramientas de vigilancia para monitorizar a defensores/as de derechos humanos o disidentes. La falta de protocolos para proteger datos sensibles incrementa la probabilidad de que información estratégica caiga en manos de agencias de inteligencia o fuerzas de seguridad, especialmente cuando se trata de documentación sobre violaciones de derechos humanos o procesos de rendición de cuentas.
Asimismo, las grandes plataformas tecnológicas y corporaciones buscan cada vez más acceder a bases de datos para monetizarlas o para construir perfiles comerciales. OSC que utilizan herramientas comerciales de mensajería, almacenamiento y gestión de proyectos muchas veces lo hacen sin revisar las cláusulas de uso o las políticas de privacidad, facilitando una transferencia de datos que no siempre es evidente para sus equipos o beneficiarios.
Además, en contextos donde grupos criminales tienen presencia territorial, el acceso a listados de personas, ubicaciones de centros comunitarios o patrones de atención puede convertirse en material para extorsión, amenazas o violencia directa. La falta de medidas básicas de seguridad informática, como autenticación fuerte, respaldo seguro y formación del personal, amplifica estos riesgos.
En teoría, la protección de datos en Ecuador está respaldada por la Constitución, la Ley Orgánica de Protección de Datos Personales (LOPDP) y la jurisprudencia de la Defensoría del Pueblo. Sin embargo, la implementación efectiva de estas normas por parte de las OSC es todavía incipiente. Las leyes reconocen derechos como el acceso, rectificación, cancelación y oposición, pero pocas organizaciones cuentan con mecanismos operativos para garantizarlos internamente.
En Latinoamérica en general, la situación es similar: existe una serie de marcos legales (por ejemplo, la Ley de Protección de Datos Personales en Argentina, Brasil con la LGPD, Chile con su proyecto de ley), pero las organizaciones de la sociedad civil a menudo no forman parte de estas discusiones jurídicas y técnicas.
Muchas OSC operan con presupuestos ajustados y priorizan gastos de operación, actividades de campo, salarios mínimos, infraestructura básica, dejando de lado inversiones en seguridad de la información o capacitación especializada.
Además, la mayoría carece de personal con conocimientos en ciberseguridad, protección de datos o gestión de riesgos digitales. Esto se traduce en prácticas improvisadas, muchas veces basadas en herramientas gratuitas, sin evaluaciones de riesgos previas ni políticas internas.
Existe una percepción, que se repite preocupantemente en grupos más pequeños o comunitarios, de que “nuestros datos no interesan a nadie”. Esta creencia ignora la realidad de que los datos de poblaciones vulnerables son extremadamente valiosos y sensibles, no solo para actores delictivos o estatales, sino también para intermediarios digitales que los comercializan sin transparencia.
A diferencia de las empresas privadas que enfrentan auditorías regulatorias y sanciones por incumplimiento, las OSC no siempre están sujetas a un escrutinio sistemático sobre cómo tratan datos personales, lo que reduce la presión para formalizar procesos, aun cuando ya existe normativa e instituciones que velan por la protección de datos personales.
La protección de datos personales en organizaciones de sociedad civil debe pensarse no como una barrera burocrática, sino como una extensión de su compromiso ético con las comunidades con las que trabajan. Esto implica reconocer que cada dato es una persona y que los impactos de una brecha pueden ser tan perjudiciales como un ataque físico.
Algunas prácticas clave que toda organización debe considerar son:
• Desarrollar políticas internas claras: Esto incluye definir qué datos se recopilan, por qué, cómo se almacenan, quién tiene acceso y por cuánto tiempo se conservan. Estas políticas deben estar documentadas y ser accesibles para todo el equipo.
• Capacitación permanente: El eslabón más débil de cualquier sistema de seguridad es el factor humano. Entrenar a equipos en buenas prácticas, como reconocer intentos de phishing, usar contraseñas robustas, gestionar permisos de acceso, puede ayudar a reducir drásticamente los riesgos.
• Cifrado y controles de acceso: No basta con tener datos, hay que protegerlos. Usar herramientas que cifran la información en tránsito y en reposo, así como autenticación multifactor para acceder a sistemas, son medidas esenciales.
• Evaluaciones de riesgo periódicas: Identificar puntos críticos, como almacenamiento en servicios de terceros, dispositivos móviles sin protección, registros físicos sin control, permite priorizar inversiones y estrategias de mitigación.
• Transparencia con las comunidades: Informar a las personas beneficiarias sobre cómo se usarán sus datos, qué derechos tienen y cómo pueden ejercerlos fortalece la relación de confianza y respalda el enfoque de derechos del trabajo cotidiano.
En Latinoamérica y el Sur Global, donde los estados fluctúan entre prácticas autoritarias y capacidades institucionales limitadas, las OSC no pueden ni deben enfrentar solas la complejidad de proteger datos sensibles. La solidaridad intersectorial —entre organizaciones de derechos humanos, académicas, activistas digitales y defensores legales— es una estrategia no solo útil, sino indispensable.
Es vital reconocer que proteger datos personales no es solo una cuestión técnica, es una postura política y ética. Para las organizaciones de sociedad civil, implica afirmar que los derechos digitales son parte integral de los derechos humanos. Significa reconocer que en un mundo hiperconectado, la seguridad y la dignidad de quienes confían su información a nuestras organizaciones dependen de nuestra capacidad de gestionarla con responsabilidad, transparencia y ética.
Si nuestras políticas, prácticas y tecnologías no evolucionan para responder a los riesgos de nuestra época, corremos el peligro de reproducir en el espacio digital las mismas relaciones de vulneración que buscamos cambiar fuera de él. Por eso, invertir en la protección de datos no es un lujo técnico: es un acto de defensa de la vida, la libertad y la justicia.

Doble victimización: Modus operandi

Es una modalidad de extorsión oportunista. Los delincuentes monitorean redes sociales buscando publicaciones para contactar a los dueños de autos reportados como robados.
Cómo operan:

🔍 Captación: Obtienen tu número de la publicación que hiciste pidiendo ayuda.

🔍 El Engaño: Te llaman diciendo que tienen el auto o saben dónde está.

🔍 La Presión: Te exigen un pago rápido por transferencia para "liberarlo" o "darte la ubicación" del vehículo, pidiendo que no se involucre a la Policía Nacional en el proceso.

🔍 La Realidad: En la mayoría de los casos, no tienen el vehículo. Solo usan la información que tú mismo publicaste con el fin de generar interés y extorsionar luego.

Qué hacer para protegerte:

🔐 Pregunta de control: Pídeles que describan algo que no sea visible en las fotos publicadas (qué hay en la guantera o un detalle del interior).

🔐 No pagues por adelantado: Nunca transfieras dinero sin ver físicamente el vehículo y estar acompañado por la policía.

🔐 Publicaciones seguras: No pongas tu teléfono en la publicación, pide que te contacten por mensaje privado.

¡Confiar en comunicaciones digitales de dudosa procedencia no es un opción!

The recording of my presentation at #FOSDEM "Sequoia git: Making Signed Commits Matter" has been published!

Thanks a lot to all the @fosdem volunteers for organizing another amazing FOSDEM!

https://fosdem.org/2026/schedule/event/KFSUCW-sequoia-git/

#pgp

FOSDEM 2026 - Sequoia git: Making Signed Commits Matter

👉​ En los últimos diez años, los programas de recompensas por encontrar errores se han vuelto cada vez más comunes en muchos países industrializados. Esta tendencia comenzó en Estados Unidos, pero se ha extendido a otros países. Sin embargo, no estamos viendo la misma expansión en todos los países, incluido Ecuador. Y considerando que últimamente hemos visto una gran cantidad de incidentes de #seguridaddigital en #Ecuador vale la pena preguntarse: ¿deberían las empresas ecuatorianas -y el gobierno- considerar el uso de recompensas por encontrar errores para mejorar su seguridad?

​Te invitamos a leer el blog completo, escrito por @ola Ola Bini, en: https://autonomia.digital/2023/12/05/bug-bounties.html

Centro de Autonomía Digital | Privacidad Digital, Seguridad y Anonimato

Somos un grupo de personas apasionadas por la privacidad digital, la seguridad y el anonimato.

Sabías que la p0rn0grafía deepfake representa el 98% de todos los vídeos deepfake online. Además de que el 99% del contenido p0rn0gráfico deepfake está protagonizado por mujeres.

El Deepfake es una técnica usada para alterar imágenes digitalmente y situar a alguien en un falso escenario. El mejoramiento de está técnica, ha ido perfeccionando las imágenes fake o falsas haciéndose pasar por auténticas. En el caso del deepfake p0rn0gráfico se toman fotografías de mujeres, principalmente de sus redes sociales, para luego recortarlas e incrustarlas en escenas p0rn0gráficas que después son colgadas en plataformas web sin el conocimiento y consentimiento de las víctimas.

Por ello, estos tipos de contenidos maliciosos se han convertido en una forma de violencia digital dirigida principalmente hacia las mujeres porque conllevan grandes vulneraciones a sus derechos humanos.

🖋 Artículo escrito por Karla Morales

Si deseas leer el artículo completo:
https://lnkd.in/e7mjcmVr

LinkedIn

This link will take you to a page that’s not on LinkedIn

With all this talk of Chrome messing up adblockers, please don’t use Brave. They do so much shady shit you should stay away.