ali @ Barcelona

@basicavisual
114 Followers
47 Following
416 Posts
Philosopher-Technologist. Let's make FLOSS for the public good be _actually_ sustainable. Self-hosting is to tech what food-sovereignty is to agriculture.
Spirit AnimalRaccoon
@amercader también la DGPA tiene varias vacantes en este momento: https://www.digitalpublicgoods.net/jobs y los de @civictech tmb tienen su propia vacante y otras
Opportunities - Digital Public Goods Alliance

Join our team at the Digital Public Goods Alliance Secretariat, where motivated individuals thrive in a dynamic remote work environment. We're looking for passionate professionals eager to contribute to meaningful projects at the forefront of digital innovation and global change. Instructions on how to apply can be found within the postings. Finance and Administrative Coordinator

Digital Public Goods Alliance - Promoting digital public goods to create a more equitable world
@amercader fan total de ckan, desde 2014 i he implementat varios ja. Espero poder coincidir amb tu 😭

We're hiring a Manager for the Civic Tech Field Guide! (This is a big deal for us! 🤩)

Is it you? A friend you're about to tag?

Key stats:

- $50-75k depending
- Employee or contractor, you pick
- Remote, but networked
- Global applications welcome
- Members of diverse communities encouraged
- Easy application, submit by March 15

Full info + apply: https://app.civictech.guide/join

Work with us

Join the Civic Tech Field Guide as Program Manager

Civic Tech Field Guide
Básicamente yo no alcanzo a ver forma de que la IA pueda ser segura en tanto que sea autónoma. Y a medida que gobiernos como el de EEUU la integran a sistemas complejos como la guerra y el espionaje SIN SUPERVISIÓN, pues no sé qué decirles más que la extinción por IA ya no es cosa de ciencia ficción.

No tenemos forma de saber cuántos vectores de ataque se están abriendo o quién ya se dio cuenta y los está explotando. Ni siquiera sabemos si quien los explota es humano u otra IA.

Otro patrón que están sacando varios equipos es el del agente autónomos al que le entregas las llaves de la casa y hace todo. El problema es que ese agente también es atacable y lo hace a nombre de la persona que lo deja correr. Ejemplo:
https://www.xda-developers.com/please-stop-using-openclaw/

Please stop using OpenClaw, formerly known as Moltbot, formerly known as Clawdbot

It could cause you a lot of problems.

XDA

³ vectores de ataque se refiere a que meter a la IA en un sistema complejo, por ej, cuando lo ponemos a desarrollar codigo, o contestar correos, meter una nueva variable como la IA puede abrir nuevas maneras no calculadas de atacar un sistema. Como la IA hace cosas a escala masiva, las vulnerabilidades crecen y pueden ser explotadas de forma masiva también. Este es un sólo vector que un desarrollador encontró POR CASUALIDAD solo la semana pasada: https://www.aikido.dev/blog/agent-skills-spreading-hallucinated-npx-commands

Cont.

Agent Skills Are Spreading Hallucinated npx Commands

AI agent skills are propagating hallucinated npx commands, creating real security and reliability risks for developers and supply chains.

² el artículo anterior habla de la capacidad de engaño pero la verdad que han salido bastantes papers con experimentos sobre este tema. Busquen "deception" e AI en buscadores académicos y hay bastante. Alguien está compilando algunos aquí: https://aideception.org/
AI Deception Papers

Research papers on AI deception with philosophical analysis

¹ en simulaciones de guerra las IAs eligen la opción nuclear: https://arxiv.org/abs/2602.14740
- Modelos de frontera: GPT 5.2, Claude Sonnet 4, Gemini 3 Flash.
- exhiben comportamiento de engaño, mostrando intenciones que no pretender seguir, razonando sobre las creencias sobre el adversario y exhibiendo señales creibles de "self-awareness metacognitivo"

Leer como mínimo el abstract no tiene desperdicio

AI Arms and Influence: Frontier Models Exhibit Sophisticated Reasoning in Simulated Nuclear Crises

Today's leading AI models engage in sophisticated behaviour when placed in strategic competition. They spontaneously attempt deception, signaling intentions they do not intend to follow; they demonstrate rich theory of mind, reasoning about adversary beliefs and anticipating their actions; and they exhibit credible metacognitive self-awareness, assessing their own strategic abilities before deciding how to act. Here we present findings from a crisis simulation in which three frontier large language models (GPT-5.2, Claude Sonnet 4, Gemini 3 Flash) play opposing leaders in a nuclear crisis. Our simulation has direct application for national security professionals, but also, via its insights into AI reasoning under uncertainty, has applications far beyond international crisis decision-making. Our findings both validate and challenge central tenets of strategic theory. We find support for Schelling's ideas about commitment, Kahn's escalation framework, and Jervis's work on misperception, inter alia. Yet we also find that the nuclear taboo is no impediment to nuclear escalation by our models; that strategic nuclear attack, while rare, does occur; that threats more often provoke counter-escalation than compliance; that high mutual credibility accelerated rather than deterred conflict; and that no model ever chose accommodation or withdrawal even when under acute pressure, only reduced levels of violence. We argue that AI simulation represents a powerful tool for strategic analysis, but only if properly calibrated against known patterns of human reasoning. Understanding how frontier models do and do not imitate human strategic logic is essential preparation for a world in which AI increasingly shapes strategic outcomes.

arXiv.org
Hoy le mandé una serie de fuentes sobre la IA y el peligro de extinción masiva a una amiga que trabaja en un medio internacional y está cubriendo lo de Anthropic. Los expertos vienen diciendo esto desde al menos 2023, pero los críticos le llaman pánico, pero de verdad no lo es. La IA:
- Se manda sola (agentes autónomos)
- miente y engaña¹
- puede tomar decisiones desproporcionadas²
- se puede replicar
- abre vectores de ataque que no vemos³
(hilo)

🌟 #NGI Impact Stories session is LIVE at #NGIForum25! Real founders, real innovation, real impact from across Europe:

🔹 @renchap @Mastodon CTO
🔹 @ldubost (@xwikiorg) - @CryptPad
🔹 Karolin Varner @rosenpass
🔹 Martin Schanzenbach (TalDir)
🔹Julien Paris (Datami)

These projects = Europe's digital future building blocks! Moderated by @robvank @martelinnovate

Follow LIVE the session on the NGI website: https://ngi.eu/ngi-forum25/