40 Followers
44 Following
180 Posts
Developer   
Pascal 1993-2001, PHP/JS/MySQL since 2000, some Rust/Java/Go/Bash

Here are the slides for my talk "Run LLMs Locally" @phpugffm, thanks to everybody for coming and listening and thanks to @decix for hosting the event!

https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2025_ThomasBley.pdf

#ai #llm #llamacpp

Freue mich wirklich sehr, dass kolibri - das Design System der Verwaltung - die völlig nutzlose und nicht accessible umsetzbare Toast-Component deprecated.

Wenn ihr cool sein wollt, entfernt auch aus den Design-Systemen eurer Unternehmen die 🍞s. Es gibt quasi keine sinnvollen Usecases für sie, wirklich nicht.

https://github.com/public-ui/kolibri/issues/8372#issuecomment-4073102348

Toast nicht barrierefrei? · Issue #8372 · public-ui/kolibri

In einem Projekt wurde der Prüfschritt 9.2.4.3 nicht erfüllt. Argumente für Toast-Nachrichten Unaufdringlich: Stören den Arbeitsfluss weniger als modale Dialoge. Kompakt: Eignen sich für kurze Stat...

GitHub

What to put in your AGENTS.md?

llama.cpp has the answer:
https://github.com/ggml-org/llama.cpp/blob/master/AGENTS.md

#ai

New update for the slides of my talk "Run LLMs Locally":

Now including Reranking, Qwen 3.5 (slower than Qwen 3, but includes Vision) and loading models with Direct I/O.

https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2025_ThomasBley.pdf

#llm #llamacpp #ollama #stablediffusion #gptoss #qwen3 #glm #opencode #localai #mcp

@ocramius "AI productivity gains"

One more update for the slides of my talk "Run LLMs Locally":

Now including text to speech with Qwen3-TTS and Model Context Protocol.

https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2025_ThomasBley.pdf

#llm #llamacpp #ollama #stablediffusion #gptoss #qwen3 #glm #opencode #localai #mcp

"coincidence that AI tools were involved"
https://archive.is/hLd8X