If you use it with a local backend (
@[email protected],
#llama.cpp ,
#mlx,
#mistral-rs), every step runs on your device; nothing leaves your machine unless you configure a cloud provider (it supports EU-based ones, e.g.
#Nebius @[email protected], or
#Mistral).
GitHub - CrispStrobe/CrispSort...
GitHub - CrispStrobe/CrispSorter: AI-powered document organiser. Extracts text and/or sorts documents: Drop in a bunch of PDFs, DOCX files, or ebooks, and it extracts Document Text, identifies Title, Author, and Year, with a local or remote LLM, and moves them into folders, and/or keeps the extracted text.
AI-powered document organiser. Extracts text and/or sorts documents: Drop in a bunch of PDFs, DOCX files, or ebooks, and it extracts Document Text, identifies Title, Author, and Year, with a local ...
GitHubmistral.rs 0.7.0 ra mắt phiên bản CLI mới với giao diện tích hợp, công cụ phân tích hóa lượng tự động, tập tin cấu hình TOML, server MCP và hàng loạt mô hình mới như GLM-4, Gemma 3n, Qwen 3 VL. Cải thiện tốc độ nhờ caching 전 tố & kernel CUDA. #AI #TríTuệNhânTạo #MistralRS #MôHìnhLLM #CôngNghệMới
https://www.reddit.com/r/LocalLLaMA/comments/1qpexx4/mistralrs_070_new_cli_with_builtin_ui/