Verständnisfrage: Ich habe #paperless_ngx auf meiner #Synology NAS installiert.
Ich habe #Ollama und #AnythingLLM auf meinem Desktop-Rechner installiert (aus Leistungsgründen, weil die Synology halt nicht so viel Leistung hat wie ein Desktop-Rechner).
Nun möchte ich #paperless_ai installieren. Wie kann ich das auf dem Desktop tun und mit dem bestehenden Ollama verbinden, damit ich nicht Gefahr laufe, nochmals Ollama auf der Synology NAS zu installieren?
#paperlessai

@MartinH ich kenne paperlessngx zwar nicht, dafür aber #ollama und #AnythingLLM.

Du kannst dir ollama (und auch AnythingLLM) als docker Container (inkl gpu Zugriff) hochziehen. Dann brauchst du nur die URIs in der config eintragen.

Vielleicht findest du hier ein paar Infos https://technotim.com/posts/paperless-ngx-local-ai/
ansonsten schreibe mich gerne an

Beste Grüße

Self-Hosted Paperless-ngx + Optional Local AI: Private Documents and Improves OCR & Search (Full Setup)

Build a complete Paperless-ngx stack in Docker and take control of your documents. We’ll get Paperless running first (works great on its own), then optionally add local AI with Ollama + Open WebUI and upgrade OCR using Paperless-GPT and Paperless-AI for more accurate, searchable text and tags - no cloud required.

Techno Tim