Jan (@jandotai)
Qwen3.5-35B-A3B가 Jan(서비스)에 추가되어 이용 가능해졌다는 발표입니다. 이전 Qwen3 계열보다 크게 향상되었음을 언급하며, 베이스 모델 제공에는 Alibaba Qwen에, 로컬 실행 지원에는 ggerganov의 llama.cpp에 감사를 표하고 있습니다. 최신 버전은 jan.ai에서 확인 가능하다고 안내합니다.
Jan (@jandotai)
Qwen3.5-35B-A3B가 Jan(서비스)에 추가되어 이용 가능해졌다는 발표입니다. 이전 Qwen3 계열보다 크게 향상되었음을 언급하며, 베이스 모델 제공에는 Alibaba Qwen에, 로컬 실행 지원에는 ggerganov의 llama.cpp에 감사를 표하고 있습니다. 최신 버전은 jan.ai에서 확인 가능하다고 안내합니다.
@marvin Well, I tried using #LMStudio and #JanAI and as a first step, I need to download models. I fully understand that, but the list of models is so long, so cryptic. At least to me. I don't even know where to start to get assistance on fine-tuning ma #LaTeX code or some #bash scripts...
Jan, GPT, Ernie, Olmo, Lucy, Llama, Mistral, ... And then for a given model, stuff like Qwen3-8B-GGUF.
This being said, I work with a laptop. Powerful CPU and RAM but no big GPU... My experiment might not be worth it?
Thanks a lot for your reponse 🙂
Người dùng Reddit báo cáo Jan.ai không nhận diện GPU AMD RX 9070 XT. Họ đã thử, kèm ảnh chụp màn hình cho thấy GPU không được phát hiện và hỏi cách khắc phục. Cần hỗ trợ cấu hình hoặc giải pháp tương thích. #JanAI #AMD #GPU #AI #Tech #CôngNghệ #LocalLLaMA #AI #GPU 🚀
https://www.reddit.com/r/LocalLLaMA/comments/1qk27xm/janai_и_rx_9070xt/
Jan cập nhật v0.7.5 với tiện ích trình duyệt Jan Browser MCP, hỗ trợ đính kèm tệp tin và Flatpak dành cho Linux! Người dùng Chrome có thể cài tiện ích từ Chrome Web Store để tăng tính ổn định khi lướt web. Đồng thời, Linux users cuối cùng được hỗ trợ Flatpak. [Kèm video hướng dẫn chi tiết]. Những cải tiến này giúp trải nghiệm chat và tương tác trở nên thuận tiện hơn. Tìm hiểu thêm tại Flathub hoặc GitHub.
#LocalLLaMA #Jan #AI #PhầnMềmMới #Linux #CôngNghệ
#JanAI #BrowserExtension #FileSuppor
Just updated #janai, and oh my it's improved a lot. With the Jan nano model, the token speed is at 47 tokens/sec on my mac. Pretty impressive.
I tried #JanAI (an app that lets you run #LLM models on local computers so you can have a private #AI assistant).
Was thinking it could be interesting to experiment with this for prose text summaries/analysis.
However, Jan's document parsing is "experimental". Can't attach plain text files (why). Could drag in PDFs. Fine, whatever. "Can you do chapter by chapter summaries of this manuscript of mine" basically did some really weird #aihallucinations based on things that may have been referenced in the text. The overall plot summary was interesting, too bad it was had little to no resemblance to the novel I wrote.
I couldn't resist seeing if, since this is a locally running AI, it could talk about naughty sexy things. "Can't generate anything explicit", the default Llama said. Fine, whatever. Downloaded some "NSFW" model. It generated janky garbage and said "f*ck" a lot, and I do mean literally "f*ck", which messed up the Markdown formatting completely.
This technology is improving but still has a way to go
Haluatko ajaa tekoälymalleja suoraan omalla tietokoneellasi ilman, että tietosi lähtevät mihinkään? Tässä videossa näytän yksinkertaisimman tavan asentaa ja käyttää paikallisia tekoälyjä, mukaan lukien DeepSeek ja Llama-mallit. Käyn läpi lataamisen, asentamisen ja mallien käyttämisen sekä puhumme hieman siitä miten hyvin ne toimivat. 👉 https://youtu.be/VZrQc_EbFao
Katso video ja testaa itse!
#tekoäly #deepseek #janai #Llama3 #tietosuoja
https://youtu.be/VZrQc_EbFao