Свой оффлайн-ассистент на Phi-3-mini: Разворачиваем локальную модель нейросети для анализа данных с открытым кодом

Тренд на использование больших языковых моделей (LLM) не ослабевает, но облачные решения вроде ChatGPT или Gemini имеют ряд ограничений: зависимость от интернета, платные подписки и, что самое важное, конфиденциальность данных. Особенно остро последний вопрос стоит при работе с корпоративной или чувствительной информацией, которую нельзя загружать в чужие сервисы. В этой статье я хочу поделиться опытом создания полностью локального AI-ассистента на основе Microsoft Phi-3-mini — компактной, но мощной модели, способной анализировать данные из CSV, JSON и TXT файлов. Весь проект представляет собой набор Python-скриптов с открытым исходным кодом, которые автоматизируют установку и предоставляют интуитивно понятный чат-интерфейс. Почему Phi-3-mini? Microsoft позиционирует семейство моделей Phi-3 как "достаточно маленькие" (Small Language Models), но при этом "достаточно умные". Phi-3-mini, обладая 3.8 миллиардами параметров, демонстрирует производительность, сопоставимую с моделями вроде Mixtral 8x7B и GPT-3.5, но в значительно меньшем размере. Это делает её идеальным кандидатом для локального запуска на потребительском железе. Компактность: ~7-8 ГБ против десятков и сотен ГБ у более крупных моделей. Эффективность: Оптимизирована для работы на GPU с ограниченными ресурсами. Качество: Поддерживает контекст до 4K токенов и отлично справляется с логическими и аналитическими задачами, включая код.

https://habr.com/ru/articles/957204/

#нейросеть_локально #phi3

Свой оффлайн-ассистент на Phi-3-mini: Разворачиваем локальную модель нейросети для анализа данных с открытым кодом

Тренд на использование больших языковых моделей (LLM) не ослабевает, но облачные решения вроде ChatGPT или Gemini имеют ряд ограничений: зависимость от интернета, платные подписки и, что самое важное,...

Хабр

작지만 강한 AI의 역습: 소형 언어 모델이 에이전트 AI의 게임체인저가 되는 이유

NVIDIA 연구진의 'Small Language Models are the Future of Agentic AI' 논문을 바탕으로 소형 언어 모델이 에이전트 AI 시스템에서 대형 모델을 대체할 수 있는 이유와 실무 활용 가능한 모델들을 소개합니다. Phi-3, Gemma, Llama 등 주요 SLM의 성능 비교와 LLM에서 SLM으로 전환하는 6단계 실무 로드맵을 제공합니다.

https://aisparkup.com/posts/4792

Mu, un motore AI per gestire le impostazioni di Windows 11

Mu è il nuovo modello AI che consente di controllare le impostazioni in Windows 11 con la voce o con frasi naturali, tutto in locale e senza accesso al cloud.

Gomoot : tecnologia e lifestyle Scopri le ultime novità in fatto di hardware, tecnologia IA e altro

Asked "joke of the day" to a math model #phi3

It responded quite spassbefreit:
"Why do trees always seem to run out of cash? Because they can't afford their own roots without "bank accounts" and when it comes time for tax season, the IRS tells them that there are no more credits available."

That's the most un-funny joke I've ever heard, so ok

Starting a #thread where I document the experiences with #openwebui project with #ollama and #phi3 #deepseek and others....

🚀 Build a real RAG API with .NET 8, Semantic Kernel, Phi-3, and Qdrant!

🎯 Enrich LLMs with real product data
⚙️ Local ONNX inference with Phi-3
🔥 Full API endpoints ready!

Dive into the architecture 👉 https://elguerre.com/2025/04/22/%f0%9f%9a%80-building-a-rag-api-with-net-semantic-kernel-phi-3-and-qdrant-enrich-your-e-commerce-experience/

#DotNet #SemanticKernel #RAG #Qdrant #Phi3 #AI #MachineLearning #ONNX

🚀 Building a RAG API with .NET, Semantic Kernel, Phi-3, and Qdrant: Enrich Your E-commerce Experience

Learn how to build a powerful RAG (Retrieval-Augmented Generation) API using .NET, Microsoft Semantic Kernel, Phi-3, and Qdrant. Combine your private e-commerce data with LLMs to create smarter, gr…

Juanlu, ElGuerre

Phi-4: Microsoft’s Newest Small Language Model Specializing in Complex Reasoning
https://techcommunity.microsoft.com/blog/aiplatformblog/introducing-phi-4-microsoft%E2%80%99s-newest-small-language-model-specializing-in-comple/4357090
https://arxiv.org/abs/2412.08905
https://news.ycombinator.com/item?id=42405323

* most language models" pre-training based primarily on organic data sources such as web content or code
* phi-4 strategically incorp. synthetic data throughout training
* strong performance rel. its size, esp. on reasoning-focused benchmarks

#LLM #SLM #SmallLanguageModels #LanguageModels #NLP #ML #AI
#Microsoft #Phi3 #Phi4 #SyntheticData

[thread] Small language models
see also: https://en.wikipedia.org/wiki/Large_language_model
https://www.ibm.com/think/topics/small-language-models

* machine learning models
* processing, understanding, generating natural language content
* SLM more compact/efficient than LLM: large language models
* few million to few billion parameters vs LLM: 100B's - trillions
* parameters: internal variables that a model learns during training
* influence how model behaves/performs

#LLM #SLM #SmallLanguageModels #LanguageModels #NLP #ML #AI
#Microsoft #Phi3 #Phi4

Large language model - Wikipedia

Ollama Model Review: Microsoft’s Phi3
#Ollama review: Microsoft’s #Phi3 #LLM is wordy & inaccurate – fast though, super fast…at being incorrect. …

https://mindcreatesmeaning.com/ollama-model-review-microsofts-phi3/
--
#Ai #LLM #LocalAi #Ollama #opensource #Phi3

Ollama Model Review: Microsoft's Phi3 - Rick Pearson

#Ollama review: Microsoft's #Phi3 #LLM is wordy & inaccurate - fast though, super fast...at being incorrect.

mindCreatesMeaning

Ollama Model Review: Microsoft’s Phi3

#Ollama review: Microsoft’s #Phi3 #LLM is wordy & inaccurate – fast though, super fast…at being incorrect.

https://mindcreatesmeaning.com/ollama-model-review-microsofts-phi3/

#Ai #LLM #LocalAi #Ollama #opensource #Phi3

Ollama Model Review: Microsoft's Phi3 - Rick Pearson

#Ollama review: Microsoft's #Phi3 #LLM is wordy & inaccurate - fast though, super fast...at being incorrect.

mindCreatesMeaning