Like Ollama, but for your own cloud [Apache 2.0]
SIE(Superlinked Inference Engine)는 85개 이상의 사전 구성된 모델을 단일 API로 제공하는 오픈소스 추론 서버이자 프로덕션 클러스터입니다. 임베딩, 재순위, 엔티티 추출 기능을 지원하며, CUDA, Apple Silicon, CPU 환경에서 동작하고 Kubernetes용 Terraform, KEDA 오토스케일링, Grafana 대시보드를 포함한 전체 프로덕션 스택을 제공합니다. LangChain, LlamaIndex, Haystack 등 주요 AI 도구와도 통합되어 있어 자체 클라우드 환경에서 고성능 AI 추론 서비스를 구축하는 데 적합합니다.

GitHub - superlinked/sie: Superlinked Inference Engine is an Open-source inference server and production cluster for embeddings, reranking, and extraction.
Superlinked Inference Engine is an Open-source inference server and production cluster for embeddings, reranking, and extraction. - superlinked/sie





