Multi-scene AI movie maker

free-scene는 OpenAI 호환 LLM과 비디오 API를 활용해 사용자가 입력한 한 줄 아이디어를 여러 장면의 영상으로 자동 변환하고, ffmpeg로 이어 붙여 완성된 mp4 영상을 생성하는 오픈소스 CLI 도구입니다. 스크립트 작성은 LLM이 감독 역할을 하며, 각 장면은 지정한 스타일과 길이로 렌더링됩니다. 무료 토큰 한도 내에서 기본 3장면 4초 영상 제작이 가능하며, 다양한 LLM과 비디오 백엔드를 자유롭게 조합해 사용할 수 있습니다. AI 영화 제작 파이프라인을 손쉽게 실험하고 개발자 맞춤형 영상 생성 워크플로우 구축에 유용합니다.

https://github.com/freeaigit/free-scene

#llm #videogeneration #openaicompatible #clitool #ffmpeg

GitHub - freeaigit/free-scene: Multi-scene AI movie maker — point at any OpenAI-compatible LLM + video API, get a stitched mp4.

Multi-scene AI movie maker — point at any OpenAI-compatible LLM + video API, get a stitched mp4. - freeaigit/free-scene

GitHub

Show HN: Tiny agentic loop with Docker sandbox

mi v1.7.5 버전에서 '--sandbox' 옵션이 추가되어 에이전트를 Docker 내에서 현재 디렉토리를 마운트하여 실행할 수 있게 되었다. 이를 통해 예기치 않은 공격 발생 시 영향 범위를 제한할 수 있다. mi는 OpenAI 호환 모델(로컬 모델 포함)과 작동하며, REPL, 스킬, 재귀 에이전트를 지원하고 코드가 30줄로 매우 간결해 로컬 모델 최적화에 적합하다.

https://github.com/av/mi/releases/tag/v1.7.5

#agent #docker #sandbox #openaicompatible #localllm

Release v1.7.5 · av/mi

Sandbox mode — run mi inside a Docker container for safe experimentation. mi --sandbox -p 'do something risky' MI_SANDBOX=1 mi # always containerized Mounts PWD read-write and ~/.mi/config.json ...

GitHub

Show HN: Grunden – Frontier AI inference hosted in Sweden, OpenAI-compatible

Grunden은 스웨덴 스톡홀름에 위치한 EU 관할권 내 AI 인프라로, OpenAI 호환 API를 제공하는 AI 추론 서비스입니다. GLM 5.1 (754B MoE, 40B 활성 파라미터, 200K 컨텍스트)을 사용하며, 데이터는 EU 내에 저장되고 프롬프트는 모델 학습에 사용되지 않아 개인정보 보호에 강점을 가집니다. 기존 OpenAI SDK와 호환되어 개발자가 base_url만 변경하면 바로 사용할 수 있으며, 가격은 스웨덴 크로나로 책정되어 현지 기업과 개발자에게 편리합니다. ISO 27001, BSI C5, EUCS 같은 인증 취득을 목표로 하여 보안과 규제 준수도 강화하고 있습니다.

https://grunden.ai

#eu #openaicompatible #glm #inference #api

grunden.ai

GLM 5.1 via ett OpenAI-kompatibelt API. Drift på egen hårdvara i Sverige.

Local LLM Proxy: Turn Idle LLM Compute into Universal Credits

Local LLM Proxy는 로컬 또는 LAN 내 제한된 LLM을 공용 인터넷과 연결해주는 오픈소스 프로젝트로, 인바운드 포트 개방 없이 WebSocket을 통해 VPS와 통신한다. 참여자는 자신이 가진 LLM 쿼터를 공유해 크레딧을 얻고, 이 크레딧으로 다른 모델을 사용할 수 있어 모델 간 및 시간 간 자원 활용 효율을 높인다. 모든 API는 OpenAI 호환 인터페이스를 제공하며, 프라이버시를 위해 업스트림 API 키는 로컬에만 저장되고 외부로 유출되지 않는다. 관리 대시보드와 사용자 포털을 통해 크레딧 관리, API 키 발급, 모델 설정 등이 가능하다.

https://github.com/wink-run/local-llm-proxy

#localllm #proxy #openaicompatible #p2p #api

GitHub - wink-run/local-llm-proxy: token共享网络

token共享网络. Contribute to wink-run/local-llm-proxy development by creating an account on GitHub.

GitHub

Mlx-serve – run LLMs natively on your Mac

mlx-serve는 Apple Silicon 기반 Mac에서 네이티브로 LLM을 실행할 수 있는 Zig와 Swift로 작성된 경량 추론 서버입니다. OpenAI 호환 API를 제공하며, Python 의존성이 없어 빠른 성능을 자랑합니다. macOS 메뉴 바 앱 형태로 제공되어 모델 다운로드, 채팅, 웹 탐색, 도구 호출 등이 가능하며, 마크다운 파일을 통해 에이전트 기능 확장도 지원합니다. gemma-4, qwen, llama 3, mistral 등 다양한 오픈 소스 모델을 지원합니다.

https://ddalcu.github.io/mlx-serve/

#llm #macos #inference #openaicompatible #zig

MLX Serve — Run LLMs natively on your Mac

Native Zig inference server for Apple Silicon. OpenAI + Anthropic API compatible. No Python. ~33 tok/s on Gemma 4. Includes MLX Core macOS app with chat, agent mode, and tool calling.

Foundry Local is now Generally Available | Microsoft Foundry Blog

Ship local AI to millions of devices - fast, private on-device inference with no per-token costs.

Microsoft Foundry Blog