Gemlings: LLM이 직접 루비 코드를 실행하는 자율 에이전트 프레임워크
Gemlings는 LLM이 JSON 데이터 대신 실제 루비 코드 스니펫을 작성하고 실행하여 도구를 호출하는 방식의 자율 에이전트 라이브러리다.
Gemlings: LLM이 직접 루비 코드를 실행하는 자율 에이전트 프레임워크
Gemlings는 LLM이 JSON 데이터 대신 실제 루비 코드 스니펫을 작성하고 실행하여 도구를 호출하는 방식의 자율 에이전트 라이브러리다.
I made a CLI-based LLM agent, Yorishiro(依代), written in Ruby.
https://github.com/S-H-GAMELINKS/yorishiro
Yorishiro supports multiple LLM providers(OpenAI, Anthropic, and Ollama).
Yorishiro is written by Ruby, so you can create skills with Ruby, and you can configure Yorishiro settings with Ruby.
Yorishiro(依代): A CLI-based LLM agent written in Ruby. Supports multiple LLM providers (Anthropic / OpenAI / Ollama), built-in tools for file operations and command execution, MCP server integration...
Мечтают ли Архитекторы об электроовцах?
Было ли у вас озарение? Возникало ли ощущение вспышки, когда вы понимали, что нашли решение проблемы? Знаменитая фраза «Эврика!» очень хорошо отражает суть этого ощущения. Далее — мой отзыв о хайповой теме применения LLM в разработке ПО и всего, что с этим связано.
[Перевод] Voice AI-системы на базе Jambonz: от телефонии к диалогу человека и машины
Телефония уже давно перестала быть просто голосовой связью. Сегодня она стала цифровой инфраструктурой, где звонки можно анализировать, управлять ими программно и подключать искусственный интеллект. Это превращает обычный разговор в диалог между человеком и системой — живой, персонализированный и управляемый данными. Прежде чем перейти к реализации подобного голосового агента, важно разобраться в базовых принципах телефонии — что такое PSTN, SIP, SIP-транки и какую роль в этой архитектуре играет Jambonz.
Mom, can I have an #RTX5090 to do #cuda and have my own #privacymatters #LLM_agent ?
We have #Nvidia at home.
I've seen the light of MCP. Well, not the protocol itself. My understanding is it is pretty janky, and I don't need to be an expert to see the context injection threat it represents.
But I have Claude desktop rigged with local memory, filesystem, shell tools, and a behavioral correction rule system, and it is pretty slick! Next I want to try it with Ollama, although I doubt any model I can run locally will handle the context overhead.