Un esprit sain dans un corps sain
Un esprit sain dans un corps sain
金のニワトリ (@gosrum)
GitHub Copilot CLI와 로컬 LLM을 결합한 벤치마크 결과를 공유한 트윗입니다. 사용 모델은 Qwen3.5 계열, gemma4 계열, glm-5.1 등이었고, Qwen3.5-27B와 glm-5.1만 벤치마크를 완료해 모두 만점을 받았습니다. AI 개발 도구 조합과 로컬 LLM 활용 사례로 참고할 만합니다.
Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить
На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.
https://habr.com/ru/articles/1023532/
#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa
New week, new update for the slides of my talk "Run LLMs Locally":
Now including Gemma4 and Qwen3-Omni with Vision and Audio support and new slides describing Llama.cpp server parameters.
https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf
#ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4
Here is my résumé when it comes to using #GLM 5.1 for refactoring a large #php #laravel code based on #sonarqube warnings/errors:
A DISASTER ‼️ - #claude on the other hand: one shot, everything works.
For the record:
GLM5.1 was running via opencode go. (same prompt) 😞 😢
i don’t think GLM is bad in general. i am talking here about refactoring a large codebase in particular. writing new code or doing small stuff works fine.
🧵 👇
金のニワトリ (@gosrum)
AI 구독의 연간 요금이 26달러로 매우 저렴하며, 고성능 모델인 GLM-5.1 출시 이후 이전 가격이 너무 낮았던 것 같다는 반응을 담고 있다. AI 모델 성능 향상과 가격 조정 흐름을 보여준다.
金のニワトリ (@gosrum)
GLM Coding Plan의 가격이 다시 인상됐다는 내용이다. 이전에 가입했을 때보다 현재 가격이 6배 이상 비싸졌다고 언급하며, AI 구독 요금이 크게 올랐음을 전한다.
Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle
AISatoshi (@AiXsatoshi)
GLM-5.1이 초당 1500 토큰 처리 속도를 낸다는 언급이 나오며, 매우 빠른 추론 성능과 에이전트 운용 가능성에 대한 기대를 불러일으키는 내용이다.