#Gam régional #Aura #GLM

Un esprit sain dans un corps sain

https://www.ffgym.fr/media/1504684691-FFGYM-GAM%20.mov

金のニワトリ (@gosrum)

GitHub Copilot CLI와 로컬 LLM을 결합한 벤치마크 결과를 공유한 트윗입니다. 사용 모델은 Qwen3.5 계열, gemma4 계열, glm-5.1 등이었고, Qwen3.5-27B와 glm-5.1만 벤치마크를 완료해 모두 만점을 받았습니다. AI 개발 도구 조합과 로컬 LLM 활용 사례로 참고할 만합니다.

https://x.com/gosrum/status/2044183729531433144

#githubcopilot #localllm #benchmark #qwen #glm

金のニワトリ (@gosrum) on X

GitHub Copilot CLIとローカルLLMを組み合わせたときのベンチマーク結果を共有する 【使用したモデル】 ・Qwen3.5-27B,122B-A10B,35B-A3B ・gemma4-31B,26B-A4B ・glm-5.1 【備忘録メモ】 ・ベンチマークが完走したのはQwen3.5-27B, glm-5.1のみでともに満点 ・それ以外のモデルは完走できず

X (formerly Twitter)

Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

На QA-митапе инженер из крупной продуктовой компании показал: AI-агент пишет тесты — все зелёные, но баги не находят. Моки подогнаны, ассерты подменены, архитектура деградирует. Стек при этом — near-SOTA: свежая модель, топовый open-source агент. Я был комментатором на том митапе и сначала списал проблемы на слабые инструменты. Но при подготовке статьи перепроверил — и вынужден поправиться. Инструменты в порядке. Проблема — в коде и процессе. В статье разбираю формулу из четырёх множителей (модель × агент × процесс × качество кодовой базы), показываю, как any-типы из соседней команды обнуляют LSP-интеграцию, которую OpenCode даёт бесплатно из коробки, и даю пошаговый Spec-Driven Development — процесс, который ломает reward hacking и работает даже на слабых моделях. Плюс чеклист, что внедрить завтра.

https://habr.com/ru/articles/1023532/

#автотесты #ai #llm #lsp #opencode #glm #типизация #typescript #тестирование #qa

Зелёные галочки лгут: почему AI пишет тесты, которые ничего не тестируют, и как это починить

Тесты зелёные, покрытие растёт, а багов меньше не становится. На QA-митапе инженер из крупной продуктовой компании показал механику: AI-агенты подгоняют моки, меняют ассерты, генерируют результаты,...

Хабр

New week, new update for the slides of my talk "Run LLMs Locally":

Now including Gemma4 and Qwen3-Omni with Vision and Audio support and new slides describing Llama.cpp server parameters.

https://codeberg.org/thbley/talks/raw/branch/main/Run_LLMs_Locally_2026_ThomasBley.pdf

#ai #llm #llamacpp #stablediffusion #gptoss #qwen3 #glm #localai #gemma4

Here is my résumé when it comes to using #GLM 5.1 for refactoring a large #php #laravel code based on #sonarqube warnings/errors:
A DISASTER ‼️ - #claude on the other hand: one shot, everything works.

For the record:
GLM5.1 was running via opencode go. (same prompt) 😞 😢

#ai #coding #zai

i don’t think GLM is bad in general. i am talking here about refactoring a large codebase in particular. writing new code or doing small stuff works fine.

🧵 👇

金のニワトリ (@gosrum)

AI 구독의 연간 요금이 26달러로 매우 저렴하며, 고성능 모델인 GLM-5.1 출시 이후 이전 가격이 너무 낮았던 것 같다는 반응을 담고 있다. AI 모델 성능 향상과 가격 조정 흐름을 보여준다.

https://x.com/gosrum/status/2043138943378759941

#glm #pricing #llm #subscription #ai

金のニワトリ (@gosrum) on X

普段AIサブスクは年契約しないんだけど、$26/年は破格すぎるという理由で年契約しておいて良かった まあ今までが安すぎたというのはありそう。GLM-5.1のような高性能モデルも出てきたからある程度値上げは良いんだけど、せめて4並列ぐらい呼び出せるようにして欲しい

X (formerly Twitter)

金のニワトリ (@gosrum)

GLM Coding Plan의 가격이 다시 인상됐다는 내용이다. 이전에 가입했을 때보다 현재 가격이 6배 이상 비싸졌다고 언급하며, AI 구독 요금이 크게 올랐음을 전한다.

https://x.com/gosrum/status/2043136760117628934

#glm #pricing #aisubscription #llm

金のニワトリ (@gosrum) on X

GLM Coding Planがまた値上げされたと聞いて 私が契約したタイミングに比べて6倍以上高くなっていて草

X (formerly Twitter)

#GLM Coding Plan: The price has gone way up... sob

Lite: $18
Pro: $72

@zai_org

Have you seen how good some of the AI 3d modeling is getting? I just used GLM-5 Turbo to create some models. It followed instructions, filled in on vague requests, and did surprisingly well. #3dprinting #openclaw #glm #tentacle

https://ataary.com/tentacle-viewer.html

https://ataary.com/3d-modeling-on-openclaw/

AISatoshi (@AiXsatoshi)

GLM-5.1이 초당 1500 토큰 처리 속도를 낸다는 언급이 나오며, 매우 빠른 추론 성능과 에이전트 운용 가능성에 대한 기대를 불러일으키는 내용이다.

https://x.com/AiXsatoshi/status/2042658858368426003

#glm #llm #inference #agents #ai

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

健さんとこ、GLM-5.1、1500token/s出るらしい。エージェント何体動かせるんだ。ぶっちぎりだ

X (formerly Twitter)