Raphael Kalandadze (@RaphaelKalan)

‘Harness vs. model’ 논쟁에서 핵심은 분야(field)라는 주장: 코딩 에이전트에는 얇은 래퍼(thin wrapper)가 유리할 수 있지만, 다른 수직적 생산 에이전트에서는 도메인 규칙·비즈니스 가드레일·지식 주입이 필요하며 어느 모델도 이를 자체 내장하고 있지 않다는 관점과, Harness가 성능 향상을 제공해주는 역할을 한다는 내용입니다.

https://x.com/RaphaelKalan/status/2031022301442113642

#aiagents #harness #models #knowledgeinjection

Raphael Kalandadze (@RaphaelKalan) on X

Harness vs. model debate is missing one thing: field matters. Coding agents? Maybe thin wrapper wins. Other vertical production agents? You need domain rules, business guardrails, knowledge injection. No model has that built in. Harness buys you the performance jump until the

X (formerly Twitter)

FINE-TUNING Qwen3 VỚI "THINKING MODE" KHÓ KHĂN TRONG LẬP LUẬN. Tài liệu hướng dẫn tạo tập dữ liệu "giải thích" (thinking) chưa rõ ràng khiến việc huấn luyện mô hình gặp trục trặc. Ai có kinh nghiệm hoặc tài liệu về kiến thức này chia sẻ giúp #AI #MachineLearning #LậpLý #MôHìnhQwen #ReasoningModels #KnowledgeInjection

*(Tóm tắt: Người dùng gặp khó khăn khi tinh chỉnh Qwen3 để bổ sung kiến thức Vật lý nhờ "thinking mode". Cố tạo dữ liệu giải thích bằng Qwen3 dẫn đến hiệu suất giảm. Cần chia sẻ

🚀🤓 Breaking news: #fine-tuning #LLMs is as effective as teaching calculus to a 🐱. Devansh's "groundbreaking" thesis: knowledge injection via fine-tuning is a fairy tale, just like unicorns and calorie-free donuts. For more of these riveting insights, why not PAY to subscribe? 😂📬
https://codinginterviewsmadesimple.substack.com/p/fine-tuning-llms-is-a-huge-waste #knowledgeinjection #DevanshThesis #HackerNews #HackerNews #ngated
Fine-Tuning LLMs is a Huge Waste of Time

People think they can use Fine-Tune for Knowledge Injection. People are Wrong

Technology Made Simple