Demis Hassabis (@demishassabis)

Gemma 4가 공개되었으며, 각 크기별로 최적화된 최고 수준의 오픈 모델이라고 소개한다. 31B dense, 26B MoE, 2B/4B edge용 등 다양한 버전으로 제공되어 파인튜닝과 온디바이스 활용이 가능해, 오픈 소스 모델 분야의 중요한 출시다.

https://x.com/demishassabis/status/2039736628659269901

#gemma #openmodel #llm #opensource #finetuning

Avi Chawla (@_avichawla)

LLM 파인튜닝을 2년 이상 해온 경험을 바탕으로, 대형 언어모델 파인튜닝의 주요 기법 5가지를 시각자료와 함께 정리한 내용이다. 실무자에게 유용한 LLM 학습/튜닝 방법론 참고 자료로 볼 수 있다.

https://x.com/_avichawla/status/2039256052643078144

#llm #finetuning #machinelearning #training #ai

Avi Chawla (@_avichawla) on X

I have been fine-tuning LLMs for over 2 years now! Here are the top 5 LLM fine-tuning techniques, explained with visuals: First of all, what's so different about LLM finetuning? Traditional fine‑tuning is impractical for LLMs (billions of params; 100s GB). Since this kind of

X (formerly Twitter)

Microsoft Research (@MSFTResearch)

다국어 AI 구축에서 발생하는 어려운 선택을 돕는 인터랙티브 플레이북 Vibhasha가 소개됐다. 번역할지 파인튜닝할지, 단일 모델로 갈지 다중 모델로 갈지 같은 결정을 지원하며, 다양한 언어권 앱을 설계하는 개발자에게 유용한 도구다.

https://x.com/MSFTResearch/status/2039009826907300292

#multilingualai #vibhasha #playbook #finetuning #aiapps

Microsoft Research (@MSFTResearch) on X

Multilingual AI means making hard tradeoffs. Translate or fine-tune? One model or many? Vibhasha is an interactive playbook to help you build multicultural apps and make those decisions with confidence. https://t.co/5MmB5kUIyx

X (formerly Twitter)

LoRA не помогла: как мы дообучали Mistral 7B на русском и что в итоге сработало

Каждый раз после созвона происходит одно и то же самое: кто-то открывает чат и пишет «итак, что мы решили?». Дальше — пятнадцать минут на то, чтобы восстановить то, что только что обсуждали час. Я ML-инженер, и эта боль мне была знакома лично. Когда появилась идея автоматизировать протоколирование встреч, казалось, что задача решаемая: берешь Whisper для распознавания речи, хорошую LLM для суммаризации — и готово. Реальность оказалась другой. Готовых русскоязычных решений нужного качества не было. Mistral 7B — одна из лучших открытых моделей на тот момент — на русском ошибался в склонениях, плохо следовал русскоязычным промптам и терял смысл в длинных диалогах. Стало понятно: придётся дообучать самим.

https://habr.com/ru/articles/1017634/

#llm #mistral #lora #дообучение #nlp #nlp_обработка_текста #finetuning #whisper #суммаризация #bertscore

LoRA не помогла: как мы дообучали Mistral 7B на русском и что в итоге сработало

Каждый раз после созвона происходит одно и то же самое: кто-то открывает чат и пишет «итак, что мы решили?». Дальше — пятнадцать минут на то, чтобы восстановить то, что только что обсуждали час. Я...

Хабр

🔧 Unsloth launched Studio — faster, cheaper LLM fine-tuning for small teams.

Custom model training used to be a big-lab privilege.

Not anymore.

#LLM #FineTuning #MLOps #Unsloth #AI

fly51fly (@fly51fly)

대형 언어모델에서 파인튜닝이 저작권 도서의 문장을 그대로 기억하고 재현하는 현상을 분석한 연구입니다. 모델 정렬을 강화해도 오히려 verbatim recall이 활성화될 수 있어, 저작권·안전성 측면에서 중요한 시사점을 제공합니다.

https://x.com/fly51fly/status/2038026904725504230

#llm #copyright #finetuning #alignment #memorization

fly51fly (@fly51fly) on X

[CL] Alignment Whack-a-Mole : Finetuning Activates Verbatim Recall of Copyrighted Books in Large Language Models X Liu, N Mireshghallah, J C. Ginsburg, T Chakrabarty [Stony Brook University & CMU & Columbia Law School] (2026) https://t.co/XvIboq4dxC

X (formerly Twitter)

Ilir Aliu (@IlirAliu_)

로봇 정책을 전체 재학습하지 않고 내부 상태를 작은 feature vector로 압축한 뒤, 그 위에 작은 RL 레이어만 학습하는 'RL token' 아이디어를 소개한다. 로봇 정책 fine-tuning 시간을 며칠에서 몇 분으로 줄일 수 있다고 강조하며, 로보틱스 학습 효율을 크게 높일 수 있는 접근이다.

https://x.com/IlirAliu_/status/2036366477075366246

#robotics #reinforcementlearning #finetuning #robotpolicy #ai

Ilir Aliu (@IlirAliu_) on X

Robots building robots. RL token is a simple but powerful idea: Fine-tuning robot policies usually takes days. This takes minutes. Instead of retraining the full model, compress its internal state into a small feature vector and train a tiny RL layer on top. • small actor +

X (formerly Twitter)

Avi Chawla (@_avichawla)

TinyLoRA 논문(arXiv: 2602.04118) 소개 트윗으로, 초소형 파라미터 조정만으로 대형 모델의 추론 성능을 개선하는 방법을 시각적으로 설명한다. 새로운 모델 출시보다는 연구 결과 공유에 가깝지만, 경량 파인튜닝과 효율적 적응 기술에 관심 있는 개발자에게 유용하다.

https://x.com/_avichawla/status/2036005894425907306

#tinylora #arxiv #finetuning #llm #research

Avi Chawla (@_avichawla) on X

paper: https://t.co/EKXJyHx4Ah TinyLoRA visually explained:

X (formerly Twitter)

Avi Chawla (@_avichawla)

Meta, Cornell, CMU 연구진이 TinyLoRA를 공개했다. 8B 파라미터 모델의 성능을 수학·추론 작업에서 크게 끌어올리기 위해 단 13개 파라미터만 조정하는 초소형 LoRA 기법이다. 저장 공간은 26바이트에 불과해, 극도로 효율적인 미세조정 접근법으로 주목된다.

https://x.com/_avichawla/status/2036005875832549825

#lora #tinyllm #finetuning #llm #reasoning

Avi Chawla (@_avichawla) on X

TinyLoRA: LoRA scaled down to 1 parameter. Researchers from Meta, Cornell, and CMU just dropped a banger. They turned an 8B parameter model into a math and reasoning powerhouse by tweaking just 13 of those parameters. That's 26 bytes and takes up less storage than this

X (formerly Twitter)