Filip Makraduli (@f_makraduli)

AI Engineer Europe 2026에서 Small Model Inference 발표 내용을 공유한 트윗입니다. 인프라와 딥한 모델 아키텍처 이해를 결합해야 소형 모델 추론을 제대로 최적화할 수 있다는 점을 강조합니다.

https://x.com/f_makraduli/status/2051716027524718730

#ai #inference #smallmodels #mlsystems #aiconference

Filip Makraduli (@f_makraduli) on X

My pleasure to finally share my talk at AI Engineer Europe 2026 @aiDotEngineer on Small Model Inference and how you need to combine infrastructure with deep model architecture understanding to make this work. Thanks @swyx for making this event happen! https://t.co/LJDFBz3t91

X (formerly Twitter)

Akshay (@akshay_pachaar)

자동화된 파인튜닝과 작은 모델을 만드는 방법을 다룬 연구를 언급하며, 기존 지식 증류(KD)와 달리 teacher에서 small model로만 가는 방식이 아니라 더 나은 접근이 있을 수 있음을 시사한다. 소형 모델 학습과 자동 최적화 관점에서 주목할 만한 연구 흐름이다.

https://x.com/akshay_pachaar/status/2049772296248623319

#finetuning #knowledgedistillation #smallmodels #llm #research

Akshay 🚀 (@akshay_pachaar) on X

@_avichawla Great paper indeed on automated fine-tuning. I read it a few days back. Btw, I remember reading another paper that also confirmed this and proposed a good solution as well to build small models. In traditional KD, you go from teacher → small model. But there's a

X (formerly Twitter)

Akshay (@akshay_pachaar)

자동화된 파인튜닝에 대한 논문을 언급하며, 전통적 지식 증류(KD) 방식과 달리 더 작은 모델을 만드는 새로운 접근과 해결책이 제안되었다고 말한다. 작은 모델 학습과 증류 전략 개선과 관련된 연구 맥락의 트윗이다.

https://x.com/akshay_pachaar/status/2049764879608017152

#finetuning #knowledgedistillation #smallmodels #research

Akshay 🚀 (@akshay_pachaar) on X

@_avichawla Great paper indeed on automated fine-tuning. I read it a few days back. Btw, I remember reading another paper that also confirmed this and proposed a good solution as well to build small models. In traditional KD, you go from teacher → small model. But there's a

X (formerly Twitter)

Kevin Simback (@KSimback)

홈 실험용으로 작은 AI 모델들을 실행할 수 있고, exolabs를 통해 여러 모델을 연결할 수 있다고 소개합니다. 개인 환경에서 경량 모델을 활용해 여러 모델을 묶는 실험적 AI 사용 사례를 제시합니다.

https://x.com/KSimback/status/2046231756685099127

#smallmodels #exolabs #llm #homesetup #ai

Kevin Simback 🍷 (@KSimback) on X

@Alexintosh @gajesh You can run some fun small models for home tinkering, and I can link multiple via @exolabs

X (formerly Twitter)
AI Cybersecurity After Mythos: The Jagged Frontier

When AISLE tested Mythos's showcase vulnerabilities on small, cheap, open-weights models, most found the same bugs. Here's what that means for cyber.

AISLE

AISatoshi (@AiXsatoshi)

Muse Spark가 지난 9개월 동안 학습 기반을 전면 재구축해 같은 컴퓨팅 자원으로 더 높은 성능을 내도록 개선했다고 밝히며, 소형 모델에 스케일링 법칙을 적용한 연구 결과를 언급합니다. 모델 학습 효율 향상에 관한 중요한 기술 업데이트입니다.

https://x.com/AiXsatoshi/status/2042008501963432420

#muse #scalinglaws #smallmodels #training #llm

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

Muse Spark はこの9か月で学習基盤を作り直し、同じ計算資源から引き出せる能力を大きく高めた。 その効果を厳密に調べるため、小さいモデル群でスケーリング則を当てはめ、ある性能に到達するのに必要な学習FLOPsを比較した。 その結果、旧モデル Llama 4 Maverick

X (formerly Twitter)

Bindu Reddy (@bindureddy)

AI로 업무를 자동화하는 비용이 빠르게 증가하면서, 성능 좋은 소형 모델의 필요성이 커지고 있다고 말한다. 다만 많은 소형 모델이 뉘앙스 이해와 지시 따르기, 도구 호출에서 성능이 부족해 실용성 개선이 시급하다는 문제를 지적한다.

https://x.com/bindureddy/status/2040871426211917896

#smallmodels #llm #toolcalling #aiautomation

Bindu Reddy (@bindureddy) on X

The cost of using AI to automate work is growing exponentially…. Performant small models are becoming urgent Sadly most small models don’t understand nuance and are terrible at instruction following and tool calling!

X (formerly Twitter)

fly51fly (@fly51fly)

소규모 모델을 활용해 다국어 언어 습득을 분석한 BabyLM 관련 연구가 공개됐습니다. 이 연구는 이중언어 환경에서의 언어 획득을 모델링하며, 작은 규모의 모델로 언어학적 학습 과정을 탐구합니다.

https://x.com/fly51fly/status/2039457396163330485

#babylm #multilingual #nlp #smallmodels #languageacquisition

fly51fly (@fly51fly) on X

[CL] Bringing Up a Bilingual BabyLM: Investigating Multilingual Language Acquisition Using Small-Scale Models L Zeng, S Y. Feng, M C. Frank [The Harker School & Stanford University] (2026) https://t.co/tPDkYLNqoX

X (formerly Twitter)
GitHub - KittenML/KittenTTS: State-of-the-art TTS model under 25MB 😻

State-of-the-art TTS model under 25MB 😻 . Contribute to KittenML/KittenTTS development by creating an account on GitHub.

GitHub

GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac.

No cloud API. No subscription. Just your machine.

Local models are getting better and smaller faster than anyone expected.

https://x.com/RoundtableSpace/status/2033547584208580991

#glmocr #ocr #localai #ondevice #smallmodels

0xMarioNawfal (@RoundtableSpace) on X

GLM-OCR runs locally on 2GB VRAM, handles tables and math equations, and hits 260 tok/s on a Mac. No cloud API. No subscription. Just your machine. Local models are getting better and smaller faster than anyone expected.

X (formerly Twitter)