AI Leaks and News (@AILeaksAndNews)

Arcee가 Trinity Large를 공개했습니다. 공개된 내용에 따르면 Trinity Large는 오픈소스 400B 파라미터 기반의 MoE(혼합전문가) 모델로, 실제 실행 시에는 13B 활성 파라미터만으로 프론티어급 성능을 낸다고 합니다. 미국 중심의 오픈소스 AI 경쟁에서 중요한 발표로 보입니다.

https://x.com/AILeaksAndNews/status/2016291533918548041

#arcee #trinity #moe #opensource #llm

AI Leaks and News (@AILeaksAndNews) on X

Arcee have released Trinity Large The open source 400B parameter MoE model delivers frontier-level performance with only 13B active parameters America answers back in the open source AI race

X (formerly Twitter)