Rohan Paul (@rohanpaul_ai)
Yann LeCun이 LLM의 현실 세계 지능 한계를 설명하며, 최대 규모의 LLM이 약 30조 단어(대략 10^14 바이트)의 텍스트로 학습되었다고 지적. 이 수치가 언뜻 커 보이지만 실제 세계에서 사물을 배우는 인간(예: 4세 아동)의 경험량과 비교하면 한계가 드러난다고 설명함.

Rohan Paul (@rohanpaul_ai) on X
Yann LeCun (@ylecun ) explains why LLMs are so limited in terms of real-world intelligence. Says the biggest LLM is trained on about 30 trillion words, which is roughly 10 to the power 14 bytes of text. That sounds huge, but a 4 year old who has been awake about 16,000 hours


