RoboHub (@XRoboHub)

NVIDIA가 EgoScale을 발표했습니다. NVIDIA Research는 VLA 모델들을 사람 시점(egocentric) 비디오 20,000시간 이상으로 사전학습(pretraining)해 로봇 숙련도(robot dexterity)가 로그-선형 스케일링 법칙을 따른다는 연구 결과를 공개했으며, 이 데이터셋은 이전보다 약 20배 큰 규모라고 설명합니다. 대규모 시청각 사전학습과 로봇 제어·학습의 연결을 제시하는 중요한 연구 발표입니다.

https://x.com/XRoboHub/status/2028051372923572250

#nvidia #egoscale #robotics #dataset #vla

RoboHub🤖 (@XRoboHub) on X

NVIDIA just announced EgoScale 🤖🧠 NVIDIA Research has uncovered a log-linear scaling law for robot dexterity by pretraining VLA models on over 20,000 hours of egocentric human video This massive dataset is 20 times larger than previous efforts and proves that robot

X (formerly Twitter)

The Humanoid Hub (@TheHumanoidHub)

휴머노이드 원격조종(teleoperation)은 비용과 확장성 문제가 있는데, 이를 겨냥한 NVIDIA의 EgoScale이 소개됩니다. EgoScale은 수천 시간의 제1인칭(egocentric) 인간 영상으로 사전학습된 VLA 모델이며, 인간-로봇 정렬을 위해 50시간의 인간 데이터와 4시간의 로봇 '플레이' 데이터로 미드트레이닝되었다고 합니다.

https://x.com/TheHumanoidHub/status/2026737482168152258

#nvidia #egoscale #vla #teleoperation #robotics

The Humanoid Hub (@TheHumanoidHub) on X

The problem with humanoid teleoperation is that it is expensive and difficult to scale Enter NVIDIA's EgoScale: - A VLA model pretrained on thousands hours of egocentric human videos. - Mid-trained via 50 hours of human + 4 hours of robot "play" data for human-robot alignment.

X (formerly Twitter)