Ilir Aliu (@IlirAliu_)

로봇 제어용 VLA/정책 조정 코드가 완전 오픈소스로 공개되었습니다. VLS는 재학습 없이 추론 시점에 세계 변화에 대응해 CALVIN과 LIBERO-Pro에서 성능을 개선했다고 주장합니다. AI 로봇 정책 개발에 유용한 오픈소스 도구입니다.

https://x.com/IlirAliu_/status/2041424778855133310

#opensource #robotics #vla #policy #ai

Ilir Aliu (@IlirAliu_) on X

All code is fully open-sourced. Test the VLA on CALVIN and LIBERO-Pro. Ship your own policy! [📍github👇] Robots break when the world changes. VLS fixes this at inference time. No retraining. +31% CALVIN. +13% LIBERO-Pro. https://t.co/jiNubxwnmg —— if it matters in AI or

X (formerly Twitter)

中国EV「小鵬汽車」、第2世代VLAを発表  “AI定義の自動運転”でL2からL4の直接進化へ

https://fed.brid.gy/r/https://36kr.jp/486876/

中国EV「小鵬汽車」、第2世代VLAを発表 “AI定義の自動運転”でL2からL4の直接進化へ | 36Kr Japan | 最大級の中国テック・スタートアップ専門メディア

「社内評価では、第2世代VLAは主要競合の5年先を行っている」。中国の電気自動車(EV)メーカー「小鵬汽車(Xpeng Motors)」の…

36Kr Japan | 最大級の中国テック・スタートアップ専門メディア

Ilir Aliu (@IlirAliu_)

로보틱스가 라즈베리 파이 같은 전환점을 맞고 있으며, 모터 제어부터 VLA 모델까지 여러 도구로 분절돼 있던 Physical AI 스택을 하나의 통합 시스템으로 묶는 새로운 플랫폼이 등장했다는 내용입니다.

https://x.com/IlirAliu_/status/2036004070373089679

#robotics #physicalai #vla #opensource #ai

Ilir Aliu (@IlirAliu_) on X

Robotics is getting its Raspberry Pi moment. This solves one of the biggest frictions in Physical AI: Everything has been fragmented. Different tools for control. Sensors. Calibration. Learning. Now it’s one unified stack: • motor control to VLA models in one system •

X (formerly Twitter)

The Humanoid Hub (@TheHumanoidHub)

NVIDIA GTC 2026에서 AGIBOT이 핵심 에코시스템 파트너로 소개됐다. AGIBOT Genie-1 기반으로 NVIDIA의 차세대 VLA 모델 GR00T N2 Foundation Model이 사전학습됐고, DreamZero World Action Model(WAM)도 언급됐다. 로보틱스용 AI 모델·하드웨어 협력 소식으로 중요하다.

https://x.com/TheHumanoidHub/status/2036064872719679883

#nvidia #robotics #foundationmodel #vla #gtc

X

X (formerly Twitter)

タフツ大学、AIの消費電力を100分の1に激減させる「Neuro-symbolic AI」を開発

人工知能の急速な進化は、人類に多大な恩恵をもたらしている一方で、地球規模の深刻な課題を突きつけている。それは、天文学的な規模に膨れ上がる計算リソースとそれに伴う電力消費の激増だ。国際エネルギー機関(IEA)の推計によると、米国におけるAIおよびデータセンターの電力消費量は2024年時点で約415テラワット時(TWh)に達した。この数値は同国の年間総発電量の10%を超える異常な水準であり、さらに2030年までにこの消費量が倍増すると予測されている。現状の力技とも言えるAI開発アプローチが、物理的かつ環境的な限界に直面していることは疑いようのない事実となっている。 こうした持続不可能なエネルギー消費の軌道に歯止めをかけるべく、タフツ大学のMatthias […]

https://xenospectrum.com/neuro-symbolic-ai-tufts-robotics-energy-efficiency/

#Demir tackelt #Verlinden over chaos rond strafwetboek.
Samen met de andere zaken lijkt dit op een poging om de aandacht af te lijden van andere problemen en de kans te hebben naar 'de ander' te wijzen als het misloopt.
Ik weet het: Demir is #VLA en heeft niets te maken met Federaal.
En al deze gebeurtenissen staan ongetwijfeld los van elkaar en hebben niets met elkaar te maken; zuiver toevallig dat dit allemaal nu gebeurt.
#politiek #belpolitiek

Как собрать Physical AI-конвейер на манипуляторе за 30 тысяч рублей: ROS2, LeRobot и end-to-end imitation learning

Вокруг Physical AI сейчас много шума, но если отбросить красивые слова, у большинства разработчиков до сих пор нет главного — воспроизводимого конвейера на реальном роботе, который можно поднять своими руками, покрутить, записать данные, обучить policy и вернуть её обратно в железо. Обычно всё рассыпается на отдельные куски: где-то есть teleop, где-то есть датасеты, где-то крутится ML-модель, но цельного ROS2-native пути от демонстрации до исплнения почти не видно. В статье вы получите решение, как собрать такой манипулятор самостояетельно и запустить все необходимые программные компоненты из open-source ROS2 пакетов.

https://habr.com/ru/articles/1010178/

#ros2 #lerobot #робототехника #манипулятор #искусственный_интеллект #machinelearning #deeplearning #vla #vision_language_models

Как собрать Physical AI-конвейер на манипуляторе за 30 тысяч рублей: ROS2, LeRobot и end-to-end imitation learning

Вокруг Physical AI сейчас много шума, но если отбросить красивые слова, у большинства разработчиков до сих пор нет главного — воспроизводимого конвейера на реальном роботе, который можно поднять...

Хабр
This is one of the 28, 25-meter (diameter) radio telescopes that make up the Karl G. Jansky Very Large Array ("VLA"), in the desert about 50 miles west of Socorro, New Mexico [USA]. Two people in the foreground give an idea of scale.

11 October 2016

#VeryLargeArray #VLA #RadioTelescope
小鵬 VLA 2.0 媒體體驗日亮相 Volkswagen 搶先採用、2027 年全球交付
XPENG(小鵬汽車)3 月 2 日在廣州舉行「The Future」VLA 媒體體驗日,正式公布第二代智慧駕 […]
#人工智能 #智慧城市 #汽車科技 #VLA 2.0
https://unwire.hk/2026/03/04/xpeng-vla-2-0-level-4-volkswagen-2027/life-tech/auto/?utm_source=rss&utm_medium=rss&utm_campaign=xpeng-vla-2-0-level-4-volkswagen-2027

RoboHub (@XRoboHub)

NVIDIA가 EgoScale을 발표했습니다. NVIDIA Research는 VLA 모델들을 사람 시점(egocentric) 비디오 20,000시간 이상으로 사전학습(pretraining)해 로봇 숙련도(robot dexterity)가 로그-선형 스케일링 법칙을 따른다는 연구 결과를 공개했으며, 이 데이터셋은 이전보다 약 20배 큰 규모라고 설명합니다. 대규모 시청각 사전학습과 로봇 제어·학습의 연결을 제시하는 중요한 연구 발표입니다.

https://x.com/XRoboHub/status/2028051372923572250

#nvidia #egoscale #robotics #dataset #vla

RoboHub🤖 (@XRoboHub) on X

NVIDIA just announced EgoScale 🤖🧠 NVIDIA Research has uncovered a log-linear scaling law for robot dexterity by pretraining VLA models on over 20,000 hours of egocentric human video This massive dataset is 20 times larger than previous efforts and proves that robot

X (formerly Twitter)