The Humanoid Hub (@TheHumanoidHub)

Genesis AI가 SF 베이 에어리어 기반의 풀스택 embodied AI 스타트업으로 소개됐다. 기반 모델, 20 DoF 손, 촉각 센싱 데이터 수집 장갑과 데이터 엔진, 커스텀 모터 컨트롤러, 고정밀 시뮬레이터까지 포함한 로보틱스/임바디드 AI 스택을 공개했다.

https://x.com/TheHumanoidHub/status/2052116493475910089

#embodiedai #robotics #foundationmodel #startup #simulation

The Humanoid Hub (@TheHumanoidHub) on X

Genesis AI has stepped into the spotlight The company is a SF Bay Area-based full-stack embodied AI startup. The Stack - Foundation model - 20 DoF dexterous hand - Tactile-sensing data-collection glove + Data engine - Custom motor controllers - In-house high-fidelity simulator

X (formerly Twitter)

The Humanoid Hub (@TheHumanoidHub)

Genesis AI가 첫 로봇 파운데이션 모델 GENE-26.5를 공개했다. 이 단일 모델은 공유 가중치로 달걀 깨기, 실험실 피펫 작업, 양손 Rubik’s Cube 조작, 스무디 만들기, 와이어 작업 등 다양한 정교한 조작을 처리하도록 설계되어 인간 수준의 dexterous manipulation을 목표로 한다.

https://x.com/TheHumanoidHub/status/2052117692451278893

#robotics #foundationmodel #genai #ai #opensource

The Humanoid Hub (@TheHumanoidHub) on X

Impressive on every dimension! Genesis AI has announced GENE-26.5, its first robotic foundation model, aimed at achieving human-level dexterous manipulation: - Single model, shared weights, handles egg cracking, lab pipetting, bimanual Rubik's Cube, smoothie making, and wire

X (formerly Twitter)

HackerNewsTop5 (@hackernewstop5)

GLM-5V-Turbo가 공개됐으며, 멀티모달 에이전트를 위한 네이티브 파운데이션 모델을 지향하는 연구입니다. 이미지와 텍스트 등 복합 입력을 다루는 차세대 멀티모달 AI 모델 관련 중요한 발표입니다.

https://x.com/hackernewstop5/status/2051739491476615235

#glm5vturbo #multimodal #foundationmodel #llm #research

HackerNewsTop5 (@hackernewstop5) on X

GLM-5V-Turbo: Toward a Native Foundation Model for Multimodal Agents #HackerNews https://t.co/uUa9da5eVN

X (formerly Twitter)

Bindu Reddy (@bindureddy)

20조 파라미터 규모의 ‘Mythical’ 모델을 학습했다고 밝힌 트윗이다. 여러 벤치마크에서 만점 수준이라고 주장하지만, 너무 강력하고 비용이 커서 공개하지 않겠다고 했다. 차세대 초거대 모델 가능성을 암시하는 내용이다.

https://x.com/bindureddy/status/2048888459272851490

#llm #foundationmodel #benchmark #ai #modelrelease

Bindu Reddy (@bindureddy) on X

Trained a 20T param model - Mythical It’s got 100 on all the benchmarks, will be sharing some screenshots shortly - so you all can make viral posts! Realized it could take over the world - and would be very expensive Sorry, not releasing it 😬

X (formerly Twitter)

Abdulmuiz Adeyemo (@AbdMuizAdeyemo)

GPT-5.5를 이길 오픈소스 모델을 만들기 시작하자는 메시지다. 차세대 고성능 공개 모델 개발을 독려하는 내용으로, 오픈소스 AI 경쟁과 파운데이션 모델 성능 향상 흐름을 보여준다.

https://x.com/AbdMuizAdeyemo/status/2048877163441537463

#opensource #llm #gpt5.5 #foundationmodel #ai

Abdulmuiz Adeyemo (@AbdMuizAdeyemo) on X

@bindureddy Start working on an open source model that will beat GPT 5.5 then

X (formerly Twitter)

RE: https://mastodon.social/@thetransmitter/116476879384094089

Tl;dr: transformers didn’t learn the underlying principle.

“Keyon Vafa and his colleagues simulated tens of millions of planetary orbits from Newton’s laws and trained a transformer on the resulting sequences. The model predicted future positions with very high accuracy. But when they fine-tuned it to infer the underlying gravitational force vectors, the model produced nonsense. The implied laws of gravitation were different depending on which subset of data the researchers examined. The transformer had assembled a patchwork of heuristics, accurate for every solar system in the training set, but it hadn’t discovered the universal gravitational principle. Without that principle, the model could predict the movement of points of light in the sky but could never send a rocket to the moon.”

Also link to the preprint: https://arxiv.org/abs/2507.06952

#neuroscience #prediction #FoundationModel

DynamicWang (@dynamicwangs)

GPT Image2가 대량의 AIGC 데이터를 학습한 결과, 이미지의 고주파 정보가 비정상적으로 넘치고 일부 장면에서 얼굴 특징이 깨지는 현상이 보인다는 비판적 의견이다. 새로운 모델 자체의 출시 소식은 아니지만, 최신 이미지 생성 모델의 품질 한계를 짚는 기술적 논의로 볼 수 있다.

https://x.com/dynamicwangs/status/2047580984342925545

#gpt #imagegeneration #aigc #ai #foundationmodel

DynamicWang (@dynamicwangs) on X

都在夸gpt image2 我来唱唱反调吧, gpt image2 应该是学习了大量的AIGC内容,导致其画面的高频信息经常异常的溢出,在一些场景下人物面部特征很像sd1.5时代的模型出图,肢体有残缺,在雨夜的这张环境下还有类似过拟合产生的异常噪声,也很容易出现类似第三张图的物理性差错,看来gpt image2

X (formerly Twitter)

Bindu Reddy (@bindureddy)

DeepSeek V4가 출시되었다는 소식이 전해졌으며, 초기 벤치마크 수치가 매우 인상적이라고 주장합니다. 성능이 Opus 4.7 Max와 GPT 5.5 수준에 달한다는 언급이 있어, 최신 AI 모델 출시 및 성능 경쟁 관점에서 주목할 만합니다.

https://x.com/bindureddy/status/2047515312434934166

#deepseek #llm #foundationmodel #benchmarks #artificialintelligence

Bindu Reddy (@bindureddy) on X

YAY!!! - DEEPSEEK V4 IS OUT 🚀🚀🚀 Initial benchmarks numbers are ABSOLUTELY ASTOUNDING!! Opus 4.7 Max and GPT 5.5 level! Scrambling to verify their numbers

X (formerly Twitter)

Rohan Paul (@rohanpaul_ai)

알리바바, 바이트댄스, 샤오미, 메이투안의 지원을 받는 X Square Robot이 실제 아파트 환경을 겨냥한 가정용 로봇 기초모델 WALL-B를 공개했다. 지각, 언어, 행동, 물리 예측을 함께 학습하며 35일 내 첫 가정용 배포를 예고해 로봇 AI 분야의 주목할 만한 진전이다.

https://x.com/rohanpaul_ai/status/2047404989099000222

#robotics #foundationmodel #ai #homeautomation #embodiedai

Rohan Paul (@rohanpaul_ai) on X

X Square Robot, backed by Alibaba, ByteDance, Xiaomi and Meituan, just announced WALL-B, a home-robot foundation model aimed at real apartments. First household rollout promised in 35 days. @XSquareRobot says perception, language, action, and physical prediction are trained

X (formerly Twitter)

AISatoshi (@AiXsatoshi)

Tencent가 295B-A21B라는 최첨단 LLM을 공개했다는 내용입니다. 대규모 파라미터를 가진 최신 언어모델로 보이며, 새로운 AI 모델 출시 소식에 해당합니다.

https://x.com/AiXsatoshi/status/2047331705095332275

#tencent #llm #languagemodel #aimodel #foundationmodel

AI✖️Satoshi⏩️ (@AiXsatoshi) on X

テンセントからも、295B-A21Bの最先端LLM

X (formerly Twitter)