fly51fly (@fly51fly)

MoCapAnything은 단안 영상만으로 임의의 스켈레톤에 대한 3D 모션 캡처를 통합적으로 수행하는 방법을 제안한다. 휴먼 모션 캡처를 넘어 다양한 스켈레톤 구조에 적용 가능한 점에서, 비전 기반 동작 추정과 3D 재구성 분야의 유용한 신규 기술이다.

https://x.com/fly51fly/status/2050694072525095270

#motioncapture #3dvision #computervision #monocular #huawei

fly51fly (@fly51fly) on X

[CV] MoCapAnything: Unified 3D Motion Capture for Arbitrary Skeletons from Monocular Videos K Gong, Z Wen, W He, M Xu… [Huawei International Pte. Ltd. & Huawei Central Media Technology Institute] (2026) https://t.co/Ln1MA2DGWF

X (formerly Twitter)

Drones Adopt 3D Vision for GPS-Free Navigation

In a game-changing shift, drones are ditching GPS and embracing 3D vision for navigation, empowering them to fly high even in the most challenging environments. This innovative tech is redefining autonomy, enabling drones to thrive in "dirty" RF and contested conditions where satellite signals are unreliable or unavailable.

https://osintsights.com/drones-adopt-3d-vision-for-gps-free-navigation?utm_source=mastodon&utm_medium=social

#3dVision #GpsfreeNavigation #DroneTechnology #AutonomousSystems #ResilientPositioning

Drones Adopt 3D Vision for GPS-Free Navigation

Discover how drones are using 3D vision for GPS-free navigation, redefining autonomy in contested environments - learn more about this game-changing technology now.

OSINTSights

fly51fly (@fly51fly)

Meta Reality Labs Research가 공개한 CV 논문으로, 오픈월드 2D 바운딩 박스를 3D로 강건하게 올리는 Boxer 방법을 제안한다. 2D 감지 결과를 3D 공간 이해로 확장하는 컴퓨터 비전 연구로, 향후 3D 인식·로보틱스·AR/VR 응용에 유용할 수 있다.

https://x.com/fly51fly/status/2043081995157410117

#computervision #3dvision #arxiv #metarealitylabs

fly51fly (@fly51fly) on X

[CV] Boxer: Robust Lifting of Open-World 2D Bounding Boxes to 3D D DeTone, T Shen, F Zhang, L Ma… [Meta Reality Labs Research] (2026) https://t.co/uHOmXxsCJN

X (formerly Twitter)

田中義弘 | taziku CEO / AI × Creative (@taziku_co)

Allen AI의 WildDet3D는 2D 비디오만으로 3D 객체 탐지를 수행하는 오픈소스 모델입니다. 단일 시점 영상에서 물체를 완전한 3D bounding box로 추출해 비전 시스템의 공간 이해를 크게 향상시킵니다.

https://x.com/taziku_co/status/2041722017117012298

#opensource #3dvision #objectdetection #computervision #ai

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X

WildDet3D(@allen_ai)は、2Dの映像から 3D物体検出が行えるオープンソースモデル。 タップでも、「firetruck」と打つだけでも、 単眼映像から物体を 完全な3Dボックスで捉える。 これで、あらゆるビジョンシステムが 空間認識を得ることができる。 リンクは🧵

X (formerly Twitter)

merve (@mervenoyann)

3DV 논문 소개 트윗으로, DetailGen3D가 3D 자산의 기하학적 텍스처를 정교하게 보정하고 coarse-to-fine 변환을 학습하는 추론 파이프라인과 모델/데모를 함께 언급한다. 3D 생성 및 복원 분야에서 주목할 만한 연구다.

https://x.com/mervenoyann/status/2037556175814734270

#3dvision #detailgen3d #3dgeneration #texturing #research

merve (@mervenoyann) on X

fav papers from 3DV #3 DetailGen3D refines geometric texture of 3D assets, model learns to do coarse-to-fine transformation see below summary of their inference pipeline model & demo ➡️

X (formerly Twitter)
Automation is moving from “simple pick-and-place” to human-like handling. 🤖🖐️
know more:https://zurl.co/nqpPc
#Smidmart #Cobots #DexterousGripper #TactileSensors #Robotics #MachineVision #3DVision #IndustrialAI #FlexibleAutomation #PickAndPlace #AssemblyAutomation

Researchers, including Benjamin Bogenberger, developed a robot that combines #LanguageModels with #3Dvision to locate misplaced objects by building a spatial map and estimating likely locations: http://go.tum.de/730486

#Robotics #AI

📷A. Schmitz

Search robot thinks for itself

A robot that can locate lost items on command – this is the latest development at the Technical University of Munich (TUM). It combines knowledge from…

Framer (@Framer_X)

이미지를 업로드하고 3D 공간에서 카메라를 움직이면 완전히 새로운 시점의 이미지를 생성할 수 있는 무료 도구가 공개되었습니다. 2D 이미지를 3D 장면으로 변환하는 혁신적인 비전 AI 응용 사례입니다.

https://x.com/Framer_X/status/2025912264256307447

#ai #3dvision #imagetools #innovation

Framer 🇱🇹 (@Framer_X) on X

This tool is insane. Upload any image. Move camera in 3D space. And get a completely new camera angle 🤯 Also it’s free! 👇

X (formerly Twitter)

田中義弘 | taziku CEO / AI × Creative (@taziku_co)

Seeed Studio가 Depth Anything V3와 NVIDIA Jetson AGX Orin을 결합해 단일 RGB 카메라만으로 로봇에 3D 인식 능력을 부여하는 솔루션을 공개했다. 이 기술은 고가의 센서나 장비 없이도 단안(depth) 추정(monocular depth) 기반으로 2D 이미지에서 실시간으로 거리 정보를 계산해 3D 공간 인식을 가능하게 한다. AI 기반의 최적화로 로봇 비전의 패러다임을 바꾸는 혁신적 접근이다.

https://x.com/taziku_co/status/2025499579245035744

#robotics #3dvision #depthestimation #ai #edge

田中義弘 | taziku CEO / AI × Creative (@taziku_co) on X

Depth Anything V3 × Jetson AGX Orin。 RGBカメラ1台だけでロボットに3D視覚を持たせる。 特殊な機材不要。Monocular depthで2D画像からリアルタイムに奥行きを推定。 「高価機材前提の3D認識」から、「AI推論+最適化前提の3D認識」へのシフト。 via:@seeedstudio

X (formerly Twitter)
Automation is moving from “perfectly placed parts” to real-world randomness — mixed bins, uneven shapes, variable orientation.
know more: https://zurl.co/3Skrb
#Smidmart #SmartGrippers #Cobots #Robotics #MachineVision #3DVision