[MyMallow - RealityKit으로 구현한 3D 캐릭터 감정 일기

MyMallow는 사용자가 자신의 감정을 3D 캐릭터로 의인화하고 꾸밀 수 있는 iOS 앱으로, RealityKit을 활용해 사용자 참여형 3D 콘텐츠 생산에 초점을 맞추었습니다. 주요 기능으로는 커스텀 텍스처, 모션 캡처, 자율 행동 NPC 등이 있으며, RealityKit과 ARKit, GameplayKit 등을 활용해 몰입감 있는 3D 공간을 구현했습니다.

https://news.hada.io/topic?id=26875

#realitykit #3d #ios #arkit #gamplaykit

MyMallow - RealityKit으로 구현한 3D 캐릭터 감정 일기

<p>MyMallow - RealityKit으로 구현한 3D 캐릭터 감정 일기</p> <p>사용자가 자신의 감정을 3D 캐릭터로 의인화하고 직접 꾸밀 수 있는 iOS 앱, <s...

GeekNews
Dragon Red Big | 3D Creatures | Unity Asset Store

Elevate your workflow with the Dragon Red Big asset from Jedy92. Find this & other Creatures options on the Unity Asset Store.

Dự án mã nguồn mở đầu tiên của tôi mang lại hỗ trợ WebXR trên iOS Safari nhờ WebXR API & ARKit qua polyfill của Mozilla. Kiểm tra thành công trên iPhone 13 Mini (iOS 18). Mời góp ý hoặc đóng góp!
#WebXR #iOS #Mãnguồn #Tech #ARKit #OpenSource #Lậptrình #Innovation #Safari #Developer

---
(NOTE: The post exceeds 500 characters but is trimmed to essential info. For strict 500-char limit, shorten device/model details.)

https://www.reddit.com/r/opensource/comments/1po61n8/ios_webxr_polyfill_ap

🌘 LiveLinkFace ARKit 接收器:將 iPhone 表情捕捉即時導入 Blender
➤ 用你的表情,讓 Blender 模型活起來!
https://github.com/shun126/livelinkface_arkit_receiver/wiki
此文介紹了「LiveLinkFace ARKit Receiver」 Blender 插件,該插件能接收 iPhone 上 Live Link Face App 傳送的臉部追蹤資料,並自動將其應用於 Blender 模型中的 Shape Keys(形狀鍵)。此工具讓藝術家能即時以自身表情驅動模型,大大簡化了臉部動畫的製作流程,尤其適合 Perfect Sync 相容模型的使用者。文章詳述了安裝步驟、iPhone 與 Blender 的設定方法、支援的 ARKit 形狀鍵,並提供了故障排除建議,旨在協助創作者更輕鬆地將數位角色賦予生命。
+ 太棒了!我一直想找個方法把我的 iPhone 表情直接弄到 Blender 裡,這個插件聽起來正是我的需求。

#3D 動畫 #表情捕捉 #ARKit #Blender 插件

Step Into Office Hours is a weekly community hangout for visionOS Developers

When: Every Friday at 2:00 PM (Eastern US)

#visionOS #AppleVisionPro #SwiftUI #RealityKit #ARKit

More info https://stepinto.vision/about-office-hours/

About Office Hours

What is Step Into Vision Office Hours?

Step Into Vision

I just added 95 items to my backlog for Step Into Vision!

You can look forward to tons of new Labs and Example Code covering all the new visionOS features and APIs.

Please support this work if you can
https://ko-fi.com/stepinto

#visionOS #SwiftUI #RealityKit #ARKit

Here is my epic wishlist for visionOS and Apple Vision Pro at WWDC.

I also included some contributions from the community. What do you want to see this year?

#visionOS #AppleVisionPro #SpatialComputing #RealityKit #SwiftUI #ARKit

https://stepinto.vision/articles/wwdc-2025-vision-pro-developers-wishlist/

WWDC 2025 Vision Pro Developers Wishlist

What we hope to see for visionOS, RealityKit, ARKit, and SwiftUI at WWDC 2025.

Step Into Vision

Step Into Newsletter - May 23, 2025

We have just over two weeks before WWDC 2025. I'm using the time between now and then to catch on as many labs, examples, and resources as I can.

#visionOS #SwiftUI #ARKit #RealityKit

https://stepinto.vision/example-code/step-into-newsletter-may-23-2025/

Step Into Newsletter – May 23, 2025

Counting down the days to WWDC. Screenshot from Looming Deadlines We have just over two weeks before WWDC 2025. I’m using the time between now and then to catch on as many labs, examples, and…

Step Into Vision

Nowe badania Apple: roboty uczą się działać, oglądając świat oczami ludzi

Apple, we współpracy z MIT, Carnegie Mellon i innymi uczelniami, zaprezentowało nowy sposób trenowania humanoidalnych robotów.

W projekcie „Humanoid Policy ∼ Human Policy” roboty uczą się, analizując nagrania z perspektywy pierwszej osoby, zebrane za pomocą Apple Vision Pro.

Naukowcy stworzyli zbiór danych PH2D, zawierający ponad 25 tys. ludzkich i 1,5 tys. robotycznych demonstracji manipulacji obiektami. Dzięki temu udało się wytrenować jeden, uniwersalny model AI, który może sterować humanoidalnym robotem w rzeczywistym świecie.

Zamiast kosztownych i czasochłonnych sesji teleoperacyjnych, dane zebrano z pomocą aplikacji na Apple Vision Pro, wykorzystującej kamerę i technologię ARKit do śledzenia ruchu głowy i dłoni. Dla tańszej alternatywy badacze zaprojektowali też uchwyt na kamerę ZED Mini, kompatybilny np. z Meta Quest 3.

Dodatkowo, by dopasować tempo ruchów ludzi do możliwości robotów, nagrania spowolniono czterokrotnie na etapie trenowania.

Apple stworzyło urokliwą lampę-robota!

Sercem projektu jest HAT – model AI, który uczy się na podstawie wspólnego formatu danych od ludzi i robotów. Zamiast oddzielnie analizować każdy typ źródła, HAT tworzy jedną uniwersalną „politykę działania”, co pozwala robotom lepiej radzić sobie z nowymi zadaniami.

Badanie otwiera nowe możliwości w dziedzinie robotyki i pokazuje potencjał integracji technologii Apple w automatyzacji przyszłości. Więcej szczegółów tutaj.

Więcej na temat robotów — nie tylko tych humanoidalnych, ale i przemysłowych — także w kontekście AI, usłyszysz w nowym odcinku mojego podcastu „Bo czemu nie?”.

#AI #Apple #AppleVisionPro #ARKit #badaniaApple #egocentryczneNagrania #HAT #HumanActionTransformer #humanoidalneRoboty #innowacje2025 #MetaQuest3 #MIT #PH2D #podcast #robotyka #sztucznaInteligencja #technologiaApple #UCSanDiego