SwitchBot kończy z półśrodkami. Humanoidalny robot, zamek z FaceID i „drugi mózg” na pasku

Do tej pory SwitchBot kojarzył nam się głównie ze sprytnymi gadżetami, które wciskały za nas przyciski w starych sprzętach.

Na CES 2026 firma postanowiła jednak zmienić ligę. Zamiast kolejnego małego „pstrykacza”, Japończycy pokazali humanoidalnego robota, który ma realnie sprzątać w domu, oraz całą armię urządzeń napędzanych sztuczną inteligencją.

Onero H1: koniec z jedną funkcją

Największą gwiazdą stoiska jest onero H1. To pierwszy humanoidalny robot marki, który zrywa z koncepcją „jedna maszyna do jednego zadania”. Dzięki 22 stopniom swobody i zestawowi kamer Intel RealSense (rozmieszczonych na głowie, ramionach, a nawet dłoniach), robot ma radzić sobie z zadaniami wymagającymi precyzji i adaptacji.

Pomóż nam rozwijać iMagazine – ruszyło badanie czytelnictwa 2026

Sercem maszyny jest autorski model OmniSense VLA, który pozwala robotowi „rozumieć” otoczenie i siłę nacisku. W praktyce ma to oznaczać koniec problemów z delikatnymi przedmiotami czy sortowaniem prania. SwitchBot zapowiada, że onero H1 będzie współpracował z resztą domowego ekosystemu, działając jak fizyczny „kierownik” smart home.

Zamek, którego nie oszukasz zdjęciem

Seria Lock Vision to wejście firmy w rynek zamków biometrycznych z przytupem. To pierwszy na świecie inteligentny zamek typu deadbolt wykorzystujący rozpoznawanie twarzy 3D (structured light). System rzutuje na twarz 2000 punktów podczerwieni, tworząc mapę głębi, której nie da się oszukać płaskim zdjęciem.

Dla bardziej wymagających przygotowano wersję Pro, która dodatkowo skanuje układ naczyń krwionośnych dłoni (palm-vein recognition). To rozwiązanie idealne, gdy mamy brudne ręce lub wracamy z treningu i odcisk palca mógłby nie zadziałać. Całość działa w standardzie Matter-over-Wi-Fi, co ucieszy użytkowników Apple Home.

AI, które pamięta za ciebie

Ciekawym eksperymentem jest SwitchBot AI MindClip. To miniaturowy dyktafon (waży tylko 18 gramów), który ma pełnić rolę „drugiego mózgu”. Urządzenie nagrywa spotkania i rozmowy, a następnie – przy użyciu chmury – tworzy z nich streszczenia i listy zadań. Producent obiecuje obsługę ponad 100 języków i pełne szyfrowanie danych.

Listę nowości zamyka SwitchBot Weather Station – stacja pogodowa z 7,5-calowym ekranem E-Ink, która wyświetla nie tylko temperaturę, ale i „inteligentne porady” pogodowe generowane przez AI.

Bajerem na koniec, prezentowanym przez SwitchBot jest OBBOTO – lampka biurkowa z funkcją wizualizacji muzyki i animacjami nastroju.

Karnisz elektryczny – smart zasłony można zrobić w dowolnym momencie, dzięki SwitchBot Curtain

#AIMindClip #CES2026 #LockVision #matter #news #oneroH1 #robotHumanoidalny #SwitchBot #zamekBiometryczny

XPENG prezentuje IRON, najbardziej zaawansowanego robota humanoidalnego. Jaki ma potencjał?

XPENG, firma działająca w sektorze inteligentnej mobilności i sztucznej inteligencji, zaprezentowała nową generację swojego robota humanoidalnego o nazwie IRON.

Producent określa go jako najbardziej zaawansowaną konstrukcję w swojej historii. Łączy on zaawansowaną biomechanikę, percepcję multimodalną oraz dużą moc obliczeniową, co ma przybliżyć humanoidy do masowego, komercyjnego zastosowania. Jest to krok w stronę realnej „Physical AI”.

Nowy IRON ma 178 cm wzrostu i waży około 70 kg. Jego konstrukcja została zaprojektowana tak, aby wiernie odwzorować ludzką motorykę. Posiada syntetyczną powłokę imitującą skórę, bioniczne „mięśnie” oraz 82 stopnie swobody, co pozwala mu na wykonywanie precyzyjnych zadań manualnych, naturalnych gestów i stabilnych ruchów. Według firmy, robot będzie mógł pracować wszędzie tam, gdzie dotychczas potrzebny był człowiek — od obsługi klienta po zadania na liniach produkcyjnych.

Mózg, oczy i zasilanie robota

Pod względem mocy obliczeniowej IRON został wyposażony w trzy chipy AI Turing, osiągające łącznie do 3000 TOPS. System percepcji, określany przez firmę jako „eagle-eye vision”, wykorzystuje kamery i czujniki z polem widzenia 360°/720°, co pozwala robotowi na analizowanie otoczenia w czasie rzeczywistym i podejmowanie autonomicznych decyzji ruchowych z niespotykaną precyzją. Nowością w tej wersji jest także zastosowanie baterii z elektrolitem stałym (all-solid-state), która w porównaniu do klasycznych ogniw litowo-jonowych oferuje większą gęstość energii, jest lżejsza, bezpieczniejsza i bardziej odporna na temperatury. Dzięki temu IRON może pracować dłużej i stabilniej, również w wymagających środowiskach przemysłowych.

XPENG zapowiada, że robot IRON w pierwszej kolejności trafi do zastosowań komercyjnych, w tym do showroomów, centrów logistycznych, przestrzeni publicznych i fabryk. Obecnie jest już testowany w środowisku produkcyjnym XPENG, a masowa produkcja ma ruszyć pod koniec 2026 roku. Firma rozwija ekosystem „Physical AI”, w którym humanoidy mają stać się integralną częścią, obok samochodów elektrycznych i autonomicznych systemów. XPENG chce też pokazać swoje technologie w Europie, w tym w Polsce, podczas wydarzeń branżowych, pokazów innowacji i projektów edukacyjnych.

Musieli pociąć robota na scenie, by udowodnić, że to nie człowiek w kostiumie

#automatyzacja #news #physicalAi #robotHumanoidalny #robotIronSpecyfikacja #robotyka #sztucznaInteligencja #xpengIron

Musieli pociąć robota na scenie, by udowodnić, że to nie człowiek w kostiumie

Rynek robotów humanoidalnych to obecnie bardzo dziwne miejsce. Z jednej strony mamy graniczące z oszustwem projekty, jak robot-lokaj Neo. Z drugiej – dystopijne wizje Elona Muska, który chce budować armię Optimusów do pilnowania więźniów. Nic dziwnego, że publiczność jest, delikatnie mówiąc, sceptyczna.

W ten świat absurdu wkracza chiński producent samochodów Xpeng (którego auta mieliśmy okazję testować, recenzję jednego z modeli znajdziecie w najświeższym, listopadowym wydaniu iMagazine), ogłaszając ambitną transformację w firmę robotyczną, która będzie też tworzyć latające samochody i robotaksówki. Podczas specjalnego wydarzenia w Guangzhou, firma zaprezentowała swoją najnowszą gwiazdę: robota humanoidalnego o nazwie Iron.

I wtedy właśnie zrobiło się ciekawie.

Syndrom „faceta w obcisłym kostiumie”

Robot Iron wyszedł na scenę i zaczął chodzić. Problem polegał na tym, że… chodził zbyt dobrze. Jego chód był tak naturalny i ludzki, że publiczność na sali oraz widzowie transmisji na żywo natychmiast zaczęli podejrzewać oszustwo.

Wszyscy doskonale pamiętamy żenującą prezentację Tesli z 2021 roku, kiedy Elon Musk, zapowiadając Optimusa, pokazał światu… tancerza w obcisłym, biało-czarnym kostiumie. Widzowie uznali, że Xpeng próbuje odtworzyć ten sam numer.

Chcąc rozwiać te plotki i udowodnić, że nie mają nic wspólnego z oszustwem w stylu Muska, CEO firmy, He Xiaopeng, postanowił uciąć spekulacje.

Dosłownie.

„Proszę przynieść nóż”

CEO wezwał robota z powrotem na scenę. Następnie kazał inżynierowi… pociąć lewą nogę robota na oczach publiczności.

Inżynier, używając noża, zaczął ostrożnie rozcinać materiał i gąbkowe wypełnienie otulające nogę Irona, odsłaniając to, co było pod spodem: skomplikowany, metalowy szkielet robotycznej kończyny.

Aby dobić niedowiarków, Iron – z obnażonymi „wnętrznościami” i pociętą nogą – przeszedł się po scenie jeszcze raz, prezentując swój płynny, ludzki chód. Jak donoszą media obecne na wydarzeniu, był to „niezwykły widok”, który u osób o słabszych nerwach mógł wywołać dreszcze.

Xpeng, w przeciwieństwie do Tesli, nie planuje (na razie) tworzyć z Irona armii strażników. Robot ma znaleźć zastosowanie w znacznie bardziej przyziemnych rolach: jako przewodnik w muzeach, host w salonach samochodowych i centrach handlowych, a także jako inspektor w fabrykach.

Teoretycznie możesz już zamówić robota-lokaja NEO. Ale jest jeden haczyk

#AI #HeXiaopeng #news #robot #robotHumanoidalny #robotyka #sztucznaInteligencja #TeslaOptimus #Xpeng #XpengIron

Teoretycznie możesz już zamówić robota-lokaja NEO. Ale jest jeden haczyk

Marzenie o posiadaniu humanoidalnego robota-lokaja, który zajmie się domowymi obowiązkami, właśnie stało się nieco bardziej realne. Ale tylko nieco, a dla wielu osób, gdy poznają szczegóły marzenie będzie dość… mocno odarte z pierwotnej magii.

Firma 1X Technologies otworzyła zamówienia na swojego robota NEO. Cena? 20 000 dolarów lub 499 dolarów miesięcznie w ramach subskrypcji. Jest tylko jeden, za to fundamentalny haczyk. To właściwie nie jest robot, a przynajmniej nie w autonomicznym sensie, w jakim instynktownie wyobrażamy sobie taki sprzęt.

Jednak po kolei. Na promocyjnych materiałach NEO imponuje: sprząta, odkurza, podlewa rośliny, a nawet robi pranie i dotrzymuje towarzystwa, rozmawiając ludzkim głosem. Prawda, którą ujawnił portal Digital Trends, jest jednak bardziej skomplikowana. W przypadku bardziej złożonych zadań, NEO nie jest autonomiczny. Robotem zdalnie steruje pracownik 1X, który patrzy na świat (i wnętrze naszego domu) przez kamery robota i za pomocą specjalnego zestawu „odzwierciedla” ruchy, które NEO ma wykonać.

Straszny portret ze selfie i szablon dyni ze zdjęcia. Jak Google AI może pomóc w Halloween

I tu zaczyna być dziwnie. Wszak to ogromny kompromis w zakresie prywatności, który firma próbuje łagodzić. Użytkownik za pomocą aplikacji może wyznaczyć strefy „zakazane” dla robota, a system automatycznie ma zamazywać twarze domowników. Mimo to, fakt pozostaje faktem: obca osoba „wchodzi” do naszego domu, by zdalnie poskładać nasze pranie.

Dlaczego 1X zdecydowało się na taki model? Prezes firmy, Bernt Børnich, wyjaśnia, że jest to niezbędne do trenowania sztucznej inteligencji. Ludzcy operatorzy, wykonując zadania, jednocześnie uczą systemy AI, jak radzić sobie w nieprzewidywalnych, domowych warunkach. Pierwsi klienci są więc w istocie płatnymi testerami, którzy pomagają w doskonaleniu produktu, za który już zapłacili. I to niemało.

Jak bardzo robotyka potrzebuje jeszcze tej nauki, pokazał test przeprowadzony przez Joannę Stern z „The Wall Street Journal”. W jej obecności, przyniesienie butelki wody z lodówki oddalonej o 3 metry zajęło robotowi NEO aż 67 sekund. Firma 1X zapewnia jednak, że wersja, która trafi do klientów w przyszłym roku, będzie miała znacznie ulepszone manipulatory (dłonie) i większą sprawność.

#1XTechnologies #AI #Neo #news #pracaZdalna #prywatność #robotDomowy #robotHumanoidalny #robotLokaj #teleobecność

NVIDIA wykorzystuje zestaw Apple Vision Pro do rejestrowania zdalnych demonstracji i kontrolowania robotów humanoidalnych.

Proces ten obejmuje użycie Vision Pro do nagrywania teleoperowanych demonstracji, które są następnie symulowane w NVIDIA Isaac Sim.

Dane te są przetwarzane przez mikroserwis MimicGen NIM do generowania syntetycznych zbiorów danych.

Training foundation models for humanoid robots requires an incredible amount of data. One way of capturing human demonstration data is using teleoperation, but this is becoming an increasingly expensive and lengthy process.

An NVIDIA AI- and Omniverse-enabled teleoperation reference workflow, demonstrated at the SIGGRAPH computer graphics conference, allows researchers and AI developers to generate massive amounts of synthetic motion and perception data from a minimal amount of remotely captured human demonstrations.

First, developers use Apple Vision Pro to capture a small number of teleoperated demonstrations. Then, they simulate the recordings in NVIDIA Isaac Sim and use the MimicGen NIM microservice to generate synthetic datasets from the recordings.

The developers train the Project GR00T humanoid foundation model with real and synthetic data, enabling developers to save time and reduce costs. They then use the Robocasa NIM microservice in Isaac Lab, a framework for robot learning, to generate experiences to retrain the robot model. Throughout the workflow, NVIDIA OSMO seamlessly assigns computing jobs to different resources, saving the developers weeks of administrative tasks.

Oświadczenie NVIDIA:

Trening modeli fundamentalnych dla robotów humanoidalnych wymaga niesamowitej ilości danych. Jednym ze sposobów przechwytywania danych demonstrujących człowieka jest wykorzystanie teleoperacji, ale staje się to coraz bardziej kosztownym i długotrwałym procesem.

Referencyjny przepływ pracy dla teleoperacji z obsługą NVIDIA AI i Omniverse, zademonstrowany na konferencji grafiki komputerowej SIGGRAPH, pozwala badaczom i twórcom sztucznej inteligencji generować ogromne ilości syntetycznych danych dotyczących ruchu i percepcji z minimalnej ilości zdalnie przechwyconych ludzkich demonstracji.

Po pierwsze, deweloperzy używają Apple Vision Pro do przechwytywania niewielkiej liczby teleoperowanych demonstracji. Następnie symulują nagrania w NVIDIA Isaac Sim i wykorzystują mikrousługę MimicGen NIM do generowania syntetycznych zestawów danych z nagrań.

Deweloperzy szkolą humanoidalny model Project GR00T za pomocą rzeczywistych i syntetycznych danych, co pozwala deweloperom zaoszczędzić czas i obniżyć koszty. Następnie używają mikrousługi Robocasa NIM w Isaac Lab, frameworku do uczenia się robotów, do generowania doświadczeń w celu ponownego trenowania modelu robota. W trakcie całego procesu NVIDIA OSMO płynnie przypisuje zadania obliczeniowe do różnych zasobów, oszczędzając deweloperom tygodnie zadań administracyjnych.

Model humanoidalny GR00T jest trenowany z wykorzystaniem rzeczywistych i syntetycznych danych, co pozwala oszczędzić czas i koszty.

Czy tak wygląda nasza przyszłość? Jak się na nią przygotować? Więcej o tym pisałem w jednym z ostatnich wydań mojego newslettera „Bo czemu nie?”.

https://imagazine.pl/2024/08/07/nvidia-wykorzystuje-zestaw-apple-vision-pro-do-kontrolowania-robotow-humanoidalnych/

#AppleVisionPro #nvidia #robotHumanoidalny

Advancing Humanoid Robot Development

YouTube