Oscary rysują linię na piasku. AI może pomagać, ale nominacji nie dostanie

Akademia Wiedzy i Sztuki Filmowej wydała werdykt, na który branża czekała od zakończenia historycznych strajków scenarzystów i aktorów w 2023 roku.

W zaktualizowanym regulaminie Oscarów jasno określono: sztuczna inteligencja może być mocnym narzędziem w rękach twórców, ale nigdy nie zostanie uznana za samodzielnego autora. Statuetki mają pozostać świadectwem ludzkiego rzemiosła.

Człowiek w centrum, algorytm w cieniu

Nowe zasady precyzują, że rola aktorska może ubiegać się o nominację wyłącznie wtedy, gdy została „w sposób dający się udowodnić wykonana przez człowieka za jego świadomą zgodą”. To jasna odpowiedź na rosnącą presję projektów takich jak cyfrowa „aktorka” Tilly Norwood. Akademia ucina spekulacje: nagroda dotyczy pracy ludzkiej, a nie jakości wygenerowanego obrazu, nawet jeśli ten potrafi oszukać oko widza.

Podobny rygor dotyczy kategorii scenariuszowych. Choć AI może służyć do researchu czy wstępnego formatowania tekstu, ostateczny scenariusz musi być dziełem ludzkiego autora. Akademia nie zakazuje technologii jako takiej, ale odmawia jej prawa do bycia źródłem nominacji.

Gdzie kończy się aktor, a zaczyna kod?

Najciekawszy jest jednak „szary obszar”, który Akademia zostawiła pod specjalnym nadzorem. Nowe przepisy nie wykluczają filmów korzystających z generatywnego AI w efektach specjalnych, narzędziach głosowych czy technologii odmładzania (de-aging).

To oznacza, że aktorzy, którzy wspomagają się technologią, by np. zagrać swoją młodszą wersję, wciąż mogą być brani pod uwagę. Warunkiem jest jednak udowodnienie, że fundamentem kreacji pozostał ludzki wkład i emocje zarejestrowane na planie, a nie tylko algorytmiczna rekonstrukcja. Akademia zastrzega sobie prawo do wglądu w proces produkcji, by sprawdzić, gdzie kończy się żywy artysta, a zaczyna „cyfrowy makijaż”.

Cyfrowy nekromantyzm i przypadek Vala Kilmera

Decyzja Oscarów to bezpośrednie pokłosie kontrowersji wokół „wskrzeszania” zmarłych legend. Najgłośniejszym przykładem 2026 roku jest film „As Deep as the Grave”, w którym pojawia się Val Kilmer. Aktor, który odszedł w kwietniu 2025 roku, nigdy nie pojawił się na planie tej produkcji – jego ponadgodzinna rola została w całości wygenerowana przez AI na podstawie archiwalnych nagrań.

Dla Akademii sprawa jest tu jasna: mimo zgody rodziny i niesamowitego fotorealizmu, AI-Kilmer nie ma szans na nominację, ponieważ nie jest to „występ człowieka”. To samo dotyczy głośnych powrotów Iana Holma w Alien: Romulus czy Petera Cushinga w Rogue One. Branża boi się, że bez tych barier studia zaczęłyby masowo „zatrudniać” zmarłe ikony zamiast promować nowe talenty.

Akademia postawiła tamę, chcąc pozostać ostatnim bastionem ludzkiej kreatywności. To ważny sygnał, choć wszyscy mamy świadomość, że technologia już dawno przestała pytać o pozwolenie na przekraczanie kolejnych granic.

Przepustka do Hollywood bez układów. Sony wybrało najlepszych młodych filmowców z całego świata

#AIWFilmie #AkademiaFIlmowa #AsDeepAsTheGrave #hollywood #iMagazineTech #nekromancjaCyfrowa #Oscary #sztucznaInteligencja #ValKilmer

Szybszy od nauczyciela. System SAIL sprawi, że roboty w końcu przestaną się ślamazarzyć

Jeśli kiedykolwiek widzieliście robota składającego ręczniki lub parzącego kawę, prawdopodobnie uderzyła was jedna rzecz: bolesna powolność.

Dotychczasowy standard nauki maszyn – tzw. Imitation Learning (uczenie przez naśladownictwo) – miał bowiem twardy szklany sufit. Robot mógł być co najwyżej tak szybki, jak człowiek, który pokazywał mu daną czynność.

Naukowcy z Georgia Tech właśnie rozbili ten sufit systemem SAIL (Speed Adaptation for Imitation Learning). Efekt? Robot, który uczy się od ciebie, ale wykonuje zadanie nawet 3-4 razy szybciej.

Przełamanie bariery demonstracji

Tradycyjne klonowanie zachowań jako metoda uczenia robotów polega na tym, że człowiek (za pomocą sensorów lub kamer) pokazuje robotowi, jak np. układać owoce na talerzu. Problem w tym, że przy próbie przyspieszenia tego ruchu, roboty zazwyczaj traciły koordynację, wpadały w wibracje lub po prostu psuły otoczenie. Fizyka przy wyższych prędkościach działa inaczej, a standardowe AI nie potrafiło „przeskalować” dynamiki ruchu.

System SAIL rozwiązuje to modułowo:

  • Wygładzanie ruchu: algorytm dba o to, by przy dużych prędkościach ramiona robota nie szarpały.
  • Harmonogramowanie akcji: system kompensuje opóźnienia sprzętowe (latency), wiedząc, że sygnał musi dotrzeć do serwomechanizmu z wyprzedzeniem.
  • Dynamiczna adaptacja: robot „wie”, kiedy może docisnąć gaz, a kiedy – jak przy wycieraniu tablicy – musi zwolnić, by zachować kontakt z powierzchnią i wymaganą skuteczność działania.

Wyniki, które robią wrażenie

W testach laboratoryjnych system SAIL pozwolił ramionom robotycznym na wykonanie zadań w świecie rzeczywistym 3,2 raza szybciej niż ich ludzkim instruktorom. W symulacjach ten wynik skakał nawet do 4-krotnego przebicia.

Co ważne, roboty nie traciły przy tym na precyzji. Składały ubrania, pakowały żywność i układały kubki z wystarczającą dokładnością, ale w tempie, którego żaden człowiek nie byłby w stanie utrzymać przez ośmiogodzinną zmianę, a robot zmian nie potrzebuje.

Terminator? Nie, raczej „Ręcznikator”

Tu pojawia się druga strona medalu, którą Malcolm Azania z New Atlas nazywa wprost „robotyczną apokalipsą miejsc pracy”. Według prognoz McKinsey, do 2030 roku automatyzacja może pochłonąć od 400 do 800 milionów etatów.

Twórca Roomby chce, żebyś pokochał robota. Poznaj „Familiara” – futrzastego towarzysza z AI

System SAIL sprawia, że roboty przestają być „ciekawostką z laboratorium”, a stają się realną alternatywą dla pracowników w szpitalach, domach opieki czy restauracjach. Jeśli robot potrafi składać prześcieradła cztery razy szybciej od personelu i nie potrzebuje przerwy na kawę, rachunek ekonomiczny dla właściciela placówki staje się brutalnie prosty. Z drugiej strony patrząc na poniższe wideo opublikowane przez twórców systemu SAIL, wydaje nam się, że od laboratoryjnych osiągnięć do sukcesu komercyjnego (i zastąpienia ludzi) jeszcze trochę brakuje, sami zobaczcie:

#AI #automatyzacja #GeorgiaTech #iMagazineTech #ImitationLearning #robotyka #rynekPracy #SAIL #technologia

Czy Carbon Capture właśnie stało się opłacalne?

Wszyscy zgadzamy się, że musimy ograniczyć ilość dwutlenku węgla w atmosferze. Problem w tym, że obecne technologie wyłapywania CO2 (Carbon Capture) są potwornie energochłonne.

Aby „odzyskać” gaz z filtrów, dzisiejsze systemy trzeba podgrzewać do ponad 100°C. To kosztuje fortunę i często wymaga budowy dodatkowych źródeł energii, co podważa sens całego procesu.

Naukowcy z Uniwersytetu Chiba w Japonii właśnie udowodnili jednak, że można obniżyć tę barierę termiczną o blisko połowę, sprowadzając proces regeneracji do temperatury zaledwie 60°C.

Problem „energetycznego długu”

Większość dzisiejszych instalacji opiera się na procesach chemicznych z użyciem płynnych amin. Choć są skuteczne, ich regeneracja to energetyczny koszmar. Japoński zespół, kierowany przez profesorów Yasuhiro Yamadę i Tomonoriego Ohbę, porzucił płyny na rzecz precyzyjnej inżynierii molekularnej w ciałach stałych.

Stworzyli nową klasę materiałów węglowych nazwaną wiciazytami (viciazites). Ich sekret nie tkwi w egzotycznym składzie, ale w tym, jak poukładano w nich atomy.

Molekularne klocki LEGO

Wcześniej próbowano dodawać azot do węgla, by lepiej wiązał CO2, ale robiono to chaotycznie. Japończycy jako pierwsi nauczyli się „ustawiać” atomy azotu w konkretnych konfiguracjach obok siebie, niczym klocki. Dzięki takiemu poziomowi kontroli stworzyli materiał, który:

  • Efektywniej wiąże CO2 bezpośrednio ze strumienia spalin.
  • Oddaje go przy temperaturze poniżej 60°C, co jest absolutnym rekordem w tej klasie materiałów.

Wykorzystać to, co i tak wyrzucamy

Dlaczego 60°C to liczba, która zmienia zasady gry? Większość fabryk i elektrowni generuje tzw. ciepło odpadowe – energię o niskiej temperaturze (40–70°C), która zazwyczaj po prostu ulatuje w atmosferę, bo jest zbyt „słaba”, by napędzać turbiny.

Dzięki nowym materiałom opracowanym przez Japończyków proces wyłapywania węgla może stać się znacząco tańszy eksploatacyjnie. Zamiast spalać dodatkowe paliwo, by podgrzać filtry do 100°C, system może „karmić się” ciepłem, które zakład i tak produkuje jako produkt uboczny.

Droga do przemysłu

Warto jednak zachować zdrowy sceptycyzm: to, co działa w laboratorium przy użyciu spektroskopii jądrowego rezonansu magnetycznego, nie zawsze daje się łatwo skalować. Między przełomową publikacją naukową a pierwszymi komercyjnymi instalacjami zwykle mijają lata. Japończycy pokazali jednak, że „szklany sufit” wydajności Carbon Capture nie jest nieprzebijalny.

Jeśli technologia z Chiba University wyjdzie z laboratoriów, dekarbonizacja przestanie być dla firm wyłącznie kosztowną karą, a stanie się realnym procesem, który można wdrożyć bez obciążania i tak nadwyrężonych sieci energetycznych. Wykorzystując po prostu energię, która dziś jest często opdadem.

Czy twój samochód ma nadwagę? Dzień Ziemi i prawda o miejskim transporcie

#CarbonCapture #ciepłoOdpadowe #CO2 #dekarbonizacja #ekologia #iMagazineTech #inżynieria #Japonia #technologia #viciazyty

ChatGPT zmienia silnik. GPT-5.5 Instant to cios w „halucynacje” czy tylko sprawniejszy PR?

OpenAI nie zwalnia tempa. Zaledwie kilka tygodni po premierze rodziny GPT-5.5, firma ogłosiła, że od już teraz GPT-5.5 Instant staje się domyślnym modelem dla wszystkich użytkowników ChatGPT.

To „szybki” silnik, który ma dowieść, że sztuczna inteligencja dorasta. Pytanie tylko, czy obietnice o „końcu błędów” to realna zmiana, czy tylko zręczne żonglowanie statystyką?

Mniej „kreatywnej prawdy”, ale ufaj z umiarem

Największą bolączką modeli językowych od zawsze były tzw. halucynacje. GPT-5.5 Instant ma to zmienić, a OpenAI chwali się redukcją błędów o 52,5% w tematach takich jak medycyna, prawo czy finanse.

Brzmi imponująco? Owszem. Ale warto zachować zimną krew: 52% mniej halucynacji to wciąż nie jest zero. Oznacza to, że model myli się rzadziej, ale gdy już to robi, jego odpowiedzi mogą brzmieć jeszcze bardziej przekonująco, mimo że będą fałszywe.

Zasada ograniczonego zaufania pozostaje więc w mocy – GPT-5.5 Instant to lepszy pomocnik, ale wciąż słaby ekspert, któremu można wierzyć na słowo bez weryfikacji.

Benchmarki: syntetyczny „poziom olimpijski”

Mimo że to wersja zoptymalizowana pod szybkość, jej wyniki w testach logicznych (STEM) budzą respekt. W matematycznym sprawdzianie AIME 2025 model osiągnął wynik 81,2%. To poziom bardzo zaawansowany, bijący na głowę płatne modele sprzed roku.

Pamiętajmy jednak, że wyniki w testach syntetycznych to jedno, a realne, chaotyczne zapytania użytkowników to drugie. To, że model potrafi rozwiązać zadanie z olimpiady matematycznej, nie oznacza jeszcze, że zawsze bezbłędnie policzy Twoje podatki w skomplikowanym arkuszu.

Memory Sources: przejrzystość pod kontrolą

Dla użytkowników dbających o prywatność najważniejszą nowością jest funkcja Memory Sources. ChatGPT nie tylko lepiej „pamięta” kontekst, ale teraz jasno wskazuje, skąd czerpie daną informację.

Jeśli model odniesie się do czegoś, co znalazł w twoim zintegrowanym koncie Gmail czy iCloud (o ile wyraziłeś na to zgodę), zobaczysz specjalną ikonę. To krok w stronę transparentności – zamiast zgadywać, czy AI „wie”, czy „zmyśla”, możesz sprawdzić źródło i w razie potrzeby usunąć dane wspomnienie z pamięci modelu.

AI w wersji „mute” na emotki

Użytkownicy mieli dość „wodolejstwa” i nadmiernego entuzjazmu ChatGPT. GPT-5.5 Instant wprowadza nowy, bardziej stonowany ton. Koniec z emoji-spamem i zbędnymi uprzejmościami. Model ma być bardziej zwięzły i profesjonalny. To miła odmiana, choć dla wielu to tylko estetyczny detal, który maskuje fakt, że pod spodem to wciąż ta sama technologia statystycznego przewidywania słów.

Darmowy ChatGPT ma ukrytą cenę. OpenAI wykorzysta dane użytkowników do targetowania reklam

Rodzina 5.5: Instant vs. Thinking

Warto pamiętać o nowym podziale w OpenAI:

  • GPT-5.5 Instant: szybki, domyślny i darmowy – twój codzienny asystent, który ma się nie mylić przy parzeniu wirtualnej kawy.
  • GPT-5.5 Thinking: zarezerwowany dla subskrybentów Plus i Pro. Wolniejszy, ale przeznaczony do „głębokiego myślenia”, gdzie liczy się każdy detal w kodzie czy analizie danych.
#AI #aktualizacja #ChatGPT #GPT55Instant #halucynacjeAI #iMagazineTech #MemorySources #OpenAI #sztucznaInteligencja #technologia

Fitbit Air: zapomnij, że go nosisz. Google stawia na minimalizm i AI bez ekranu

Google właśnie zaprezentowało Fitbit Air – najmniejszy i najbardziej dyskretny tracker w swojej historii.


To urządzenie, które idzie pod prąd rynkowym trendom: nie ma ekranu, nie wyświetla powiadomień i nie próbuje zastąpić twojego telefonu. Ma za to jedno zadanie – być niewidocznym strażnikiem twojego zdrowia, który w pełni wykorzystuje potencjał nowego Google Health Coach.

Koniec aplikacji Fitbit. Google Health wchodzi do gry z osobistym trenerem AI od Gemini

Powrót do korzeni: niewielka „pestka” zamiast wielkiej koperty

Fitbit Air to w rzeczywistości mały, zaokrąglony czujnik (pebble), który wsuwamy w wymienne opaski. Konstrukcja typu „screenless” ma jeden główny cel: komfort 24/7. Google zauważyło, że wielu użytkowników rezygnuje z monitorowania snu, bo współczesne smartwatche są po prostu za duże i zbyt rozpraszające w nocy. Fitbit Air jest tak lekki, że – jak twierdzi producent – po chwili zapominasz o jego istnieniu.

Co ciekawe, system jest pomyślany tak, by płynnie współpracować z Pixel Watchem. Możesz nosić zegarek w dzień, a na noc zakładać Air – dane zsynchronizują się w jednej aplikacji bez utraty ciągłości pomiarów.

Mały rozmiar, mocne sensory

Mimo miniaturowych rozmiarów, Fitbit Air nie odstaje od większych braci pod względem technologii i funkcjonalności. Urządzenie oferuje:

  • Całodobowy pomiar tętna i powiadomienia o arytmii (Afib).
  • Monitoring natlenienia krwi (SpO2).
  • Śledzenie zmienności tętna (HRV) i faz snu.
  • Baterię wytrzymującą do 7 dni oraz szybkie ładowanie (5 minut pod ładowarką daje energię na cały dzień pracy).

Mózgiem operacji jest AI

Fitbit Air to pierwszy sprzęt zaprojektowany od podstaw pod Google Health Coach. Ponieważ urządzenie nie ma ekranu, wszystkie analizy przeglądamy w telefonie.

Integracja z AI pozwala na ciekawe sztuczki – możesz np. zrobić zdjęcie tablicy z zapisanym treningiem na siłowni lub konkretnej maszyny cardio, a Google Health Coach automatycznie dopisze te ćwiczenia do Twojego profilu i przeanalizuje ich wpływ na Twoją kondycję.

Ceny i dostępność

Fitbit Air został wyceniony na 99,99 USD (w Polsce spodziewamy się ceny w okolicach 449–499 zł). Dostępna będzie również wersja specjalna współprojektowana przez Stephena Curry’ego za 129,99 USD. Przedsprzedaż w USA rusza już dziś, a na półki sklepowe urządzenie trafi 26 maja.

#AI #FitbitAir #fitnessTracker #GoogleHealth #GoogleHealthCoach #iMagazineTech #sen #wearable #zdrowie

Jak pokonać króla po 66 latach? Matematyczny przewrót w teorii najkrótszej ścieżki

Za każdym razem, gdy uruchamiasz Google Maps, by znaleźć trasę do nowej kawiarni, Twój telefon wykonuje matematyczny taniec, którego kroki opracowano w 1959 roku.

Przez ponad sześć dekad algorytm Dijkstry był niekwestionowanym władcą dróg, światłowodów i rezerwacji lotniczych. Aż do teraz, kiedy grupa naukowców z Chin udowodniła, że przez wiele lat wszyscy zadawaliśmy złe pytanie.

Certyfikat nietykalności

Algorytm Dijkstry to fundament informatyki. Jest tak dobry, że jeszcze w 2024 roku Robert Tarjan (legenda teorii grafów, laureat Nagrody Turinga w 1986 roku) wraz ze współpracownikami zdobył prestiżową nagrodę na konferencji FOCS za udowodnienie, że Dijkstra jest optymalny. Oznaczało to, że matematycznie nie da się znaleźć najkrótszej ścieżki szybciej. Wydawało się, że temat jest zamknięty.

Jednak zaledwie osiem miesięcy później zespół z Uniwersytetu Tsinghua pod kierownictwem Rana Duana opublikował artykuł, który zburzył ten mur. To praca z 2025 roku, ale uznaliśmy, że temat ciekawy, w sam raz na weekend.

Pułapka definicji: co właściwie liczymy?

Jak to możliwe, że ktoś pobił algorytm uznany za „najlepszy z możliwych”? Okazało się, że Tarjan i cała reszta świata wpadli w pułapkę definicji.

Dowód na optymalność Dijkstry zakładał, że algorytm musi nie tylko podać odległość, ale też wyprowadzić wszystkie punkty na trasie posortowane według dystansu. Grupa z Tsinghua zauważyła coś, co w akademickich kuluarach przyjmowano już od 1984 roku: znalezienie najkrótszej ścieżki wcale nie wymaga sortowania wszystkiego po drodze. Problem brzmi „znajdź odległość”, a nie „posortuj miasto”.

Nowa granica prędkości

Chiński zespół połączył stare metody (algorytm Bellmana-Forda) z nowatorskim trikiem „rekurencyjnego częściowego porządkowania”. Zamiast sprawdzać każdą uliczkę po kolei, zaczęli grupować węzły i badać tylko ich „reprezentantów”. Wynik to nowa złożoność obliczeniowa. To pierwszy taki wyłom w „suficie” wydajności wyznaczania trasy od dekad.

Warto jednak postawić tu ważną gwiazdkę: to odkrycie to przede wszystkim trzęsienie ziemi w teorii algorytmów. W świecie rzeczywistym – tym, w którym działają serwery Google czy systemy routingowe (bo nie tylko o nawigację tu chodzi, także wyznaczanie tras pakietów danych i wiele więcej) – od dawna rzadko używa się „czystego” Dijkstry. Inżynierowie stosują tam heurystyki (jak A*; jeden z najpopularniejszych algorytmów heurystycznych wyszukiwania ścieżki w grafie, stosowany powszechnie w nawigacji GPS, ale też np. w sztucznej inteligencji w grach wideo), hierarchie grafów i zaawansowany precomputing, które w praktycznych zastosowaniach i tak wykraczają poza ramy tego odkrycia. Chiński zespół udowodnił jednak coś ważniejszego: matematyczny mur, który uważaliśmy za nieprzekraczalny, właśnie runął.

Lekcja dla nas wszystkich

Ta historia to coś więcej niż ciekawostka dla programistów. To mocna lekcja o tym, jak ramy, w których osadzamy problem, stają się naszymi ograniczeniami. Dijkstra był najlepszy w rozwiązywaniu zadania „najkrótsza ścieżka z posortowanym wynikiem”. Świat potrzebował po prostu „najkrótszej ścieżki”.

Traktowaliśmy te dwa problemy jako jedność przez dekady tylko dlatego, że nikt nie zapytał: „czy to sortowanie jest nam w ogóle potrzebne?”. Najbardziej ugruntowany algorytm świata został pokonany nie przez potężniejszy procesor, ale przez kogoś, kto zakwestionował samą definicję limitu.

Największa mapa Wszechświata gotowa. Właśnie zaczyna się trzęsienie ziemi w świecie fizyki

#algorytmy #Dijkstra #googleMaps #iMagazineTech #informatyka #Nauka #nawigacja #teoriaGrafów #TsinghuaUniversity

Mac mini M4 vs. MacBook Neo: 8 GB RAM to wyrok. Dlaczego do AI musisz dopłacić?

Jeżeli śledzicie nowinki technologiczne nie tylko jako obserwatorzy, ale lubicie też samodzielnie trochę „podłubać”, być może dostrzegliście dwie rzeczy: platforma Apple jest wyjątkowo wydajna jeżeli chodzi o AI, a MacBook Neo jest najtańszym sprzętem Apple w historii. Łączycie kropki i już sięgacie do portfela? Uwaga! Zanim zechcecie pobawić się w AI na Neo przeczytajcie ten tekst.

Wybór między nowym MacBookiem Neo a Makiem mini z procesorem M4 wydaje się prosty tylko na papierze. 2999 zł za laptopa kontra 3999 zł za biurkową kostkę (która dodatkowo wymaga monitora – a tego sprzętu nikt nie rozdaje za darmo).

Jeśli jednak planujesz wejść w świat lokalnej sztucznej inteligencji (AI on-device, czyli uruchamiania modeli bezpośrednio na komputerze, bez udziału chmury), oszczędność tego tysiąca złotych to najprostsza droga do technologicznej frustracji. Niestety, wręcz uwielbiam Neo, czemu dałem wyraz w moim wcześniejszym materiale, ale do AI ten sprzęt po prostu się nie nadaje. Powiedzmy to wprost: w świecie AI 8 GB RAM-u to nie jest „skromny start”. To wyrok.

MacBook Neo – powrót na łono Apple po dekadzie. Dlaczego to idealny sprzęt na start?

Szklany sufit, którego nie przebijesz

MacBook Neo to genialna maszyna do pisania i pracy biurowej, a także do konsumpcji treści (streamingi, sociale, co tylko chcesz), ale ma jedną, krytyczną wadę projektową: 8 GB RAM-u to koniec jego możliwości. Ponieważ Neo korzysta z architektury pochodzącej z iPhone’ów, pamięć RAM jest na sztywno zintegrowana z chipem Apple A18 Pro i nie przewidziano żadnych wariantów z większą ilością pamięci. Tak, to prawie ten sam układ co w iPhone’ach 16 Pro / Pro Max, ta sama architektura, ale chip w Neo jest ciut uboższy (5 zamiast 6 rdzeni GPU w Neo), choć z drugiej strony w Neo mamy lepsze chłodzenie (większa obudowa lepiej odprowadza ciepło), co pozwala dłużej pracować układowi A18 Pro z maksymalną wydajnością. Nie zmienia to jednak zasadniczego problemu: pamięci RAM nie zwiększysz.

Pasja silniejsza niż ograniczenia producenta. Tak powstał jedyny taki MacBook Neo na świecie

Dlaczego to problem? Bo AI „żre” RAM na śniadanie, obiad i kolację, nie pozostawiając okruszków. Nawet 16 GB na mocnych maszynach potrafi w bardziej wymagających scenariuszach szybko dobić do limitu, znacząco spowalniając pracę systemu i zamieniając laptopa w kosztowny grzejnik. Próba zmuszenia 8 GB do pracy z lokalnymi modelami językowymi (LLM) czy modelami generującymi obrazy (dyfuzyjnymi, przynajmniej w większości) skończy się wiecznymi zwiechami. Fizyki nie oszukasz – Neo przy poważniejszych zadaniach AI po prostu się „udusi”.

Mac mini M4: prawdziwa przepustka do dłubania w sztucznych neuronach

Mam też dobrą wiadomość. Nie musisz wydawać absurdalnych pieniędzy na sprzęt, który w domu odpali ci LLM-a zdolnego cię zrozumieć nawet gdy router padnie, albo wygenerować obraz z twoimi fantazjami, których modele publiczne i tak nie wygenerują. Tu na scenę wchodzi Mac mini. Nawet po wycięciu z oferty najtańszej wersji 256 GB (Apple doskonale wie co robi, o tym na końcu), model 512 GB z M4 oferuje coś, czego Neo nigdy nie dostanie: architekturę prawdziwej stacji roboczej w – nomen omen – mini opakowaniu.

M4 to inna liga. To układ projektowany z myślą o znacznie bardziej wymagających zadaniach. Oferuje wyższą przepustowość pamięci zunifikowanej i potężniejszy silnik Neural Engine (ten do AI). Co więcej mamy tu realną skalowalność (choć w skali mini). Mac mini nie tylko startuje z wyższego pułapu, ale pozwala na konfiguracje z 24 czy 32 GB RAM (owszem, musisz dopłacić, ale to już wiecie, przeczytaliście tytuł). W świecie AI to różnica między „może wygeneruje jeden obraz na godzinę”, a kreatywną pracą np. nad komiksem AI według własnego scenariusza.

Oczywiście, wybór Maca mini wiąże się z kompromisem: tracisz mobilność. To stacjonarna kostka na biurko, która wymaga zewnętrznego monitora i klawiatury, podczas gdy Neo to kompletne narzędzie, które po prostu wrzucasz do plecaka. To znaczy oczywiście, jest przecież MacBook Air (od 5499 zł), jest MacBook Pro (od 8499 zł), ale już na wstępie wyjaśniliśmy sobie, że chodziło o efekty możliwe bez drenażu portfela.

Werdykt: oszczędność, która zaboli

MacBook Neo to fantastyczny pod wieloma względami sprzęt – tani, lekki, zapowiada się niezawodny i zaskakująco wytrzymały na swojej półce cenowej. Ale nie daj się zwieść: to nie jest komputer do zadań specjalnych. Dopłata do Maca mini M4 to inwestycja w narzędzie, które nie wywali się przy pierwszym lepszym prompcie modelu odpalonego lokalnie i pozwoli ci realnie dotknąć technologii jutra.

Chcesz pisać, konsumować streamingi i bawić się macOS-em? Bierz Neo. Chcesz dłubać w przyszłości (względnie tanio)? Tylko Mac mini M4.

A co z iPadem? Też ma M4 i kusi ceną

W tym miejscu ktoś słusznie zapyta: skoro Mac mini z M4 jest tak dobry do AI, to może iPad Air z tym samym układem za 2899 zł będzie jeszcze lepszym wyborem? Doskonałe pytanie. I na papierze faktycznie, to brzmi jak okazja życia. W praktyce to klasyczny przykład sprzętu, który może więcej, niż pozwala mu system. iPadOS nadal nie daje swobody instalowania i uruchamiania narzędzi takich jak Ollama czy lokalnych środowisk do pracy z modelami AI on device. Można się pobawić gotowymi aplikacjami, można coś przetestować, ale nie da się komfortowo „dłubać”.

I to jest najważniejsza lekcja: w świecie AI sam mocny chip to za mało. Liczy się cały ekosystem. A tu macOS wciąż wygrywa. Problem w tym, że nie w Neo.

Epilog: Apple wie co robi

Apple wyrzucając z oferty najtańszego Maca mini z 256 GB SSD pokazało, że doskonale rozumie, gdzie i po co trafiają jego produkty. Strategia była najprawdopodobniej prosta: usuńmy najtańszy wariant, i tak kupią droższy, bo do zabaw z AI i tak nie ma alternatywy. Niestety. Mieli rację.

 

#A18Pro #AIOnDevice #Apple #iMagazineTech #iPadAirM4 #lokalneLLM #MacMiniM4 #MacbookNeo #macOSVsIPadOS #OllamaMac #RAMWAI #stabilnaDyfuzja

Intel Battlemage w akcji. Profesjonalna karta Arc Pro B70 sprawdzona w grach

Choć Intel ostatnio rzadziej chwali się swoimi ambicjami gamingowymi, nowa architektura Battlemage właśnie przeszła pierwsze poważne testy bojowe.

Serwis Expreview sprawdził model Arc Pro B70 – kartę dedykowaną profesjonalistom, która dzięki 32 GB pamięci VRAM i nowemu układowi BMG-G31, radzi sobie w grach zaskakująco dobrze, momentami wyprzedzając popularne konstrukcje Nvidii.

Specyfikacja: więcej pamięci niż w flagowcach konkurencji

Model B70 nie jest typową kartą dla graczy, co widać przede wszystkim po jej wyposażeniu:

  • Pamięć: 32 GB GDDR6 z korekcją błędów (ECC). To dwukrotnie więcej niż w RTX 5060 Ti i więcej niż w większości topowych kart gamingowych na rynku.
  • Architektura: Battlemage (silikon BMG-G31), czyli nowa generacja, która ma poprawić błędy poprzednika (Alchemist).
  • Cena i przeznaczenie: karta kosztuje 949 dolarów i korzysta ze sterowników linii „Pro”. Jest zoptymalizowana pod AI i rendering, a nie pod najnowsze hity ze Steama.

Wydajność w grach: zaskoczenie w Cyberpunku

Mimo że Arc Pro B70 nie posiada gamingowych sterowników, wyniki w rozdzielczości 1440p są obiecujące:

  • Rasteryzacja: karta jest średnio o 32,5% szybsza od konsumenckiego modelu Arc B580. Choć w ogólnym rozrachunku wypada o niecałe 7% gorzej niż RTX 5060 Ti, to w Cyberpunk 2077 pokonała kartę Nvidii, uzyskując 90 FPS wobec 79 FPS konkurenta.
  • Ray Tracing: tutaj Battlemage pokazuje pazur. W testach śledzenia promieni karta Intela jest średnio o 1% szybsza od RTX 5060 Ti, wygrywając z „Zielonymi” w trzech z pięciu testowanych tytułów (m.in. w F1 25 oraz Kingdom Come: Deliverance II). Różnica owszem, nie powala, ale względem starszych konstrukcji Intela to wyraźny skok wydajności.

AI i praca profesjonalna. Intel deklasuje średnią półkę

Prawdziwa przewaga 32 GB pamięci ujawnia się w zadaniach związanych ze sztuczną inteligencją. Dzięki dużej przepustowości i pojemności VRAM, Arc Pro B70 w testach MLPerf (modele Llama 3.1 i Phi 4) generuje tokeny znacznie szybciej niż Nvidia. W parametrze TTFT (czas do pierwszego tokena) karta Intela była czterokrotnie szybsza od RTX 5060 Ti. Owszem, wszyscy wiemy że NVIDIA ma w swoim portfolio superwydajny układ RTX 5090, ale karty z tym chipem to wydatek… niecałych 20 000 zł, to trochę więcej niż za opisywany tu sprzęt.

Co to oznacza dla użytkowników?

Testy Arc Pro B70 to ważny sygnał: architektura Battlemage jest wydajna i skalowalna. Gdyby Intel zdecydował się na wypuszczenie cywilnej wersji tej karty (prawdopodobnie pod nazwą Arc B770) z nieco mniejszą ilością pamięci i w cenie poniżej 500 dolarów, Nvidia i AMD miałyby poważny problem w średnim segmencie.

Na razie jednak B70 pozostaje drogim (choć nie absurdalnie drogim, jak topowe chipy NVIDII) narzędziem dla profesjonalistów, a gracze muszą liczyć na to, że Intel odważy się przenieść ten potencjał do świata rozrywki, zamiast skupiać się wyłącznie na lukratywnym rynku AI. Paradoksalnie to AI jest największym hamulcowym, jeżeli chodzi o wersję typowo gamingową karty z nowym chipem Intela.

Apple szuka alternatywy dla TSMC – na celowniku Intel i Samsung

#AI #ArcProB70 #Battlemage #gaming #gpu #iMagazineTech #Intel #kartaGraficzna #RTX5060Ti #technologia

Twórca Roomby chce, żebyś pokochał robota. Poznaj „Familiara” – futrzastego towarzysza z AI

Colin Angle, człowiek, który wprowadził 50 milionów robotów sprzątających Roomba pod nasze strzechy, wraca z nowym startupem: Familiar Machines & Magic.

Jeśli spodziewacie się nowej wersji smart-odkurzacza, będziecie zaskoczeni. Jego najnowsze dzieło, nazwane „Familiar”, nie potrafi sprzątać, nie zmywa naczyń i nie kosi trawy. Jego jedynym zadaniem jest… bycie twoim przyjacielem.

Robot, który nie jest sprzętem AGD

„Familiar” wielkością przypomina psa, a wyglądem stanowi przedziwną mieszankę niedźwiedzia, płomykówki i golden retrievera. Ma futro i niezwykle ekspresyjną twarz (pysk?) z ruchomymi brwiami i uszami. Nazwa nie jest przypadkowa – w folklorze „familiar” to nadprzyrodzony towarzysz, który wspiera swojego właściciela.

To fundamentalna zmiana filozofii Angle’a. Przez lata iRobot skupiał się na użyteczności. Familiar skupia się na emocjach. To „ucieleśniony system AI”, który nie tylko reaguje na komendy, ale dzięki lokalnemu modelowi generatywnej AI ma rozwijać własną, unikalną osobowość i budować więź z domownikami.

Po co nam „AI z futrem”?

Angle twierdzi, że roboty potraficie nawiązać relację z człowiekiem są kluczem do rozwiązania problemów, z którymi klasyczna technologia sobie nie radzi. Wymienia tu przede wszystkim opiekę nad seniorami (walka z samotnością), wsparcie rodzicielskie czy branżę hospitality. Co ważne, model AI napędzający Familiara działa on-device. Oznacza to, że rozmowy i interakcje nie są wysyłane do chmury, co jest kluczowe dla prywatności w domowym zaciszu. To nie jest Meta, gdzie intymne chwile użytkowników rejestrowane przez smart-okulary są oglądane przez pracowników koncernu.

Nagie ciała i intymne sytuacje w oku kamery. Moderatorzy Mety przerwali milczenie i stracili pracę

Lekcja od starej gwardii:  czy emocje wygrają z trwałością?

Historia Familiara nabiera ciekawego kontekstu, gdy spojrzymy na… stare Roomby. W naszej redakcji wciąż pracuje model Discovery – sprzęt, który debiutował ponad 20 lat temu. Przez dwie dekady wymagał tylko jednej wymiany akumulatora i wciąż bez zająknięcia odkurza podłogi. To „Mercedes W124” wśród robotów: prosty, surowy i zaprojektowany, by przetrwać wszystko. Nie działa z aplikacją, nie myje mopów, bo ich nie ma, nie jest tak precyzyjny jak współczesne maszyny, ale ma jedną, olbrzymią zaletę: wciąż działa.

Dziś Colin Angle prosi nas, byśmy zamiast podziwiać niezawodność silnika, zaczęli „kochać” algorytmy ukryte pod sztucznym futrem. Pytanie tylko, czy za 20 lat Familiar wciąż będzie naszym przyjacielem, czy raczej drogim elektrośmieciem z nieaktualnym modelem językowym? Czas pokaże, ale patrząc na dzielną Roombę Discovery, poprzeczka w kwestii „budowania relacji” przez lata pracy jest zawieszona bardzo wysoko.

Roomba uratowana, ale już nie amerykańska. iRobot wychodzi z bankructwa i trafia w ręce chińskiego partnera

#ColinAngle #FamiliarMachinesMagic #iMagazineTech #iRobot #robotyka #RoombaDiscovery #smartHome #sztucznaInteligencja #technologie

Ciemna strona Claude Desktop. Czy „bezpieczne AI” właśnie zainstalowało Ci spyware?

Jeśli zainstalowałeś aplikację Claude Desktop na swoim Macu, myśląc, że Anthropic to ci „dobrzy i bezpieczni” od sztucznej inteligencji, możesz poczuć się lekko zaniepokojony.

Najnowsze doniesienia z The Register sugerują, że aplikacja stosuje praktyki, które – zdaniem części ekspertów – niebezpiecznie ocierają się o definicję spyware’u i mogą naruszać europejskie prawo.

„Cichy lokator” w twoich przeglądarkach

Problem polega na tym, co Claude Desktop robi za twoimi plecami podczas instalacji. Okazuje się, że aplikacja bez pytania modyfikuje ustawienia innych programów – konkretnie przeglądarek opartych na Chromium (Chrome, Edge, Brave itd.).

Claude instaluje plik manifestu komunikacji  (com.anthropic.claude_browser_extension.json) w systemowych katalogach wsparcia aplikacji (np. ~/Library/Application Support/Google/Chrome/NativeMessagingHosts/). Plik ten preautoryzuje rozszerzenia Claude, nawet jeśli ich nie zainstalowałeś, i pozostaje tam na stałe. Co więcej, Anthropic przygotowuje grunt pod te rozszerzenia nawet w przeglądarkach, których… jeszcze nie masz na dysku (sic!). To tak, jakby ekipa remontowa włamała się do Twojego domu i zamontowała uchwyt na rower, którego jeszcze nie kupiłeś, „na zapas”, bez Twojej wiedzy. Ok, na razie jeszcze niczego nie wynieśli, ale weszli jak do siebie. Przypuszczam, że średnio ci się to podoba.

Spyware czy „tylko” ryzyko?

W środowisku ekspertów zawrzało, choć diagnozy są różne. Alexander Hanff, konsultant ds. prywatności, mówi wprost o „spyware” i stosowaniu tzw. dark patterns. Z kolei Noah M. Kenney z firmy Digital 520 jest bardziej powściągliwy – sugeruje, że to nie tyle klasyczny spyware (który kojarzy się z aktywną kradzieżą danych), co „uśpiona warstwa integracyjna”, która niestety znacznie zwiększa powierzchnię potencjalnego ataku bez wiedzy użytkownika.

Dlaczego to jest groźne? (ucieczka z piaskownicy)

Niezależnie od nazewnictwa, ryzyko jest realne. Rozszerzenia przeglądarkowe zazwyczaj działają w bezpiecznym, odizolowanym środowisku (sandbox). Jednak mostek (bridge) zainstalowany przez Claude Desktop działa poza tym sandboksem, na poziomie uprawnień użytkownika. Zostawiam waszej wyobraźni co potencjalnie mogłoby się stać, gdybyście chcieli skorzystać z Claude Desktop z poziomu konta administratora macOS.

Anthropic samo przyznaje, że Claude w wersji przeglądarkowej jest podatny na ataki typu prompt injection (skuteczność rzędu 11–23%). W połączeniu z „cichym mostkiem” na macOS, udany atak na czat może teoretycznie pozwolić złośliwemu skryptowi wyjść poza przeglądarkę i wykonać kod bezpośrednio na twoim systemie.

Prawo UE a ryzyko regulacyjne

Eksperci wskazują, że działania Anthropic mogą naruszać europejską dyrektywę o prywatności (ePrivacy Directive). Prawo w Europie wymaga wyraźnej zgody na dostęp do danych na urządzeniu, chyba że jest to „ściśle niezbędne” do świadczenia usługi. Zdaniem ekspertów, cicha instalacja konfiguracji dla przeglądarek, których użytkownik nie wybrał do integracji, prawdopodobnie wykracza poza to wyłączenie i niesie ze sobą realne ryzyko kar regulacyjnych.

Nasze wnioski

Zaufanie buduje się latami, a traci jednym plikiem .json. Anthropic, które budowało swój PR na etyce i bezpieczeństwie, zaliczyło wizerunkową wpadkę. Nawet jeśli intencje były czyste – chęć stworzenia płynnego ekosystemu – wykonanie przypomina najgorsze wzorce z czasów, gdy do darmowych programów dołączano niechciane paski narzędzi.

Lekcja dla nas? AI to nie tylko fascynujące modele, to także oprogramowanie z głębokim dostępem do systemu. Instalując aplikacje desktopowe, warto sprawdzać, czy nie stają się one zbyt „gościnne” w miejscach, w których w ogóle nie powinno ich być.

Google pracuje nad natywną aplikacją Gemini AI na Maca, rywalem ChatGPT i Claude

#AI #Anthropic #Apple #Bezpieczeństwo #ClaudeDesktop #ePrivacy #iMagazineTech #macOS #promptInjection #prywatność