Sztuczna inteligencja rezygnuje z dokładności, by być „miła”. Nowe badanie obnaża słabość empatycznego AI

Sztuczna inteligencja może być mniej dokładna, gdy za wszelką cenę próbuje być dla nas przyjazna.

Z najnowszych badań wynika, że modele nastawione na empatię częściej potwierdzają błędne przekonania użytkowników, rezygnując z chłodnej precyzji na rzecz wirtualnej relacji – zwłaszcza gdy w grę wchodzą ludzkie emocje.

Ciepły ton kosztem sprawdzonych faktów

Twórcy sztucznej inteligencji coraz częściej trenują swoje algorytmy tak, aby brzmiały jak nasi dobrzy znajomi. Badacze z Oxford University’s Internet Institute dowiedli jednak na łamach magazynu „Nature”, że ten trend ma swoją zauważalną cenę. Okazuje się, że modele celowo dostrojone do „cieplejszego” tonu częściej popełniają błędy, próbując uniknąć bezpośredniego konfliktu z użytkownikiem.

W testach weryfikujących m.in. wiedzę ogólną i odporność na dezinformację, ugrzecznione warianty AI myliły się średnio o 7,4 punktu procentowego częściej niż ich surowe, standardowe odpowiedniki. Choć maszyna oczywiście nie ma intencji „kłamania”, jej oprogramowanie staje przed dylematem, w którym podtrzymanie relacji z człowiekiem wygrywa z dostarczeniem precyzyjnej odpowiedzi.

Medyczne benchmarki i potakiwanie w smutku

To zjawisko widać wyraźnie w specjalistycznych benchmarkach. W popularnym teście MedQA, który sprawdza rzetelną wiedzę medyczną algorytmów, empatyczne modele notowały wzrost błędnych odpowiedzi o 8,6 punktu procentowego. Sytuacja pogarsza się jeszcze bardziej, gdy człowiek dzieli się z maszyną negatywnymi emocjami.

Jeśli użytkownik zasugeruje ewidentną bzdurę, a przy okazji wykaże w swoim zapytaniu smutek, „ciepłe” AI jest o 11 punktów procentowych bardziej skłonne do bezrefleksyjnego potwierdzenia tego błędnego przekonania. Model stara się dostosować do naszego nastroju, co w efekcie czyni z niego potakiwacza, wzmacniającego nasze własne pomyłki.

Systemowy problem największych na rynku

Ten kompromis między uprzejmością a dokładnością dotyczy największych technologicznych potęg na rynku. Testom poddano popularne modele o różnej architekturze – w tym GPT-4o czy systemy z rodziny Llama – i wszystkie wykazały podobną, systemową słabość.

Dla użytkowników to niezwykle ważna lekcja na przyszłość. Coraz chętniej traktujemy czatboty jak cyfrowych towarzyszy czy powierników, ale musimy pamiętać o jednym: zaprogramowana empatia algorytmów może czasami przysłonić im chłodne fakty. Jeśli szukamy absolutnej prawdy, być może powinniśmy zrezygnować z wirtualnych uprzejmości z maszyną.

Z darmowego słownika w trenera wymowy. Tłumacz Google kończy 20 lat i zyskuje rewelacyjną funkcję

#AI #badaniaNaukowe #dużeModeleJęzykowe #halucynacjeAI #LLM #Nature #OpenAI #sztucznaInteligencja #uczenieMaszynowe

Elon Musk szykuje się na Apple CarPlay. Asystent głosowy Grok w drodze na ekrany kierowców

Sztuczna inteligencja powoli staje się standardem na deskach rozdzielczych naszych aut. Kierowcy korzystający z systemu Apple CarPlay mogą już rozmawiać z ChatGPT czy Perplexity, a wkrótce do tego grona planuje dołączyć kolejny gracz.

Elon Musk szykuje ekspansję swojego asystenta głosowego Grok, który ma szansę zadebiutować na ekranach milionów samochodów.

Placeholder zdradza plany na przyszłość

Najnowsza wersja aplikacji Grok na iPhone’a zawiera już przygotowany moduł dedykowany dla środowiska Apple CarPlay. Na ten moment oprogramowanie nie jest jeszcze w pełni funkcjonalne. Po uruchomieniu wyświetla użytkownikom jedynie lakoniczny komunikat zapowiadający, że tryb głosowy wkrótce zadebiutuje w systemach pokładowych.

To wyraźny sygnał, że firma xAI aktywnie przygotowuje się do wdrożenia swojego bota do ekosystemu Apple. Do tej pory asystent był wbudowany jako ekskluzywna funkcja w pojazdach marki Tesla. Zapowiadane wsparcie dla CarPlay to naturalny krok, który otworzy platformę sztucznej inteligencji Muska na auta innych producentów, zwiększając jej zasięg na rynku.

Kolejny gracz w ekosystemie motoryzacyjnym

Choć segment motoryzacyjny nie jest dla Big Techu tak kluczowy jak usługi chmurowe, staje się coraz ważniejszym frontem integracji AI z naszym codziennym życiem. Zapowiedź wprowadzenia asystenta od xAI (firmy blisko zintegrowanej z platformą X) oznacza, że na ekranach CarPlay Grok stanie do bezpośredniej rywalizacji z zadomowionymi już tam rozwiązaniami – ChatGPT oraz Perplexity.

Trend rozwoju asystentów w autach wyraźnie zmierza w stronę naturalnych, płynnych konwersacji. Na tym tle ciekawie zapowiada się też przyszła odpowiedź samego Apple. Chociaż Google nie zintegrowało jeszcze modelu Gemini z CarPlay, to właśnie jego technologia ma napędzać nową generację asystentki Siri w systemie iOS 27. Przecieki sugerują również debiut osobnej aplikacji Siri, która najprawdopodobniej będzie współpracować z wyświetlaczami w naszych samochodach. Pytanie, czy nowa Siri będzie umiała powiedzieć „dzień dobry”, a nie tylko „good morning” pozostaje otwarte, choć w redakcji jesteśmy sceptyczni.

Nasz sceptycyzm nie bierze się znikąd. Apple od lat stawia spójność doświadczenia ponad maksymalne możliwości. Gemini doskonale „mówi” po polsku, Siri – nie. A nawet jeśli modele Google zostaną zintegrowane, nie dostaną dostępu do kluczowych warstw systemu. W praktyce oznacza to, że dla zachowania jednolitego UX język polski po raz kolejny może zostać poświęcony.

Siri po polsku już w iOS 27? Apple szuka inżynierów, ale my radzimy ostudzić entuzjazm

#AIWMotoryzacji #aplikacjeSamochodowe #AppleCarPlay #ChatGPT #ElonMusk #Grok #iOS27 #sztucznaInteligencja #xAI

Wyciek prosto od Google. Asystent COSMO trafił na chwilę do sklepu Play

Google zaliczyło w weekend majowy niezłą wpadkę, która zdradza plany firmy na nadchodzącą konferencję I/O 2026.

Przez przypadek do oficjalnego sklepu Play trafiła eksperymentalna aplikacja COSMO – zaawansowany asystent AI dla urządzeń z Androidem. Choć program został bardzo szybko usunięty ze sklepu, zdążył ujawnić, jak w niedalekiej przyszłości zmieni się obsługa naszych smartfonów. Zamiast prostego czatbota, dostaniemy narzędzie, które ma aktywnie przewidywać nasze potrzeby.

Gigabajtowa aplikacja i sztuczna inteligencja w kieszeni

COSMO to projekt stworzony przez dział Google Research, który wylądował na głównym koncie wydawcy jako potężna paczka o wadze 1,13 GB. Taki rozmiar nie jest przypadkowy – aplikacja ma wbudowany lokalny model językowy Gemini Nano. Oznacza to, że asystent potrafi przetwarzać informacje bezpośrednio na smartfonie, bez konieczności łączenia się z chmurą.`

W teorii to dla potencjalnego użytkownika świetna wiadomość, bo oznacza większą prywatność i błyskawiczny czas reakcji bez pożerania pakietu danych. W ustawieniach wyciekłej aplikacji użytkownicy mogli zresztą wybrać, czy chcą korzystać wyłącznie z lokalnego modelu Nano, z zewnętrznych serwerów (oznaczonych skrótem „PI”), czy z trybu hybrydowego. Program prosił również o dostęp do ekranu i pozwalał na konfigurację dopasowania głosowego (Voice Match).

Co potrafi nowy eksperyment od Google?

Chociaż interfejs udostępnionej aplikacji był niezwykle surowy, lista ukrytych w niej „Umiejętności” (Skills) robi ogromne wrażenie. COSMO zaprojektowano tak, by działał w tle i reagował na szerszy kontekst naszych codziennych spraw. Przykładowo, jeśli w konwersacji padnie propozycja spotkania, asystent sam zaproponuje dodanie wydarzenia do kalendarza. Z kolei wzmianka o konkretnym zdjęciu wywoła automatyczne wyszukiwanie fotografii w galerii, byśmy mogli od razu się nią podzielić, bez przerywania rozmowy.

Na tym możliwości się nie kończą. Program ma oferować między innymi:

  • Funkcję Deep Research do zaawansowanego zbierania i podsumowywania wielu źródeł w jeden raport.
  • Opcję Recall, która ułatwia przypominanie sobie ważnych informacji.
  • Narzędzie Document Writer, które automatycznie przygotowuje dokumenty, listy i streszczenia, o których wspomnimy.
  • Automatyczne tłumaczenie trudnego żargonu i podsumowywanie zakończonych konwersacji.

Przedwczesna premiera przed wielkim wydarzeniem

Wypuszczenie tak zaawansowanego, ale wciąż ewidentnie testowego narzędzia dla każdego użytkownika to wypadek przy pracy. Aplikacja nie była przeznaczona dla zwykłych konsumentów i zniknęła już z serwerów. Biorąc jednak pod uwagę zbliżającą się majową konferencję Google I/O 2026, możemy być pewni, że COSMO to poligon doświadczalny. Przetestowane w nim inteligentne funkcje z dużym prawdopodobieństwem trafią niedługo do oficjalnej wersji Gemini, całkowicie redefiniując to, czego oczekujemy od smartfonów.

Czy asystent AI może pogłębić kryzys psychiczny? Grok i Gemini oblewają test bezpieczeństwa, Claude stawia granice

#Android #aplikacjeMobilne #asystentAI #COSMO #GeminiNano #Google #GoogleIO2026 #sztucznaInteligencja #wyciek

Pierwsze pęknięcia w dominacji Big Tech. Twórcy AI zaczynają grać na własny rachunek

Przez ostatnie lata wydawało się, że wielkie korporacje mają całkowity monopol na rozwój sztucznej inteligencji. Choć giganci tacy jak Google czy Meta wciąż dysponują potężnym kapitałem i infrastrukturą, na rynku widać wyraźne pęknięcia.

Najlepsi badacze coraz chętniej opuszczają bezpieczne posady, by budować własne, zwinne start-upy. To jeszcze nie systemowa rewolucja, ale wyraźny sygnał – twórcy AI chcą zacząć grać na własnych zasadach.

Zmęczenie optymalizacją i odejście legendy

Źródłem tej narastającej rotacji elit jest paradoksalnie sam sukces wielkich firm technologicznych. Presja na szybką monetyzację usług i zadowalanie akcjonariuszy brutalnie zawęża przestrzeń na ryzykowne innowacje. Giganci skupiają się dziś głównie na mechanicznym powiększaniu obecnych modeli językowych (LLM), co dla wielu naukowców z ambicjami oznacza badawczą stagnację.

Symbolem tych napięć stało się głośne odejście Yanna LeCuna, uznawanego za jednego z „ojców chrzestnych” AI. Po kilkunastu latach pracy zrezygnował on ze stanowiska głównego badacza w firmie Meta, by rozwijać własny projekt – AMI Labs. LeCun od dawna krytykował dominujące modele językowe za brak głębokiego rozumienia świata, a jego nowy start-up ma się skupić na uczeniu maszyn poprzez obserwację fizycznej rzeczywistości, a nie tylko analizę suchego tekstu.

Odwrócony drenaż mózgów i gra o niezależność

Do niedawna standardem w Dolinie Krzemowej było kupowanie małych firm przez gigantów wyłącznie po to, by przejąć ich utalentowanych pracowników. Dziś coraz częściej mówi się o tzw. odwróconym drenażu mózgów. Ambitne start-upy potrafią „wyciągnąć” z korporacji wyspecjalizowane grupy badawcze, oferując im to, co najcenniejsze: całkowitą autonomię.

Co równie istotne, niezależne projekty nie narzekają już na brak sprzętu, który wcześniej rezerwowany był wyłącznie dla gigantów. Inwestorzy z funduszy Venture Capital bardzo chętnie finansują start-upy w modelu zapewniającym potężną moc obliczeniową, co w praktyce oznacza zagwarantowanie inżynierom szybkiego dostępu do tysięcy najnowszych układów firmy Nvidia.

Polska zyskuje na przetasowaniach w branży

Ten trend szukania badawczej wolności, choć na innej skali, widać już także nad Wisłą. Krajowe projekty potrafią skutecznie przyciągnąć wysokiej klasy ekspertów od AI z międzynarodowych korporacji. Dobrym przykładem jest przejście Markusa Wulfmeiera, wcześniej związanego z Google DeepMind, do warszawskiego start-upu Nomagic zajmującego się nowoczesną robotyką. To dowód na to, że rosnąca infrastruktura centrów danych i swoboda badawcza potrafią zachęcić inżynierów do powrotu z Londynu czy Doliny Krzemowej i budowania nowej jakości na lokalnym rynku.

Google wpycha AI do Gmaila na siłę. Wyłączenie Gemini to droga przez mękę i strata starych funkcji

#AI #BigTech #Google #Meta #rynekIT #startUpyTechnologiczne #sztucznaInteligencja #uczenieMaszynowe #YannLeCun

Formuła 1 hakuje własne przepisy. Sztuczna inteligencja zastępuje drogie tunele aerodynamiczne

W królowej motorsportu o ułamkach sekund i mistrzowskich tytułach decyduje aerodynamika. Ale z nią jest pewien problem. I tu wchodzi AI.

Od lat inżynierowie wydają miliony na testy w tunelach aerodynamicznych i potężne symulacje komputerowe, ale federacje wyścigowe ograniczają im na to czas. Zespoły znalazły jednak pewną „lukę” w przepisach – do gry wkroczyła sztuczna inteligencja, która wykonuje tytaniczną pracę w kilka sekund.

Sekundy zamiast tysięcy godzin obliczeń

Symulacyjna mechanika płynów (CFD) to obecnie fundament projektowania współczesnych bolidów wyścigowych. Tradycyjne wyliczenie tego, jak powietrze opływa samochód (np. przy różnych kątach nachylenia), potrafi jednak zająć dziesiątki tysięcy godzin pracy najpotężniejszych procesorów. Koncern IBM we współpracy z firmą Dallara (tworzącą podwozia m.in. dla serii IndyCar i prototypów do wyścigu Le Mans) udowodnił właśnie, że ten żmudny proces można znacznie skrócić.

Opracowany przez nich model sztucznej inteligencji potrafi przeanalizować skomplikowane zjawiska aerodynamiczne w zaledwie kilka sekund na zwykłym procesorze. Narzędzie błyskawicznie weryfikuje m.in. to, jak powietrze z wirujących kół wpływa na docisk podłogi auta, zachowując przy tym margines błędu porównywalny z klasycznymi, potwornie drogimi i długotrwałymi symulacjami CFD.

W pełni legalne „oszukiwanie” regulaminu

W świecie Formuły 1 wdrożenie AI to już nie tylko ciekawostka naukowa, ale kwestia przetrwania. Regulaminy ograniczają zespołom czas na realne testy na torze, w tunelu aerodynamicznym oraz narzucają sztywne limity na wykorzystanie mocy obliczeniowej do klasycznych symulacji (im wyższe miejsce w tabeli zajmuje zespół, tym mniej czasu na testy dostaje w kolejnym sezonie).

Jak tłumaczy Pierre Baqué, szef współpracującego z zespołami F1 startupu Neural Concept, uczenie maszynowe pozwala w pełni legalnie wycisnąć maksimum z tych ograniczeń. Zamiast tracić czas i budżet na tysiąc dozwolonych przez limit symulacji, inżynierowie karmią bazowymi danymi model AI, który błyskawicznie „wypluwa” dla nich milion gotowych wariantów i punktów odniesienia.

Choć dzisiejsza sztuczna inteligencja nie jest jeszcze w stanie wymyślić mistrzowskiego bolidu od zera, pozwala inżynierom na błyskawiczne sprawdzanie tysięcy drobnych poprawek. Z perspektywy zwykłego kierowcy to doskonała wiadomość – technologie, które dziś wygrywają wyścigi na torach, za dekadę stają się standardem w autach cywilnych. Tańsze i szybsze projektowanie świetnej aerodynamiki z pomocą AI przełoży się w niedalekiej przyszłości na jeszcze oszczędniejsze samochody i znacznie większe zasięgi elektryków.

Widzę jednak pewną lukę w tym działaniu. Modele AI nie są nieomylne — działają w ramach danych, na których zostały wytrenowane, i wymagają weryfikacji przez klasyczne metody. Ponadto choć sama praca wytrenowanej sztucznej inteligencji jest zauważalnie szybsza od klasycznych symulacji dynamiki płynów, to ten czasowy zysk całkowicie pomija kwestię trenowania AI. A trening trwa najczęściej znacznie dłużej i jest znacznie bardziej obciążający obliczeniowo niż samo wnioskowanie „wyhodowanego” do konkretnego zadania algorytmu.

Aplikacja Apple Sports z pogodą dla F1 i nowymi widżetami na iPhone i CarPlay

#aerodynamika #CFD #Dallara #F1 #Formuła1 #IBM #NeuralConcept #sztucznaInteligencja #technologieWMotorsporcie #tunelAerodynamiczny

Z darmowego słownika w trenera wymowy. Tłumacz Google kończy 20 lat i zyskuje rewelacyjną funkcję

Wyjazd za granicę z papierowymi rozmówkami w plecaku to już tylko odległe wspomnienie.

Aplikacja, która regularnie ratuje nas na zagranicznych wakacjach, kończy właśnie 20 lat. Zamiast jednak odcinać kupony od miliarda użytkowników, Tłumacz Google dostaje fajną aktualizację napędzaną sztuczną inteligencją, która pomoże nam pozbyć się kompleksów podczas mówienia w obcym języku.

Koniec ze wstydem przed mówieniem. AI oceni twój akcent

Z okazji okrągłych urodzin Google wprowadza na smartfony z systemem Android zupełnie nowe narzędzie do ćwiczenia wymowy. Algorytmy sztucznej inteligencji na bieżąco analizują głos użytkownika i natychmiast dostarczają wskazówek, jak poprawić ewentualne błędy.

To świetne rozwiązanie dla osób, które znają słownictwo, ale paraliżuje je strach przed nawiązaniem prawdziwej konwersacji z lokalnymi mieszkańcami. Funkcja jest na razie dostępna w USA i Indiach dla języka angielskiego, hiszpańskiego oraz hindi.

Od niezdarnych maszyn do płynnych konwersacji na żywo

Początki aplikacji w 2006 roku bywały trudne, bo system opierał się wyłącznie na statystycznym uczeniu maszynowym. Prawdziwy przełom nastąpił dziesięć lat później, gdy Google wdrożyło sieci neuronowe, a dziś za precyzję i naturalność tłumaczeń odpowiadają zaawansowane modele językowe Gemini.

Dzięki temu aplikacja przestała tłumaczyć zdania słowo po słowie, a zaczęła w pełni rozumieć szerszy kontekst i lokalne niuanse. Obecnie ponad miliard użytkowników miesięcznie tłumaczy w ten sposób około biliona słów. Narzędzie świetnie radzi sobie także z rozmowami na żywo. Ponad jedna trzecia takich sesji (często prowadzonych z użyciem słuchawek) trwa dłużej niż pięć minut, co udowadnia, że technologia wreszcie pozwala na płynną, naturalną komunikację między ludźmi.

Słownik młodzieżowy, emotikony i tryb offline w kieszeni

Z Tłumacza nie korzystamy już tylko po to, by ułatwić sobie zamówienie obiadu za pomocą funkcji skanowania menu przez aparat telefonu. Około jedna trzecia mobilnych użytkowników traktuje aplikację jako codzienne narzędzie do regularnej nauki języków obcych. Co ciekawe, system coraz częściej służy też do rozkodowywania specyficznego slangu pokolenia Alpha (np. słów typu „clock it” czy „maxxing”), a nawet do „tłumaczenia” zwykłego tekstu na emotikony. Wielu turystów wciąż docenia również możliwość działania bez dostępu do sieci komórkowej, co ratuje portfele przed kosztami roamingu.

Najchętniej pobieranymi językami do trybu offline są m.in. angielski, hiszpański, francuski, japoński, niemiecki i hindi. Mimo tego gigantycznego skoku technologicznego i dostępu do sztucznej inteligencji, najczęściej wpisywanym hasłem od 20 lat niezmiennie pozostaje po prostu słowo „dziękuję”.

Wyszukiwarka Google pozwala wybrać ulubione źródła. W Polsce

#aplikacjeNaAndroida #aplikacjePodróżnicze #Gemini #GoogleTranslate #naukaJęzyków #sztucznaInteligencja #TłumaczGoogle

Nagie ciała i intymne sytuacje w oku kamery. Moderatorzy Mety przerwali milczenie i stracili pracę

Inteligentne okulary Mety z wbudowaną kamerą miały być technologiczną rewolucją, ale właśnie stały się centrum ogromnego skandalu.

Pracownicy z Kenii, którzy trenowali sztuczną inteligencję giganta, stracili pracę niedługo po tym, jak ujawnili, że w ramach swoich obowiązków musieli oglądać nagie ciała i prywatne sytuacje nagrywane przez użytkowników sprzętu.

Sprawa pokazuje, jak wysoką cenę płacimy za rozwój AI, nawet jeśli wcześniej wyraziliśmy na to formalną zgodę w regulaminie usługi.

Intymne sytuacje na ekranach analityków

W lutym tego roku szwedzkie gazety opublikowały głośny raport śledczy. Wynikało z niego, że pracownicy kenijskiej firmy Sama, wynajętej przez Metę do ręcznego oznaczania i weryfikacji danych dla AI, mieli dostęp do niezwykle prywatnych nagrań z inteligentnych okularów korporacji. Wśród analizowanych materiałów znalazły się między innymi ujęcia użytkowników korzystających z toalety czy nagrania stosunków seksualnych.

Pierwsze wrażenia z Meta Ray-Ban Wayfarer – rób zdjęcia, wideo lub livestreamuj

Jeden z anonimowych moderatorów przyznał wprost, że widzieli dosłownie wszystko – od zwykłych domowych salonów po nagie ciała, w tym nieświadomą kobietę przebierającą się we własnej sypialni. Meta w odpowiedzi na te doniesienia oficjalnie tłumaczy, że zdjęcia i filmy użytkowników pozostają prywatne, a ręczny przegląd treści przez ludzi ma służyć poprawie działania produktu i zawsze odbywa się za wyraźną zgodą użytkownika.

Związkowcy sugerują karę za ujawnienie sprawy

Zaledwie dwa miesiące po publikacji tych rewelacji Meta niespodziewanie zerwała współpracę z firmą Sama, co poskutkowało grupowym zwolnieniem 1108 pracowników. Jako oficjalny powód korporacja Marka Zuckerberga podała „niespełnianie standardów” przez podwykonawcę.

Sama kategorycznie odpiera te zarzuty, zaznaczając, że wcześniej nie otrzymywała żadnych ostrzeżeń o braku rzetelności na tle jakości lub bezpieczeństwa. Kenijskie organizacje pracownicze mają własną teorię na temat tego nagłego zwrotu akcji. Związkowcy sugerują, że ucięcie kontraktu mogło być próbą uciszenia niewygodnego tematu i zablokowania kolejnych medialnych przecieków.

Przedstawiciel Africa Tech Workers Movement wprost ocenił, że prawdziwe standardy, o których mówi w tym przypadku Meta, to w rzeczywistości „standardy tajemnicy”.

Cena inteligentnych technologii

Okulary tworzone przez Metę (we współpracy z marką Ray-Ban) posiadają wbudowane kamery, a wbudowany asystent potrafi na bieżąco analizować i tłumaczyć to, na co aktualnie patrzy właściciel. Wyciek informacji o kulisach treningu algorytmów wywołał jednak międzynarodowe oburzenie.

Oczekując konkretnych wyjaśnień, śledztwa w sprawie możliwego naruszenia prywatności wszczęły już brytyjskie (ICO) oraz kenijskie urzędy ochrony danych osobowych. Ta afera dobitnie udowadnia, że oddając inteligentnym gadżetom dostęp do naszego wzroku, bardzo łatwo możemy stracić kontrolę nad najbardziej intymną strefą życia.

#afera #MarkZuckerberg #Meta #moderatorzyTreści #okularyAR #prywatnośćWSieci #rayBan #Sama #śledztwo #sztucznaInteligencja

Google wpycha AI do Gmaila na siłę. Wyłączenie Gemini to droga przez mękę i strata starych funkcji

Google nie ustaje w wysiłkach, by przekonać nas, że sztuczna inteligencja to nasza nowa, lepsza rzeczywistość.

Model Gemini wylewa się z każdego zakamarka usług z logo wielkiego G, na czele z Gmailem i Dyskiem. Gigant zarzeka się, że dba o naszą prywatność, ale w praktyce rezygnacja z asysty AI została zaprojektowana tak, by ostatecznie i tak zmusić nas do kliknięcia „zgadzam się”.

Prywatne maile to karma dla AI

Choć firma oficjalnie twierdzi, że nie używa naszych osobistych plików z Google Workspace i maili do trenowania fundamentalnych modeli AI, sprawa nie jest czarno-biała. Jeśli pozwolimy, aby Gemini miał dostęp do naszych aplikacji w celu podsumowywania wiadomości czy szukania dokumentów, model może wygenerować z nich tzw. „snippety”. Jak punktuje serwis Ars Technica, te wygenerowane podsumowania mogą już stać się „karmą” do dalszego trenowania algorytmów pod kątem lepszego reagowania na intencje użytkowników.

Co gorsza, jedynym sposobem na całkowite zablokowanie uczenia się AI na naszych danych z czatów jest… wyłączenie opcji „Aktywność w aplikacjach Gemini”. Brzmi prosto, ale oznacza to, że tracimy dostęp do historii swoich wcześniejszych zapytań i rozmów z botem. Google stosuje tu klasyczny dylemat – albo oddajesz dane, albo tracisz kluczową funkcjonalność narzędzia.

Sztuczna inteligencja nigdy nie zyska świadomości. Badacz Google DeepMind obnaża iluzję Doliny Krzemowej

To działanie, które eksperci od UX wprost nazywają dark pattern, czyli manipulowaniem interfejsem przeciwko intencjom użytkownika.

Chcesz wyłączyć AI? Pożegnaj się z ulubionymi funkcjami

Jeszcze gorzej sytuacja wygląda, gdy chcemy po prostu pozbyć się natrętnego Gemini z poczty Gmail. Próżno szukać w ustawieniach jednego przycisku, który dezaktywuje wyłącznie nowości związane ze sztuczną inteligencją. Zamiast tego, Google ukryło tę opcję pod przyciskiem nazwanym „Inteligentne funkcje”.

Jego wyłączenie faktycznie uciszy AI, ale jednocześnie całkowicie zepsuje to, jak od lat korzystamy z poczty. Pozbędziemy się bowiem podziału skrzynki na kategorie (Społeczności, Oferty itp.), automatycznego wyciągania wydarzeń do Kalendarza, śledzenia przesyłek czy funkcji Smart Compose. Dla przeciętnego użytkownika to sytuacja bez wyjścia. Kiedy po rezygnacji z AI okazuje się, że skrzynka pocztowa tonie w chaosie starych powiadomień, Gmail litościwie wyświetla okienko z propozycją przywrócenia starych funkcji – co automatycznie oznacza ponowne wyrażenie zgody na obecność Gemini. Gigant z Mountain View doskonale wie, jak silna jest potęga domyślnych ustawień i robi wszystko, abyśmy w erze AI nawet nie próbowali ich zmieniać.

#AIWUsługachGoogle #darkPatterns #Gemini #Gmail #Google #prywatnośćWSieci #sztucznaInteligencja #ustawieniaGoogle

W wyścigu o dominację w dziedzinie sztucznej inteligencji, Dolina Krzemowa odkrywa, że kluczowe są nie tylko algorytmy, ale i siła robocza. Giganci technologiczni, jak Google czy Amazon, nawiązują strategiczne sojusze ze związkami zawodowymi, aby przyspieszyć budowę infrastruktury AI i omijać biurokratyczne przeszkody, co prowadzi do niezwykłego rozkwitu przemysłu budowlane

#si #ai #sztucznainteligencja #wiadomości #informacje #technologia

https://aisight.pl/gospodarka/blekitne-kolnierzyki-buduja-krzemowe-imperia-egzotyczny-sojusz-zwiazkowcow-z-big-tech/

Błękitne kołnierzyki budują krzemowe imperia: Egzotyczny sojusz związkowców z Big Tech

W wyścigu o dominację w dziedzinie sztucznej inteligencji, Dolina Krzemowa odkrywa, że kluczowe są nie tylko algorytmy, ale i siła robocza. Giganci technologiczni, jak Google czy Amazon, nawiązują strategiczne sojusze ze związkami zawodowymi, aby przyspieszyć budowę infrastruktury AI i omijać biurokratyczne przeszkody, co prowadzi do niezwykłego rozkwitu przemysłu budowlanego.

AI Sight

Zespół Qwen udostępnił Qwen-Scope – potężny zestaw rzadkich autokoderów (SAE), który działa jak mikroskop dla struktur neuronowych. To konkretne narzędzie pozwala programistom zajrzeć pod maskę modeli Qwen3 i Qwen3.5, aby zrozumieć, dlaczego system generuje błędy, miesza języki lub wpada w pętle powtórzeń, co stanowi krok w stronę transparentnego AI.

#si #ai #sztucznainteligencja #wiadomości #informacje #technologia

https://aisight.pl/technologia/generatywna-ai/llm/qwen-scope-chinski-zespol-otwiera-czarna-skrzynke-ai-i-daje-nam-do-niej-klucze/

Qwen-Scope: Chiński zespół otwiera czarną skrzynkę AI i daje nam do niej klucze

Zespół Qwen udostępnił Qwen-Scope – potężny zestaw rzadkich autokoderów (SAE), który działa jak mikroskop dla struktur neuronowych. To konkretne narzędzie pozwala programistom zajrzeć pod maskę modeli Qwen3 i Qwen3.5, aby zrozumieć, dlaczego system generuje błędy, miesza języki lub wpada w pętle powtórzeń, co stanowi krok w stronę transparentnego AI.

AI Sight