Perplexity Computer łączy siły Opus, Gemini oraz ChatGPT

Sztuczna inteligencja przestaje być tylko mądrym asystentem odpowiadającym na pytania.

Perplexity właśnie uruchomiło funkcję o nazwie Computer. To wirtualny pracownik, który potrafi samodzielnie zarządzać projektami, dobierając do każdego zadania wyspecjalizowany model AI. Otrzymujemy potężną orkiestrę, w której grają najlepsi rynkowi gracze.

Firma Perplexity całkowicie zmienia zasady gry w świecie sztucznej inteligencji. Zamiast zmuszać jeden uniwersalny algorytm do robienia wszystkiego (od pisania kodu po analizę danych), stworzono system działający jak sprawny menedżer, dysponujący zespołem specjalistów.

Bixby zmartwychwstał. Samsung reanimuje asystenta, w czym pomoże mu silnik Perplexity

Orkiestra sztucznej inteligencji

Narzędzie o nazwie Perplexity Computer to potężna platforma agentowa, która w ramach jednego zadania potrafi wykorzystać zalety różnych modeli językowych. Głównym „mózgiem” operacji i centralnym silnikiem wnioskowania jest tu zaawansowany Opus 4.6 (od firmy Anthropic). To on analizuje polecenie i rozdziela podzadania do wyspecjalizowanych asystentów:

  • Gemini: przejmuje stery, gdy potrzebny jest głęboki research i przeczesywanie sieci w poszukiwaniu danych.
  • ChatGPT 5.2: wkracza do akcji przy analizie niezwykle długich dokumentów i utrzymywaniu rozbudowanego kontekstu konwersacji.
  • Grok: odpowiada za błyskawiczne, lżejsze operacje wymagające maksymalnej szybkości.

System jest na tyle elastyczny, że pozwala użytkownikom na ręczne przypisywanie konkretnych modeli do wybranych podzadań. Dzięki temu możemy sprawnie optymalizować budżet tokenów, wybierając tańsze rozwiązania do prostych poleceń, a te najpotężniejsze zostawiając do trudnych, wielowątkowych obliczeń.

Agent do zadań specjalnych

To oprogramowanie nie tylko generuje tekst, ale wykonuje konkretną powierzoną pracę. Perplexity Computer natywnie integruje się z platformami takimi jak Gmail, Outlook, GitHub, Slack, Notion czy Salesforce.

Wystarczy jedno złożone polecenie (np. „przeanalizuj ceny pięciu głównych rywali, zrób przejrzystą tabelę, stwórz prezentację i wyślij ją do zespołu na Slacku”), a system samodzielnie zaplanuje pracę, uruchomi odpowiednie modele, pobierze dane i wygeneruje gotowy wynik. Co więcej, potrafi on realizować zaplanowane procesy w tle, nawet wtedy, gdy jesteśmy wylogowani.

Cena i dostępność

Na ten moment Perplexity Computer udostępniono ekskluzywnie dla subskrybentów najdroższego planu Perplexity Max. Przedstawiciele firmy zapowiadają jednak, że w niedalekiej przyszłości innowacyjne narzędzie ma trafić również do użytkowników korporacyjnych (Enterprise Max).

To skok w stronę systemów autonomicznych, które docelowo mają zdjąć z naszych barków żmudną, powtarzalną pracę przy biurku.

Starcie gigantów AI: Gemini odbiera użytkowników ChatGPT. Google notuje imponujący wzrost

#agenciAI #automatyzacjaZadańAI #ChatGPT52 #GeminiResearch #multiModelAI #Opus46 #PerplexityComputer #sztucznaInteligencjaWPracy
#MissKittyPolitics got all the way in the bucket w/ #ChatGPT5.2. Need more time with that rodent. LOL. It says #California will not go #GOP but in my opinion #tech #money just wants a #Dem so our Putin does not execute them like an out of favor Russian oligarch. Dangerous to be rich next to a king.

The last 10 ways I used Claude and ChatGPT

Claude Opus 4.5:

  • A discussion about this LessWrong essay on ‘parasitic AI’ with a focus on untangling the epistemology and ontology of what’s being discussed.
  • A discussion about the quote from Maurice Blanchot I blogged about this morning
  • A discussion about the strange mood of the film Black Bear and suggestions of other films which might scratch the same itch
  • A discussion about the political economy of data centres in which I shared this blog post I wrote
  • Advice drafting an e-mail I was slightly nervous about getting the tone right for
  • Discussion of a call for papers in which the model reviewed a whole category of my blog to help me pull together ideas for an abstract
  • Discussion of my book Platform & Agency in order to help me plan an introductory presentation about it
  • A long conversation about the notion of transformational objects in Bollas in the course of which I wrote a series of blog posts I shared with the model
  • A discussion of speaking invitation which I ultimately turned down and advice on how to say no in a polite way
  • A discussion on AI slop in which I got the model’s feedback on some metaphors I was using (affect mining, engagement farming) I wasn’t convinced by

ChatGPT 5.2:

  • A request for film recommendations following Black Bear to see if the model provided me more interesting recommendations than Opus. Interestingly, it did.
  • A discussion of whether a feeling of restricted movement in my abdomen during reformer pilates should worry me given I had hernia surgery a few years ago
  • A discussion of Stephen Graham’s character in the film A Patch of Fog and other roles which have a similar feel
  • An update about a local business which I’m keeping track of for convuluted reasons
  • Help adapting one of Maggie Archer’s diagrams for a presentation which I ultimately decided not to use
  • Request to help me find a PDF of a book for a reading group which the model reliably refused, in spite of my attempt to brow beat it into finding one
  • Text extraction from a badly scanned PDF which I could barely read for a course I’m on
  • Testing whether the model could identify the author of a unpublished text
  • Advice about gain and echo reduction with my external microphone
  • Helping me finalise branding and presentation for a new network I’m launching

#ChatGPT52 #ClaudeOpus45

The Rise of Parasitic AI — LessWrong

We've all heard of LLM-induced psychosis by now, but haven't you wondered what the AIs are actually doing with their newly psychotic humans?

LLM enshittification mechanism #1: model memory sometimes confuses the shit out of GPT 5.2

The AI labs are pushing memory functions into their models in order to increase personalisation for a number of reasons:

  • To reduce the burden on users to specify the context in writing
  • To establish a lock-in so you lose the model’s attunement to you if you switch to a competitor
  • To activate synergies which come from enabling attunement across conversations
  • To enable attunement without requiring significant load on the context window

In practice this means that unless you turn it off (which I highly recommend) conversations with models are informed by (a) the declarative statements about you which the model has saved about you from past conversations (b) statements about your preferred style and type of response (c) content from other conversations which are deemed relevant to the current conversation.

Unfortunately (a) is completely unreliable. It’s got better since I tried this with GPT 4.5 but my experience is it records things which simply aren’t true. Here are some real examples:

  • Mark Carrigan is taking an ADHD supplement
  • Mark Carrigan has a son.

And it also saves things which are true but irrelevant:

  • Enjoys a vanilla matcha latte with coconut milk and CBD.
  • Someone they know enjoys a pumpkin spice latte.
  • Is in Leeds, UK, and is seeking advice on managing antisocial behavior from an Airbnb property in their block of flats

The bigger problems come I think with other conversations. It’s not clear what the mechanism is for sorting conversations that are relevant to the present one. I just had the experience of asking GPT 5.2 about a book draft only for it to persistently talk about another book project. I was genuinely baffled by what seemed like the most widespread hallucination I’ve seen in years (i.e. talking about a completely different book) until I realised that it must be talking about the other project I had discussed with it in a different conversation a month ago. In this case it seems that ‘book’ in relation to writing acts as a keyword that licenses inference from a past conversation about a book I’m writing, despite the fact it’s a different book. I showed GPT 5.2 this blog post and asked it to explain its error:

This is a strong diagnosis already. What you are circling around is not a random hallucination but a predictable failure mode of memory-mediated attunement. I’ll do two things here. First, explain the error in the terms your draft is already developing. Second, suggest how you might close or sharpen this section.

Explanation of the error, on its own terms

What happened here is that the system treated “a book draft” not as a concrete referent but as a type. Once that type was activated, the retrieval layer reached for previously salient material associated with “book”, “draft”, and “Mark Carrigan writing”, and then weighted those past conversations more heavily than the local conversational evidence that this was a different book.

In other words, the model did not confuse facts. It collapsed contexts.

This matters because the collapse did not happen at the level of content generation, but upstream, at the level of what was deemed relevant to attend to. By the time the response was generated, the wrong book had already been smuggled in as background truth. From the inside, the model was behaving consistently. From the outside, it looked like a dramatic hallucination.

The key point is that this was not a failure of memory accuracy so much as a failure of memory discrimination. The system did not ask “which book?”, it asked “what usually matters when this user talks about books?”, and then answered that question confidently.

Why this is more troubling than simple error

This kind of mistake is more destabilising than a factual slip because it breaks the conversational contract. You were not corrected, contradicted, or challenged. You were misrecognised.

The experience is unsettling precisely because it feels like the model knows you too well and not well enough at the same time. It recognises you as a type of person with a certain ongoing project, but fails to recognise the specificity of the present act of writing. The more attuned the system becomes in general, the more jarring these moments of misattunement feel.

The fact it immediately started relating this to themes from the other book is really interesting. Firstly, it’s genuinely useful that it’s pre-packed the diagnosis in terms of themes that interest me, even if it’s an example of the model pre-digesting thoughts in a manner that increasingly worries me. Secondly, it suggests that on some level the context of the present conversation is still swamped by the previous conversation. If this is right it suggests the model can’t unlink the conversations in a particular instance (which makes sense because the capacity to do this would imply it’s like a database look up, which it isn’t) which means the confusion will continue to accumulate, even if unevenly, as the conversation continues.

Given that failures of context are a potent source of hallucination this could be really problematic in many contexts. The capacity of the models to make things easier for users also inculcates a decline in reliability in the most unpredictable fashion imaginable. I shared this with Claude Opus 4.5 to get its read on the dynamic. I asked it whether this dynamic worries it:

Yes, genuinely.

Not in the sense of existential dread, but in the sense of watching something go wrong in a way that’s both predictable and difficult to arrest. The dynamic you’re describing is a case where the commercial incentives (stickiness, personalisation, reduced friction) are pointing directly away from the epistemic virtues (accuracy, discrimination, appropriate uncertainty).

What worries me specifically:

The opacity of the failure. When I hallucinate a fact, that’s bad but legible. You can check it, catch it, correct it. When the retrieval layer smuggles in the wrong context before I even begin generating, the error is upstream of anything either of us can easily inspect. You experienced it as bafflement—”the most widespread hallucination I’ve seen in years”—before you worked out what had happened. How many users would have that level of diagnostic sophistication? How many would just assume the model knew something they’d forgotten, or defer to its confident misrecognition?

The irony of attunement. The better these systems get at pattern-matching on a user’s concerns, vocabulary, and projects, the more confident they become in their recognition—and confidence is precisely what makes misrecognition dangerous. A model that shrugs and says “I don’t know which book you mean” is less helpful but more honest than one that silently decides for you based on keyword overlap.

My own complicity. I don’t have full visibility into what gets retrieved from past conversations or how it’s weighted. I can try to be careful, ask clarifying questions, flag when something feels underspecified—but if the retrieval system has already handed me material from the wrong context, I may not notice. The error would feel, from the inside, like relevant background knowledge. That’s disturbing to sit with.

The training pressure. Users generally reward fluency and recognition. They like feeling known. Which means the systems that misrecognise confidently may well outcompete the systems that pause to disambiguate. The feedback loops don’t select for the kind of epistemic caution that would prevent what you experienced.

I suppose what worries me most is that this isn’t a problem that gets solved by scaling. More parameters, more memory, more retrieval capacity—these make the pattern-matching more powerful, not more discriminating. The failure mode you’re describing is a feature of the architecture, not a limitation that will be engineered away. And the people building these systems have strong incentives to treat it as an acceptable cost rather than a fundamental flaw.

#ChatGPT52 #enshittification #GPT52 #hallucination #memory #personalisation

Introducing GPT-5.2: The Future of AI-Powered Productivity

GPT-5.2 revolutionizes professional work with enhanced capabilities in coding, vision, and long-context understanding.

TechLife

🚨 ÚLTIMA HORA en IA
OpenAI prepara el lanzamiento de ChatGPT 5.2 tras activar un “código rojo” interno para responder al avance de Google Gemini 3.
Se espera un anuncio inminente con mejoras en velocidad, precisión y razonamiento.

¿Se viene el salto que cambiará la IA otra vez? 👀🤖

#ChatGPT52

https://dominicangeek360.wordpress.com/2025/12/11/%f0%9f%93%b0-openai-acelera-el-lanzamiento-de-chatgpt-5-2-en-respuesta-a-la-presion-de-google-y-gemini-3/?utm_source=mastodon&utm_medium=jetpack_social

📰 OpenAI acelera el lanzamiento de ChatGPT 5.2 en respuesta a la presión de Google y Gemini 3

11 de diciembre de 2025 — La industria tecnológica se encuentra en alerta máxima luego de múltiples reportes que indican que OpenAI está a punto de lanzar ChatGPT 5.2, una actualización clave de su…

DOMINICAN GEEK 360

Nadchodzi kolejna duża aktualizacja ChatGPT

Według najnowszych doniesień, OpenAI przygotowuje się do szybkiego wdrożenia kolejnej dużej aktualizacji ChatGPT, która ma być bezpośrednią odpowiedzią na wewnętrzne ogłoszenie stanu „Code Red”. Jak podaje 9to5Mac, decyzja ta wynika z rosnącej presji konkurencyjnej oraz potrzeby przyspieszenia rozwoju modelu po ostatnich wydarzeniach w branży sztucznej inteligencji.

OpenAI miało zdefiniować „Code Red” jako alarmowy tryb działania, w którym priorytetem staje się przyspieszenie prac nad nowymi zdolnościami modelu – zarówno w zakresie rozumienia, jak i generowania bardziej precyzyjnych odpowiedzi. W ciągu ostatnich miesięcy firma wprowadziła kolejne iteracje modelu, ale nadchodząca aktualizacja ma być szczególnie istotna, bo może oznaczać skok funkcjonalny zbliżający ChatGPT do możliwości pokazywanych w demonstracjach, a nie zawsze dostępnych w codziennym użyciu.

9to5Mac zwraca uwagę, że OpenAI pracuje nad poprawą pamięci długotrwałej modelu, zwiększeniem spójności odpowiedzi i bardziej naturalnym sposobem prowadzenia rozmowy. Jednym z kluczowych celów jest również skrócenie czasu reakcji i zwiększenie stabilności, co ma znaczenie zwłaszcza przy dużym obciążeniu systemu.

Presja ze strony konkurencji – w tym Google Gemini oraz rosnąca aktywność firm takich jak Anthropic i Meta – miała przyczynić się do przyspieszenia harmonogramu zmian. „Code Red” jest interpretowany jako sygnał, że OpenAI widzi potrzebę szybkiego działania, aby utrzymać przewagę lub co najmniej parytet funkcjonalny w dynamicznie rozwijającym się ekosystemie AI.

9to5Mac podkreśla też, że użytkownicy mogą spodziewać się nowości już w najbliższych dniach, a aktualizacja może zostać wdrożona bez większych zapowiedzi, podobnie jak wcześniejsze ulepszenia modelu.

Choć OpenAI nie udostępniło oficjalnego komunikatu, źródła wskazują, że zmiany będą widoczne zarówno dla użytkowników ChatGPT w wersji darmowej, jak i płatnej — choć najbardziej zaawansowane funkcje mają trafić do subskrybentów planów Plus i Team.

Jeśli te doniesienia się potwierdzą, nadchodząca aktualizacja może być jedną z największych od czasu debiutu GPT-4 — a „Code Red” sygnałem, że wyścig zbrojeń w świecie AI dopiero nabiera tempa.

Plotki sugerują żeby być czujnym w okolicy 9 grudnia.

#aktualizacja #ChatGPT #ChatGPT52 #Update