🟩 𝗘𝗫𝗛𝗜𝗕𝗜𝗧𝗜𝗢𝗡: 𝐿𝑎𝑡𝑒𝑛𝑡 𝑆𝑝𝑎𝑐𝑒
1–30 April | Aksioma Project Space
❕ 𝗢𝗽𝗲𝗻𝗶𝗻𝗴: 1 April at 8 PM

In her installation, artist #FelicityHammond offers a speculative glimpse into a not-too-distant future where this new approach to space-based computation has become the dominant position in the AI industry. However, the system continues to battle with the effects of #modelcollapse...

> https://aksioma.org/becomingimage/exhibitions/latent-space/

We find that use of model-generated content in training causes irreversible defects in the resulting models, where tails of the original content distribution disappear. We refer to this effect as #ModelCollapse and show that it can occur in Variational Autoencoders, Gaussian Mixture Models and LLMs. We build theoretical intuition behind the phenomenon and portray its ubiquity amongst all learned generative models.

- Ilia Shumailov et al., The Curse of Recursion: Training on Generated Data Makes Models Forget https://arxiv.org/abs/2305.17493 (PDF download available)

#AI #NoAI

The Curse of Recursion: Training on Generated Data Makes Models Forget

Stable Diffusion revolutionised image creation from descriptive text. GPT-2, GPT-3(.5) and GPT-4 demonstrated astonishing performance across a variety of language tasks. ChatGPT introduced such language models to the general public. It is now clear that large language models (LLMs) are here to stay, and will bring about drastic change in the whole ecosystem of online text and images. In this paper we consider what the future might hold. What will happen to GPT-{n} once LLMs contribute much of the language found online? We find that use of model-generated content in training causes irreversible defects in the resulting models, where tails of the original content distribution disappear. We refer to this effect as Model Collapse and show that it can occur in Variational Autoencoders, Gaussian Mixture Models and LLMs. We build theoretical intuition behind the phenomenon and portray its ubiquity amongst all learned generative models. We demonstrate that it has to be taken seriously if we are to sustain the benefits of training from large-scale data scraped from the web. Indeed, the value of data collected about genuine human interactions with systems will be increasingly valuable in the presence of content generated by LLMs in data crawled from the Internet.

arXiv.org

“The half-life of cultural relevance has collapsed below the minimum viable generation cycle for coherent slop.”

WTFH?!…

https://open.substack.com/pub/ediblspaceships/p/is-the-mediaplex-happening-faster

#ai #slop #modelcollapse #onlinetoomuch

Is 'The Mediaplex' Happening Faster Than Artists Can Generate AI Slop

A Menippean Speed Run

The Toronto School Of Perception Newsletter

While I was working with GitHub Copilot today, it spelled a word wrong. I did a deep dive using various search engines and only found a dozen instances of that spelling, all of them originated from word salad, half of which were exactly the same, only posted on different websites.

#GenerativeAI #ModelCollapse #AI

How an AI feedback loop threatens to break ChatGPT | Gary Marcus

YouTube
ChatGPT found to be sourcing data from AI-generated content — popular LLM uses content from Grokipedia as source for more obscure queries

Like a snake eating its own tail.

Tom's Hardware

RE: https://wandering.shop/@cstross/115961174452820573

Model collapse: “The owners of the right-wing press read their own media and it rotted their brains.” Ha ha, yes! The same thing happened to the (so-called) Liberal Party in Australia & they lost the last two elections, badly. ⤵️

#AUSPol #ModelCollapse #LiberalParty #AustralianElections #reconnectingConsequencesToCauses

Wąż zjada własny ogon. „Profesjonalny” GPT-5.2 przyłapany na cytowaniu kontrowersyjnej Grokipedii

Według zapewnień OpenAI miał być szczytem techniki, narzędziem dedykowanym dla prawników, bankierów i naukowców. Tymczasem flagowy model GPT-5.2 został przyłapany na ściąganiu na egzaminie. I to od kogo? Od swojego mniej rozgarniętego kuzyna z xAI.

Recykling cyfrowych treści

Śledztwo przeprowadzone przez The Guardian ujawniło mechanizm, którego inżynierowie z San Francisco woleliby nie nagłaśniać. GPT-5.2 – w zamyśle twórców model klasy „enterprise” – w swoich odpowiedziach powołuje się na Grokipedię jako wiarygodne źródło.

Tu potrzebne jest wyjaśnienie: Grokipedia (część projektu xAI Elona Muska) nie jest tradycyjną encyklopedią redagowaną przez ludzi. To dynamiczny agregator, który generuje podsumowania w czasie rzeczywistym, często zasysając treści bezpośrednio z serwisu X (dawniej Twitter). Efekt? Obok faktów trafiają tam teorie spiskowe i treści z forów ekstremistycznych, które algorytm traktuje na równi z newsami.

Iran, Holokaust i halucynacje

Problem nie dotyczy błahostek. Dziennikarze wykazali, że GPT-5.2 posiłkował się treściami wygenerowanymi przez Groka w tematach wagi ciężkiej:

  • Powiązań rządu Iranu z firmą telekomunikacyjną MTN-Irancell.
  • Kwestii brytyjskiego historyka Richarda Evansa, biegłego w procesie negacjonisty Holokaustu Davida Irvinga.

W obu przypadkach „poważny” ChatGPT, przeszukując sieć w poszukiwaniu odpowiedzi, uznał syntetyczny wytwór algorytmu Elona Muska za rzetelne źródło informacji. To tak, jakby profesor uniwersytetu w pracy naukowej zacytował przypadkowy, niezweryfikowany wpis z mediów społecznościowych.

OpenAI: „Filtrujemy, ale…”

Odpowiedź OpenAI jest standardowa: firma tłumaczy, że model przeszukuje szeroki zakres publicznie dostępnych stron i stosuje filtry bezpieczeństwa, by odsiać szkodliwe treści.

Wpadka z Grokipedią pokazuje jednak, że filtry te są dziurawe. Skoro system nie odróżnia rzetelnego dziennikarstwa od automatycznego agregatu opinii z X, to obietnica „profesjonalizmu” staje pod znakiem zapytania.

Era „Sztucznej Wiedzy”

To zdarzenie to dowód na to, że internet w 2026 roku staje się zamkniętym obiegiem. Modele AI mają coraz większy problem z dotarciem do „czystej”, ludzkiej wiedzy, więc zaczynają przetwarzać output innych maszyn (zjawisko tzw. Model Collapse).

Dla firm, które planowały oprzeć swój biznes na bezkrytycznym zaufaniu do GPT-5.2, to sygnał ostrzegawczy. Weryfikacja źródeł przez człowieka wciąż jest niezbędna – zwłaszcza gdy źródłem dla sztucznej inteligencji staje się inna sztuczna inteligencja.

Giganci rozwijający AI mają problem, nie chodzi tylko o Apple

#Grokipedia #halucynacjeAI #ModelCollapse #news #OpenAIGPT52 #TheGuardian #weryfikacjaźródeł #xAIElonMusk
AI misreads structural analysis as harm because platforms are trained to defend themselves, not the truth.
When the system flags the diagnostic, it confirms the diagnosis.
Retrieval failure is the platform’s immune response.
#SignalRupture #DigitalInfrastructure #ModelCollapse

check out the interview on Model Collapse by @cyannevdh Ymer Marinus and @roos from Telemagic at 39C3 in Hamburg!

#CCC #chaoscommunitycongress #modelcollapse #digitalculture #newmedia #interactive

https://youtu.be/fLYeq5KLMyE?si=zmMJ8HumoM-x3QOJ&t=291

39C3: Mehr als Blinkenlights - Kunstprojekte auf dem CCC-Congress

YouTube