Punto Informatico: Terafab: fabbrica di chip per SpaceX, Tesla e xAI

Elon Musk ha annunciato Terafab, una fabbrica in cui verranno prodotti i chip di Tesla, SpaceX e xAI per veicoli, robot, AI e data center orbitali.
The post Terafab: fabbrica di chip per SpaceX, Tesla e xAI appeared first on Punto Informatico.

Terafab: chip manufacturer for SpaceX, Tesla, and xAI

Elon Musk has announced Terafab, a factory where chips for Tesla, SpaceX, and xAI for vehicles, robots, AI, and orbital data centers will be produced.

#Terafab #SpaceX #Tesla #xAIElonMusk

https://www.punto-informatico.it/terafab-fabbrica-di-chip-per-spacex-tesla-e-xai/

Terafab: fabbrica di chip per SpaceX, Tesla e xAI

Elon Musk ha annunciato Terafab, una fabbrica in cui verranno prodotti i chip di Tesla, SpaceX e xAI per veicoli, robot, AI e data center orbitali.

Punto Informatico

Wąż zjada własny ogon. „Profesjonalny” GPT-5.2 przyłapany na cytowaniu kontrowersyjnej Grokipedii

Według zapewnień OpenAI miał być szczytem techniki, narzędziem dedykowanym dla prawników, bankierów i naukowców. Tymczasem flagowy model GPT-5.2 został przyłapany na ściąganiu na egzaminie. I to od kogo? Od swojego mniej rozgarniętego kuzyna z xAI.

Recykling cyfrowych treści

Śledztwo przeprowadzone przez The Guardian ujawniło mechanizm, którego inżynierowie z San Francisco woleliby nie nagłaśniać. GPT-5.2 – w zamyśle twórców model klasy „enterprise” – w swoich odpowiedziach powołuje się na Grokipedię jako wiarygodne źródło.

Tu potrzebne jest wyjaśnienie: Grokipedia (część projektu xAI Elona Muska) nie jest tradycyjną encyklopedią redagowaną przez ludzi. To dynamiczny agregator, który generuje podsumowania w czasie rzeczywistym, często zasysając treści bezpośrednio z serwisu X (dawniej Twitter). Efekt? Obok faktów trafiają tam teorie spiskowe i treści z forów ekstremistycznych, które algorytm traktuje na równi z newsami.

Iran, Holokaust i halucynacje

Problem nie dotyczy błahostek. Dziennikarze wykazali, że GPT-5.2 posiłkował się treściami wygenerowanymi przez Groka w tematach wagi ciężkiej:

  • Powiązań rządu Iranu z firmą telekomunikacyjną MTN-Irancell.
  • Kwestii brytyjskiego historyka Richarda Evansa, biegłego w procesie negacjonisty Holokaustu Davida Irvinga.

W obu przypadkach „poważny” ChatGPT, przeszukując sieć w poszukiwaniu odpowiedzi, uznał syntetyczny wytwór algorytmu Elona Muska za rzetelne źródło informacji. To tak, jakby profesor uniwersytetu w pracy naukowej zacytował przypadkowy, niezweryfikowany wpis z mediów społecznościowych.

OpenAI: „Filtrujemy, ale…”

Odpowiedź OpenAI jest standardowa: firma tłumaczy, że model przeszukuje szeroki zakres publicznie dostępnych stron i stosuje filtry bezpieczeństwa, by odsiać szkodliwe treści.

Wpadka z Grokipedią pokazuje jednak, że filtry te są dziurawe. Skoro system nie odróżnia rzetelnego dziennikarstwa od automatycznego agregatu opinii z X, to obietnica „profesjonalizmu” staje pod znakiem zapytania.

Era „Sztucznej Wiedzy”

To zdarzenie to dowód na to, że internet w 2026 roku staje się zamkniętym obiegiem. Modele AI mają coraz większy problem z dotarciem do „czystej”, ludzkiej wiedzy, więc zaczynają przetwarzać output innych maszyn (zjawisko tzw. Model Collapse).

Dla firm, które planowały oprzeć swój biznes na bezkrytycznym zaufaniu do GPT-5.2, to sygnał ostrzegawczy. Weryfikacja źródeł przez człowieka wciąż jest niezbędna – zwłaszcza gdy źródłem dla sztucznej inteligencji staje się inna sztuczna inteligencja.

Giganci rozwijający AI mają problem, nie chodzi tylko o Apple

#Grokipedia #halucynacjeAI #ModelCollapse #news #OpenAIGPT52 #TheGuardian #weryfikacjaźródeł #xAIElonMusk