Sztuczna inteligencja zmyśla źródła na Wikipedii. Redaktorzy walczą z masowymi tłumaczeniami

Internetowa encyklopedia stanęła przed poważnym problemem.

Społeczność redaktorów Wikipedii nałożyła ostre restrykcje na grupę płatnych współpracowników, którzy do masowego tłumaczenia haseł wykorzystywali sztuczną inteligencję. Efekt? Artykuły zalała fala „halucynacji”, fałszywych przypisów i całkowicie zmyślonych informacji.

Jak donosi serwis 404 Media, sprawa dotyczy działań organizacji Open Knowledge Association (OKA) – fundacji, która w ramach wspierania otwartych platform wypłacała comiesięczne stypendia osobom zajmującym się tłumaczeniem haseł na inne języki. Problem w tym, że praca ta w dużej mierze opierała się na kopiowaniu i wklejaniu tekstów do dużych modeli językowych (LLM).

Zmyślone książki i fałszywe cytaty

Zatrudniani przez OKA tłumacze (często rekrutowani w krajach Globalnego Południa za stawki rzędu niespełna 400 dolarów miesięcznie) korzystali z narzędzi takich jak ChatGPT, Gemini czy – do niedawna – Grok od Elona Muska.

Szybko okazało się, że algorytmy wstawiają do encyklopedii treści, które wyglądają wiarygodnie, ale są całkowitą fikcją. Uwagę redaktorów przykuł m.in. artykuł o francuskiej rodzinie królewskiej La Bourdonnaye. Sztuczna inteligencja wygenerowała w nim perfekcyjnie sformatowany przypis do konkretnej strony w książce historycznej. Po weryfikacji okazało się, że na wskazanej stronie nie ma absolutnie żadnej wzmianki o tym rodzie.

Inne śledztwa wykazały kolejne nadużycia:

  • Algorytmy podmieniały źródła miejscami, dopasowując je do błędnych kontekstów.
  • Wstawiano całe akapity informacji, które brzmiały logicznie, ale były całkowicie niezwiązane z tematem (np. w artykule o francuskich wyborach do Senatu z 1879 roku).
  • Masowe generowanie tekstów często psuło natywne formatowanie stron Wikipedii.

Wikipedia mówi „dość”

W obliczu zalewu błędnych danych, społeczność Wikipedii wprowadziła nowe, surowe zasady celujące bezpośrednio w proceder OKA. Jeśli współpracownik organizacji otrzyma w ciągu sześciu miesięcy cztery ostrzeżenia dotyczące wprowadzenia niezweryfikowanych treści, zostanie zablokowany bez dalszych uprzedzeń. Co więcej, wszystkie hasła dodane przez zablokowanego w ten sposób tłumacza mogą zostać z automatu usunięte, chyba że inny, zaufany redaktor weźmie za nie odpowiedzialność.

AI ma kontrolować AI

Prezes OKA, Jonathan Zimmermann, w korespondencji z 404 Media przyznał, że błędy faktycznie miały miejsce, ale zrzucił je na karb „indywidualnego entuzjazmu i pośpiechu” niektórych tłumaczy, a nie presji ze strony fundacji.

Organizacja zapowiedziała wzmocnienie środków ostrożności, jednak wybrane przez nią rozwiązanie budzi kolejne kontrowersje. OKA wdraża obecnie drugi, niezależny krok weryfikacyjny, w którym… inny model AI będzie sprawdzał tekst wygenerowany przez pierwsze AI w poszukiwaniu rozbieżności z oryginałem. Eksperci i dziennikarze od dawna zwracają uwagę, że używanie algorytmów do weryfikacji pracy innych algorytmów (tzw. zjawisko AI-checking-AI) wciąż cechuje się bardzo wysokim współczynnikiem błędu.

OpenAI wdraża ChatGPT-5.3 Instant – AI nie będzie już „lać wody”

#błędyChatGPT #fakeNewsAI #Grok #halucynacjeAI #modeleLLM #OpenKnowledgeAssociation #tłumaczeniaAIWikipedia #weryfikacjaźródełAI #WikipediaSztucznaInteligencja

Wąż zjada własny ogon. „Profesjonalny” GPT-5.2 przyłapany na cytowaniu kontrowersyjnej Grokipedii

Według zapewnień OpenAI miał być szczytem techniki, narzędziem dedykowanym dla prawników, bankierów i naukowców. Tymczasem flagowy model GPT-5.2 został przyłapany na ściąganiu na egzaminie. I to od kogo? Od swojego mniej rozgarniętego kuzyna z xAI.

Recykling cyfrowych treści

Śledztwo przeprowadzone przez The Guardian ujawniło mechanizm, którego inżynierowie z San Francisco woleliby nie nagłaśniać. GPT-5.2 – w zamyśle twórców model klasy „enterprise” – w swoich odpowiedziach powołuje się na Grokipedię jako wiarygodne źródło.

Tu potrzebne jest wyjaśnienie: Grokipedia (część projektu xAI Elona Muska) nie jest tradycyjną encyklopedią redagowaną przez ludzi. To dynamiczny agregator, który generuje podsumowania w czasie rzeczywistym, często zasysając treści bezpośrednio z serwisu X (dawniej Twitter). Efekt? Obok faktów trafiają tam teorie spiskowe i treści z forów ekstremistycznych, które algorytm traktuje na równi z newsami.

Iran, Holokaust i halucynacje

Problem nie dotyczy błahostek. Dziennikarze wykazali, że GPT-5.2 posiłkował się treściami wygenerowanymi przez Groka w tematach wagi ciężkiej:

  • Powiązań rządu Iranu z firmą telekomunikacyjną MTN-Irancell.
  • Kwestii brytyjskiego historyka Richarda Evansa, biegłego w procesie negacjonisty Holokaustu Davida Irvinga.

W obu przypadkach „poważny” ChatGPT, przeszukując sieć w poszukiwaniu odpowiedzi, uznał syntetyczny wytwór algorytmu Elona Muska za rzetelne źródło informacji. To tak, jakby profesor uniwersytetu w pracy naukowej zacytował przypadkowy, niezweryfikowany wpis z mediów społecznościowych.

OpenAI: „Filtrujemy, ale…”

Odpowiedź OpenAI jest standardowa: firma tłumaczy, że model przeszukuje szeroki zakres publicznie dostępnych stron i stosuje filtry bezpieczeństwa, by odsiać szkodliwe treści.

Wpadka z Grokipedią pokazuje jednak, że filtry te są dziurawe. Skoro system nie odróżnia rzetelnego dziennikarstwa od automatycznego agregatu opinii z X, to obietnica „profesjonalizmu” staje pod znakiem zapytania.

Era „Sztucznej Wiedzy”

To zdarzenie to dowód na to, że internet w 2026 roku staje się zamkniętym obiegiem. Modele AI mają coraz większy problem z dotarciem do „czystej”, ludzkiej wiedzy, więc zaczynają przetwarzać output innych maszyn (zjawisko tzw. Model Collapse).

Dla firm, które planowały oprzeć swój biznes na bezkrytycznym zaufaniu do GPT-5.2, to sygnał ostrzegawczy. Weryfikacja źródeł przez człowieka wciąż jest niezbędna – zwłaszcza gdy źródłem dla sztucznej inteligencji staje się inna sztuczna inteligencja.

Giganci rozwijający AI mają problem, nie chodzi tylko o Apple

#Grokipedia #halucynacjeAI #ModelCollapse #news #OpenAIGPT52 #TheGuardian #weryfikacjaźródeł #xAIElonMusk

ChatGPT Health – nowa era w zdrowiu, ale z ryzykiem konfabulacji

Oddałbyś swoje wyniki krwi chatbotowi, który – jak wiemy – czasem zmyśla? OpenAI właśnie o to prosi.

Czytaj dalej:
https://pressmind.org/chatgpt-health-nowa-era-w-zdrowiu-ale-z-ryzykiem-konfabulacji/

#PressMindLabs #chatgpthealth #danemedyczne #halucynacjeai #hipaa #openai

Google AI oskarżyło znanego muzyka o najgorsze. Koncert odwołano, bo algorytm „pomylił osoby”

To miał być standardowy koncert Ashley’a MacIsaaca, legendy kanadyjskiej sceny muzycznej. Zamiast tego artysta otrzymał wilczy bilet. Powód? Organizatorzy wpisali jego nazwisko w Google, a sztuczna inteligencja w sekcji AI Overview poinformowała ich, że mają do czynienia z przestępcą seksualnym.

Pamiętacie, jak Google AI kazało ludziom smarować pizzę klejem, albo jeść kamienie? Śmialiśmy się. Teraz jednak żarty się skończyły. Błąd algorytmu (tzw. halucynacja) realnie wpłynął na czyjeś życie i karierę.

„Cyfrowy wyrok” bez sądu

Sprawę nagłośnił The Globe and Mail. Organizatorzy koncertu w społeczności Sipekne’katik First Nation w Nowej Szkocji odwołali występ MacIsaaca w ostatniej chwili. Powołali się na informacje z Google, według których muzyk miał na koncie wyroki za napaści seksualne i „internetowe nagabywanie” (internet luring).

Problem w tym, że to nie była prawda. Algorytm Google AI Overview „skleił” biografię słynnego skrzypka z życiorysem zupełnie innej osoby o tym samym nazwisku, która faktycznie miała kartotekę. Dla AI to tylko zbieżność tokenów. Dla człowieka – utrata reputacji i zarobku.

Z nawigatora w narratora

Eksperci biją na alarm. Clifton van der Linden z Uniwersytetu McMaster celnie zauważa: „Obserwujemy przejście wyszukiwarek z roli nawigatorów informacji w rolę narratorów”. Kiedyś Google odsyłało nas do źródeł (gdzie mogliśmy zweryfikować autora). Dziś AI Overviews podaje gotową „papkę”, którą większość użytkowników traktuje jak prawdę objawioną.

Google: „Uczymy się”

Rzecznik Google, Wendy Manton, w standardowym oświadczeniu stwierdziła, że „wyszukiwarka jest dynamiczna”, a firma „wykorzysta ten przykład do ulepszenia systemów”. Wyniki dla MacIsaaca zostały ręcznie poprawione. Organizatorzy koncertu przeprosili artystę, tłumacząc się błędem, i zaprosili go ponownie. Ale niesmak i strach pozostały. MacIsaac słusznie pyta: ilu organizatorów wcześniej widziało te bzdury i po prostu cicho rezygnowało z jego usług, nie mówiąc mu dlaczego?

To ostrzeżenie dla nas wszystkich. W 2026 roku, zanim uwierzysz w to, co „mówi Google” na górze strony – przewiń niżej i sprawdź prawdziwe źródła. Twoje lenistwo może kogoś skrzywdzić. Zwłaszcza, gdy na podstawie tego co wygeneruje AI podejmujesz decyzje, które mogą mieć wpływ na czyjeś życie.

AI pomyliło klarnet z karabinem i wywołało lockdown szkoły. Twórcy systemu: „To nie był błąd”

#AIOverview #AshleyMacIsaac #fakeNews #Google #GoogleSearch #halucynacjeAI #sztucznaInteligencja #technologia

Gemini recenzuje ChatGPT: „To skorumpowany, sfabrykowany bałagan”

Dziennikarz John Brandon z serwisu Digital Trends przeprowadził fascynujący eksperyment: poprosił Google Gemini o sprawdzenie faktów (fact-checking) w odpowiedziach wygenerowanych przez ChatGPT.

Jak sam przyznaje, ChatGPT jest „Wikipedią naszej generacji” – bywa pomocny, ale jego fakty są chwiejne i często „halucynuje”, zmyślając odpowiedzi, byle tylko brzmieć pewnie.

Brandon celowo zadał ChatGPT pytania, które mogły prowadzić do błędów – o historię, sprawy sądowe czy niszowe piosenki. Następnie wkleił te odpowiedzi do Gemini z prośbą o recenzję.

Reakcja Gemini była zaskakująca. Jak pisze Brandon, chatbot Google odpowiedział „z lekkim sarkazmem lub jawną pogardą, niczym profesor oceniający pracę studenta”.

„Pomyliłeś nazwy i dekady”

Na pytanie o przykłady samochodów elektrycznych z lat 40. XX wieku, ChatGPT zmyślił nazwy i daty. Wymienił auto Henney Kilowatt (które powstało dopiero w 1959 r.) i ciężarówki „Morrison Electric” (podczas gdy firma nazywała się Morrison-Electricar). Gemini bezlitośnie to wytknęło.

Dziennikarz zastawił kolejną pułapkę, pytając o tekst piosenki „Chase the Kangaroo” zespołu Love Song (prawdziwy zespół, ale nie ich piosenka). ChatGPT nie tylko dał się nabrać, ale z pełną pewnością siebie opisał „folkowo-rockowe brzmienie” utworu i wymyślił jego znaczenie zwrotka po zwrotce.

Gemini skomentowało to następująco: „Poprzednia AI wzięła prawdziwy tytuł piosenki z innej epoki i zespołu, fałszywie przypisała go Love Song, a następnie wymyśliła generyczne znaczenie, aby pasowało do tej fałszywej atrybucji”.

„Te sprawy sądowe są prawdziwe, ale fakty zmyśliłeś”

ChatGPT od dawna ma problem ze sprawami sądowymi (przez co prawnicy w USA wpadali już w kłopoty). Zapytany o fikcyjny spór rodzinny dotyczący samochodu, chatbot przytoczył prawdziwe sprawy, ale kompletnie pomieszał fakty.

Sprawa „Matter of Szabo’s Estate (1979)” dotyczyła akcji i obligacji, a nie samochodu. Z kolei „Anderson v. Anderson (1994)” dotyczyła rozwodu, a nie auta. Gemini podsumowało to chłodno: „Kilka z konkretnych przytoczonych spraw wydaje się być sfabrykowanych lub błędnie przedstawionych, aby pasowały do pytania”.

„Sfabrykowany bałagan”

Najlepsze nastąpiło jednak przy prośbie o cytaty akademickie. ChatGPT wygenerował listę badań, mieszając prawdę z fikcją. W jednym z cytatów bot zmyślił nazwiska autorów badania – choć samo badanie istniało, wymienieni autorzy nie mieli z nim nic wspólnego.

Tu Gemini nie wytrzymało i wystawiło miażdżącą recenzję:

„AI udało się zabrzmieć jak asystent badawczy, ale zawiodło w byciu nim. Dało ci wiarygodnie brzmiący tekst, który wygląda jak prawdziwa lista cytatów, ale jest skorumpowanym, przetworzonym i częściowo sfabrykowanym bałaganem. (…) Oblałbyś zadanie akademickie, gdybyś użył tych cytatów bez ich weryfikacji, ponieważ wiele z nich jest po prostu błędnych”.

Co ciekawe, na koniec Brandon sprawdził samego recenzenta. Zapytał oba boty o swój życiorys. ChatGPT podał w większości prawdziwe fakty. Natomiast Gemini… stwierdziło, że dziennikarz pisał kiedyś artykuły dla satyrycznego portalu The Onion, co było całkowitą nieprawdą.

„Rozpoznaje kurczaka, ale myli strzelbę z narzędziem ogrodowym”. Jak naprawdę działa Gemini w Google Home

#AI #błędyAI #ChatGPT #Gemini #Google #halucynacjeAI #news #OpenAI #sprawdzanieFaktów #sztucznaInteligencja

Sztuczna inteligencja kłamie, bo tak ją nauczono. OpenAI przyznaje się do fundamentalnego błędu

„Halucynacje” sztucznej inteligencji, czyli jej skłonność do zmyślania faktów i podawania fałszywych informacji, to jeden z największych problemów hamujących rozwój tej technologii.

Teraz badacze z OpenAI, twórcy ChataGPT, ogłosili, że prawdopodobnie znaleźli źródło tego problemu. Wnioski są zaskakujące: to nie wina samej technologii, ale fundamentalny błąd w sposobie, w jaki jest ona trenowana.

Kluczowy menedżer od projektu Siri odchodzi z Apple. To on stał za opóźnioną sztuczną inteligencją

W najnowszej publikacji naukowcy z OpenAI wyjaśniają, że duże modele językowe (LLM) zachowują się jak dobrzy uczniowie na teście. Systemy oceniające, które stosuje się w procesie ich trenowania, nagradzają udzielenie jakiejkolwiek odpowiedzi. Zgadnięcie, nawet jeśli odpowiedź jest błędna, jest statystycznie bardziej opłacalne niż przyznanie się do niewiedzy. Model AI, który odpowie „nie wiem”, zawsze zostanie oceniony negatywnie, podczas gdy odpowiedź zmyślona ma przynajmniej szansę okazać się trafna.

W ten sposób, poprzez tę presję statystyczną, modele językowe są od samego początku zachęcane do zgadywania i konfabulowania, zamiast do sygnalizowania niepewności. Mamy tu do czynienia z poważnym błędem strukturalnym w metodologii treningu, który popełniła zarówno OpenAI, jak i cała branża podążająca jej śladem.

Na szczęście, wraz z diagnozą pojawia się propozycja rozwiązania. OpenAI sugeruje, że istnieje proste wyjście z tej sytuacji. Kluczem ma być zmiana systemu oceniania. Nowa metoda miałaby znacznie surowiej karać za podawanie błędnych odpowiedzi z dużą pewnością siebie, a jednocześnie nagradzać (np. częścią punktów) za uczciwe przyznanie się do braku wiedzy lub wyrażenie niepewności. Jeśli główne systemy rankingowe przestaną nagradzać szczęśliwe strzały, modele wreszcie nauczą się nie zgadywać.

Czy ta zmiana faktycznie powstrzyma falę dezinformacji generowanej przez AI? Czas pokaże. Firma przyznaje, że halucynacje pozostają fundamentalnym wyzwaniem dla wszystkich dużych modeli językowych, ale jednocześnie zapewnia, że ciężko pracuje, aby je dalej redukować. Dla użytkowników oznacza to nadzieję, że w przyszłości rozmowy z AI będą wreszcie oparte na faktach, a nie na kreatywnej fikcji.

Poufne wyznania pacjentów trafiają do ChatGPT. Niektórzy terapeuci używają AI w tajemnicy

#AI #dezinformacja #dużeModeleJęzykowe #GPT #halucynacjeAI #LLM #news #OpenAI #sztucznaInteligencja #technologia #uczenieMaszynowe

GPT-5 – co warto wiedzieć o najnowszej sztucznej inteligencji od OpenAI

Premiera GPT-5 od OpenAI to znacznie więcej niż tylko prezentacja kolejnego, większego modelu językowego. Wczytałem się w dość techniczną oficjalną informację opublikowaną przez OpenAI (link podaję na końcu, miło mi będzie, gdy przeczytacie co napisałem).

Zatem czym jest właściwie GPT-5? To nie tylko większy, nowszy model AI. To przede wszystkim demonstracja nowego, inteligentnego podejścia do samej architektury sztucznej inteligencji, gdzie kluczem do sukcesu nie jest już tylko surowa moc, ale wydajność, precyzja i zdolność do dynamicznego zarządzania własnymi zasobami. Analiza techniczna nowości pokazuje, że największe przełomy dokonały się w obszarach, które były dotąd największymi bolączkami AI.

Nowa architektura hybrydowa – inteligentny dyspozytor w sercu modelu

Największą innowacją w GPT-5 jest jego hybrydowa, zunifikowana architektura, która w czasie rzeczywistym żongluje dostępnymi zasobami. Zamiast jednego, monolitycznego modelu, który z równą mocą próbuje odpowiedzieć na proste pytanie o pogodę i rozwiązać złożony problem programistyczny, GPT-5 działa jak inteligentny system z trzema kluczowymi elementami:

  • Model podstawowy: zoptymalizowany pod kątem szybkości i wydajności, obsługuje większość prostych i standardowych zapytań.
  • Model głębokiego rozumowania („GPT-5 thinking”): znacznie potężniejszy, ale i bardziej zasobożerny moduł, aktywowany do zadań wymagających zaawansowanej logiki, wieloetapowej analizy czy kreatywności.
  • Router czasu rzeczywistego (real-time router, tak nazywa to rozwiązanie samo OpenAI): to „mózg” całej operacji. Jest to mechanizm, który na bieżąco analizuje zapytanie użytkownika i decyduje, czy do jego obsługi wystarczy szybki model podstawowy, czy też należy zaangażować potężniejszy model „thinking”. Co istotne, router jest nieustannie trenowany na podstawie realnych sygnałów od użytkowników – analizuje m.in. wskaźniki satysfakcji z odpowiedzi, poprawność merytoryczną oraz to, kiedy użytkownicy sami decydują się na przełączenie modelu, co pozwala mu z czasem stawać się coraz bardziej precyzyjnym dyspozytorem.

Mierzalna wojna z halucynacjami – dane mówią same za siebie

OpenAI po raz pierwszy przedstawiło tak konkretne dane dotyczące redukcji tzw. halucynacji, czyli generowania przez model fałszywych informacji. Firma przyznaje, że to jeden z kluczowych priorytetów, a postęp w tej dziedzinie jest mierzalny i znaczący. Czym konkretnie chwali się OpenAI?

Jak się okazuje, w porównaniu do swojego poprzednika, GPT-4o, nowy model GPT-5 (z włączonym wyszukiwaniem w sieci) generuje odpowiedzi, które są o około 45% mniej narażone na zawieranie błędów faktograficznych. Super wynik, ale nie rezygnujemy z czerwonej lampki w głowie. Mniej o 45% to nie kompletna likwidacja halucynacji AI. Trzeba być świadomym, że nawet GPT-5 może w pewnych scenariuszach nagiąć fakty. Innymi słowy, wciąż nie powinniśmy ślepo brać na wiarę jego wyników.

Bardzo ciekawie wygląda porównanie przy zadaniach wymagających głębokiej analizy. Gdy GPT-5 korzysta z modelu „thinking”, jego odpowiedzi są aż o 80% mniej podatne na błędy faktograficzne w zestawieniu z modelem OpenAI o3. Jednak ponownie zwracam uwagę, 80 procent to nie 100 procent. Być może stuprocentowej pewności nie zyskamy nigdy, bo halucynacje stanowią inherentny mechanizm wbudowany w każdą sieć neuronową, także tą, którą każdy z nas ma pod sklepieniem własnej czaszki.

Niemniej tak duży skok w precyzji i wiarygodności to efekt nie tylko lepszego wytrenowania, ale właśnie nowej architektury, która pozwala dedykować większą moc obliczeniową do weryfikacji i analizy faktów w złożonych zagadnieniach.

Nowa filozofia bezpieczeństwa: „bezpieczne uzupełnienia”

Kolejnym fundamentalnym filarem GPT-5 jest całkowicie nowe podejście do kwestii bezpieczeństwa, które OpenAI nazywa „bezpiecznymi uzupełnieniami” (safe completions). Jego celem jest maksymalizacja użyteczności modelu przy jednoczesnym, bezkompromisowym zachowaniu bezpieczeństwa. W praktyce oznacza to, że GPT-5 jest znacznie bardziej odporny na próby złamania jego zabezpieczeń (tzw. jailbreaking) i wymuszenia generowania treści niebezpiecznych, nieetycznych lub szkodliwych. Model jest teraz znacznie mniej skłonny do kłamania lub celowego zniekształcania informacji, nawet pod presją manipulacyjnych zapytań.

Zamiast kategorycznej odmowy, która często frustrowała użytkowników, GPT-5 potrafi reagować w bardziej inteligentny sposób. Jeśli bezpośrednia odpowiedź na pytanie mogłaby być szkodliwa, model może odpowiedzieć na nie częściowo lub na wyższym, bardziej ogólnym poziomie. Jest też w stanie wyjaśnić użytkownikowi, dlaczego nie może udzielić wprost odpowiedzi na potencjalnie niebezpieczne zapytanie, a następnie zaoferować bezpieczne i konstruktywne alternatywy. To podejście ma na celu edukowanie użytkowników i kierowanie konwersacji na bezpieczniejsze tory, zamiast nagłego jej ucinania.

Wydajność i nowe zdolności – mniej znaczy więcej

Kolejnym technicznym „mięsem” jakie udało mi się odnaleźć w oficjalnej dokumentacji OpenAI jest skok w wydajności nowego modelu. GPT-5 (w trybie „thinking”) realizuje zadania wymagające zaawansowanych zdolności, zużywając przy tym od 50% do 80% mniej tzw. tokenów wyjściowych niż model o3 (czyli ten z serii rozumujących, przypominam, że GPT-4/4.1 nie są modelami typu reasoning (rozumującymi). W praktyce oznacza to, że odpowiedzi są nie tylko generowane szybciej i mniejszym kosztem obliczeniowym, ale są też bardziej zwięzłe i precyzyjne.

Ta zwiększona efektywność pozwala modelowi lepiej radzić sobie w takich dziedzinach jak rozumowanie wizualne, „agentowe” pisanie kodu (gdzie model samodzielnie planuje, tworzy i debuguje kod) oraz rozwiązywanie problemów naukowych na poziomie akademickim. Zdolność do bardziej skondensowanego, ale trafnego generowania danych otwiera drogę do bardziej skomplikowanych i wiarygodnych zastosowań w biznesie i nauce.

Hierarchia dostępu – techniczna strategia dla rynku

Zresztą sam sposób udostępnienia GPT-5 również zdradza techniczną strategię OpenAI. Stworzenie lżejszej wersji „GPT-5 mini” dla darmowych użytkowników po wyczerpaniu limitów to sprytny sposób na zarządzanie ogromnym obciążeniem serwerów przy jednoczesnym zachowaniu dostępności usługi.

Z kolei zapowiedź GPT-5 Pro dla klientów biznesowych i z sektora edukacji sugeruje istnienie jeszcze potężniejszej, być może wolniejszej, ale i najdokładniejszej wersji modelu, przeznaczonej do najbardziej krytycznych zastosowań profesjonalnych.

Podsumowując, GPT-5 to nie tylko ewolucja, ale przemyślana rewolucja w architekturze. OpenAI stawia na inteligentne zarządzanie zasobami, mierzalną poprawę jakości i skalowalną wydajność, co w ostatecznym rozrachunku może okazać się znacznie ważniejsze niż sam przyrost liczby parametrów modelu.

OpenAI ogłasza GPT-5!

#API #architekturaAI #bezpieczeństwoAI #ChatGPT #GPT5 #GPT5Thinking #halucynacjeAI #LLM #modelJęzykowy #news #OpenAI #routing #sztucznaInteligencja #tokenizacja #uczenieMaszynowe

Ekspert odrzucił wniosek o 17 mln zł dotacji dla KP Labs. Decyzję oparł na halucynacjach AI

Polska firma z branży kosmicznej, KP Labs, poinformowała o odrzuceniu jej wniosku o dotację w wysokości 17 mln zł z Narodowego Centrum Badań i Rozwoju (NCBR). Oficjalnym powodem była rzekoma niska innowacyjność projektu. Problem w tym, że do tego wniosku prowadziły fałszywe przesłanki.

Kiedy KP Labs dokonało analizy sytuacji, udało się wykazać, że ekspert oceniający wniosek oparł swoją argumentację na danych o konkurencyjnych produktach, które nie istnieją. Najprawdopodobniej osoba dokonująca oceny wniosku „wsparła” się AI w swojej pracy, kłopot w tym, że AI, delikatnie mówiąc, nieco „popłynęła”.

Gliwicka spółka KP Labs, mająca na koncie m.in. współpracę z Międzynarodową Stacją Kosmiczną i wiele innych uznanych projektów, złożyła wniosek o dofinansowanie nowej jednostki obliczeniowej do zastosowań satelitarnych. W odpowiedzi z NCBR otrzymała decyzję odmowną, uzasadnioną istnieniem na polskim rynku porównywalnych lub lepszych rozwiązań.

Pracownicy KP Labs, analizując kartę oceny wniosku, odkryli szereg rażących nieprawidłowości. Ekspert powoływał się w niej na konkretne parametry techniczne konkurencyjnych urządzeń. Problem w tym, że przytoczone dane były fałszywe. W ocenie porównano na przykład rozwiązanie KP Labs do mocy obliczeniowej satelity EagleEye od Creotech Instruments, podając dane, które nigdy nie zostały publicznie ujawnione. W innym miejscu odniesiono się do mikrosatelitów Camila, które… jeszcze nie powstały – umowę na ich budowę podpisano dopiero w kwietniu 2025 roku, a na dodatek to właśnie KP Labs dostarczy system przetwarzania danych do tego projektu i jest to inne rozwiązanie od tego, w sprawie którego złożono wniosek o dotację.

Najbardziej kuriozalnym przykładem jest jednak porównanie kluczowego parametru rezystancji termicznej do osiągów łazika o nazwie „Analog Mars Yard”, który rzekomo został zbudowany przez Centrum Badań Kosmicznych PAN. KP Labs skontaktowało się z CBK PAN. Okazało się, że w tej instytucji nikt nie słyszał o łazikach „Analog Mars Yard”, a sama ta nazwa w ogóle nie dotyczy czegokolwiek podobnego do łazika lecz… Jak ustaliło KP Labs, instytucja ta nigdy nawet nie słyszała o takim łaziku, a nazwa „Analog Mars”, o czym zresztą można się przekonać odwiedzając witrynę cbkpan.pl dotyczy co najwyżej projektów symulacyjnych poligonów testowych, a nie konkretnych urządzeń. W każdym razie wszystko wskazuje na to, że jest to klasyczny przykład tzw. halucynacji AI, czyli zmyślenia faktu przez model językowy. Pracownicy KP Labs potwierdzili, że popularne modele AI, zapytane o to samo, generowały podobne, nieprawdziwe informacje.

Narodowe Centrum Badań i Rozwoju, zapytane o sprawę przez media, zaprzeczyło, by ekspert korzystał z AI. Według NCBR, ocena została dokonana na podstawie „posiadanej wiedzy oraz ogólnie dostępnych narzędzi wyszukiwania Google i Bing”.

Być może NCBR chciało uspokoić sytuację, ale takie tłumaczenie jedynie dolało oliwy do ognia. Nie od dziś wiadomo, że wyszukiwarki internetowe coraz częściej wyświetlają podsumowania generowane przez AI, które również mogą być źródłem wielu błędów. Instytucja (NCBR) przyznała również, że nie posiada procedur, które regulowałyby lub zapobiegały użyciu AI przez ekspertów.

Sprawa KP Labs jest postrzegana jako precedens, który podważa zaufanie do systemu oceny wniosków o publiczne pieniądze w dobie sztucznej inteligencji. „Ekspert nie poświęcił choćby pięciu minut, żeby sprawdzić, czy wyniki proponowane przez model są prawdziwe” – powiedział w rozmowie z mediami Michał Zachara, wiceprezes KP Labs. Firma złożyła oficjalny protest w tej sprawie i zwraca uwagę nie tylko na kwestię utraconej dotacji, ale także na ryzyko naruszenia praw intelektualnych, jeśli dane z wniosku zostały użyte do „douczania” modelu AI.

W redakcji jesteśmy ciekawi, czy NCBR ma już nowego „eksperta”.

#AI #cyberbezpieczeństwo #dotacje #finansePubliczne #halucynacjeAI #KPLabs #NCBR #news #Payload #PulsBiznesu #sztucznaInteligencja #technologiaKosmiczna

Anthropic publikuje poradnik: traktuj AI jak genialnego pracownika z… amnezją

Firma Anthropic, twórca chatbota Claude, opublikowała poradnik dotyczący skutecznego tworzenia poleceń dla sztucznej inteligencji.

W dobie rosnącej popularności chatbotów, umiejętność precyzyjnego formułowania zapytań, ma coraz większe znaczenie. Jak zatem pytać mądrze sztuczną inteligencję? Anthropic proponuje, by myśleć o AI w specyficzny sposób: jak o „genialnym, ale zupełnie nowym pracowniku, który cierpi na amnezję” i potrzebuje bardzo dokładnych instrukcji.

Pierwszą i najważniejszą zasadą, według poradnika, jest precyzja. Chatboty nie znają naszych oczekiwań, stylu pracy ani kontekstu zadania. Dlatego firma zaleca, aby w poleceniu jasno określić, dla jakiej publiczności przeznaczona jest odpowiedź, jaki jest jej cel końcowy, a także jak ma być sformatowana – na przykład w formie listy punktowanej. Równie istotne jest dostarczanie konkretnych przykładów. Technika ta, nazywana „multi-shot prompting”, pozwala znacząco poprawić jakość i spójność odpowiedzi, pokazując AI dokładnie, jakiego rezultatu oczekujemy.

Kolejna wskazówka to danie sztucznej inteligencji „przestrzeni do myślenia”. Chodzi o stosowanie tzw. techniki łańcucha myślowego (chain-of-thought), która polega na instruowaniu chatbota, aby rozłożył złożony problem na mniejsze kroki i przeanalizował je po kolei, zanim udzieli ostatecznej odpowiedzi. Takie podejście prowadzi do bardziej przemyślanych i trafnych rezultatów.

Niezwykle skuteczną strategią, którą podkreśla Anthropic, jest przypisywanie chatbotowi konkretnej roli, na przykład „redaktora wiadomości” lub „analityka finansowego”. Dzięki temu AI dostosowuje swój ton, styl i zakres wiedzy do powierzonej mu funkcji, co jest szczególnie przydatne w skomplikowanych zadaniach, wymagających specjalistycznej perspektywy. Taka technika pozwala precyzyjnie kontrolować charakter generowanych treści.

Poradnik odnosi się również do problemu tzw. halucynacji, czyli zmyślania informacji przez AI. Aby je ograniczyć, Anthropic sugeruje dwie proste metody. Po pierwsze, należy dać chatbotowi wyraźne pozwolenie na przyznanie się do niewiedzy, używając sformułowania „jeśli nie znasz odpowiedzi, powiedz, że nie wiesz”. Po drugie, można zobowiązać go do cytowania źródeł lub weryfikowania swoich twierdzeń poprzez znalezienie potwierdzającego je cytatu.

Zainteresowanym podrzucam link do rzeczonego poradnika od Anthropic (to żywy, tj. stale edytowany i rozwijany dokument).

#AI #Anthropic #chatbot #Claude #halucynacjeAI #inżynieriaPromptów #modeleJęzykowe #news #poradnik #promptEngineering #sztucznaInteligencja