Nauka zjadana przez własny ogon. Eksperci alarmują: AI zalewa badania naukowe bezwartościowym chłamem

Świat nauki o sztucznej inteligencji stoi nad przepaścią. Paradoksalnie, to właśnie narzędzia AI, które miały przyspieszyć postęp, doprowadzają do paraliżu badawczego.

Renomowane konferencje toną w tysiącach prac generowanych taśmowo przez modele językowe, a wyłowienie wartościowych odkryć staje się wręcz niemożliwe.

Hany Farid, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, w rozmowie z „The Guardian” nie przebiera w słowach. Sytuację w branży nazywa „szaleństwem” i przyznaje, że obecnie odradza swoim studentom specjalizację w dziedzinie AI. Powód? Niemożność przebicia się z rzetelną, przemyślaną pracą przez mur „naukowej papki”.

113 publikacji w rok. Geniusz czy spamer?

Symbolem problemu stał się przypadek Kevina Zhu, świeżo upieczonego licencjata z Berkeley, który chwali się współautorstwem aż 113 prac naukowych opublikowanych w ciągu jednego roku. Dla porównania, rzetelne przeczytanie stu technicznych artykułów w rok jest wyzwaniem dla eksperta, nie mówiąc o ich napisaniu. Profesor Farid nazwał dorobek Zhu „katastrofą”, sugerując, że niemożliwe jest wniesienie merytorycznego wkładu w taką liczbę badań w tak krótkim czasie.

Mechanizm tego „sukcesu” opiera się na programie Algoverse, w którym studenci płacą ponad 3 tysiące dolarów za 12-tygodniowy kurs, a ich prace są masowo wysyłane na konferencje. Efekt? Prestiżowa konferencja NeurIPS, która w 2020 roku otrzymała poniżej 10 tysięcy zgłoszeń, w tym roku została zalana ponad 21,5 tysiącem prac. Aż 89 z nich to dzieła zespołu Zhu.

AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu

„Vibe” zamiast nauki

Zjawisko to eksperci określają mianem „vibe coding” – bezrefleksyjnego używania AI do generowania kodu i treści, byle tylko coś działało i wyglądało profesjonalnie. Sam Zhu, pytany o udział AI w tworzeniu prac, unikał jednoznacznej odpowiedzi, zasłaniając się używaniem „standardowych narzędzi produktywności”.

Konsekwencje są dramatyczne. Recenzenci, często sami posiłkujący się AI, przepuszczają prace z halucynacjami, zmyślonymi cytatami, a nawet absurdalnymi grafikami, które nigdy nie powinny trafić do druku. Jak podsumowuje prof. Farid: „Jako przeciętny czytelnik nie masz szans zrozumieć, co dzieje się w literaturze naukowej. Stosunek sygnału do szumu wynosi praktycznie jeden do jednego”.

AI nie jest magiczną różdżką, a lustrem. To, co w nim zobaczysz, zależy tylko od ciebie

#Algoverse #generatywnaAIWNauce #HanyFarid #jakośćBadańNaukowych #KevinZhu #naukaAI #NeurIPS2025 #news

"It was probably one of the first widely distributed fake images on the internet!" - HANY FARID, Deepfake hoaxes, Meta-averse and Jason punk’d, Really? No, Really? #ReallyNoReallyPodcast #HanyFarid
“Musk has been bulldozing and backtracking on #contentmoderation (…) He will soon discover that ripping down an entire edifice of trust and safety will lead to real harm for users and will scare away (more) advertisers. Unlike some of his earlier mistakes, however, he will also learn that it will not be easy to reconstruct an entire team that took more than a decade to build.” https://slate.com/technology/2022/11/trump-returning-to-twitter-elon-musk.html #DanielleCitron #HanyFarid #CCRI
This Is the Worst Time for Donald Trump to Return to Twitter

The platform the former president may return to is very different from when he left.

Slate
"... be careful about how you deploy the technology. You can do research, you can do it responsibly, you can publish papers, you can make the public aware of it, but you don't have to give away the code, you don't have to give away the data, you don't have to literally hand a loaded gun to the average person on the internet in order to push the boundaries of science and technology."
- #HanyFarid
https://www.rnz.co.nz/national/programmes/saturday/audio/2018711251/hany-farid-are-deep-fakes-a-real-problem
Hany Farid - Are Deep Fakes a real problem?

Sophisticated digital imaging technology is being used to create 'Deep Fakes'; images and videos that are indistinguishable from reality. Things have moved on from celebrity faces being superimposed onto porn performers. As the slurring Nancy Pelosi video shows, these fakes can now have a political agenda. Professor Hany Farid of UC Berkeley specialises in detecting the signs of digital manipulation, and is trying to design systems that can tell the real from the fake before things go viral. But with hundreds of hours of uploaded video hitting YouTube's servers every minute, it's an all-but-impossible task: and the stakes are high if things get missed.