RE: https://bsky.app/profile/did:plc:2ke2vvlvwdyb5fyqlj27yguk/post/3mdvhdavr6c2h
GPTZero finds 100 new hallucinations in NeurIPS 2025 accepted papers
https://gptzero.me/news/neurips/
#HackerNews #GPTZero #NeurIPS2025 #Hallucinations #AIresearch #MachineLearning
RLVR promises faster sampling but leaves reasoning untouched—base LLMs still carry the heavy‑lifting of trajectories. The paper (NeurIPS 2025) shows that gains come from smarter teacher‑distillation and minor architectural tweaks, not a new reasoning engine. Curious how sampling efficiency separates from true understanding? Dive into the details. #RLVR #SamplingEfficiency #LLMReasoning #NeurIPS2025
🔗 https://aidailypost.com/news/rlvr-lifts-sampling-efficiency-not-reasoning-base-models-hold
Nauka zjadana przez własny ogon. Eksperci alarmują: AI zalewa badania naukowe bezwartościowym chłamem
Świat nauki o sztucznej inteligencji stoi nad przepaścią. Paradoksalnie, to właśnie narzędzia AI, które miały przyspieszyć postęp, doprowadzają do paraliżu badawczego.
Renomowane konferencje toną w tysiącach prac generowanych taśmowo przez modele językowe, a wyłowienie wartościowych odkryć staje się wręcz niemożliwe.
Hany Farid, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, w rozmowie z „The Guardian” nie przebiera w słowach. Sytuację w branży nazywa „szaleństwem” i przyznaje, że obecnie odradza swoim studentom specjalizację w dziedzinie AI. Powód? Niemożność przebicia się z rzetelną, przemyślaną pracą przez mur „naukowej papki”.
113 publikacji w rok. Geniusz czy spamer?
Symbolem problemu stał się przypadek Kevina Zhu, świeżo upieczonego licencjata z Berkeley, który chwali się współautorstwem aż 113 prac naukowych opublikowanych w ciągu jednego roku. Dla porównania, rzetelne przeczytanie stu technicznych artykułów w rok jest wyzwaniem dla eksperta, nie mówiąc o ich napisaniu. Profesor Farid nazwał dorobek Zhu „katastrofą”, sugerując, że niemożliwe jest wniesienie merytorycznego wkładu w taką liczbę badań w tak krótkim czasie.
Mechanizm tego „sukcesu” opiera się na programie Algoverse, w którym studenci płacą ponad 3 tysiące dolarów za 12-tygodniowy kurs, a ich prace są masowo wysyłane na konferencje. Efekt? Prestiżowa konferencja NeurIPS, która w 2020 roku otrzymała poniżej 10 tysięcy zgłoszeń, w tym roku została zalana ponad 21,5 tysiącem prac. Aż 89 z nich to dzieła zespołu Zhu.
AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu
„Vibe” zamiast nauki
Zjawisko to eksperci określają mianem „vibe coding” – bezrefleksyjnego używania AI do generowania kodu i treści, byle tylko coś działało i wyglądało profesjonalnie. Sam Zhu, pytany o udział AI w tworzeniu prac, unikał jednoznacznej odpowiedzi, zasłaniając się używaniem „standardowych narzędzi produktywności”.
Konsekwencje są dramatyczne. Recenzenci, często sami posiłkujący się AI, przepuszczają prace z halucynacjami, zmyślonymi cytatami, a nawet absurdalnymi grafikami, które nigdy nie powinny trafić do druku. Jak podsumowuje prof. Farid: „Jako przeciętny czytelnik nie masz szans zrozumieć, co dzieje się w literaturze naukowej. Stosunek sygnału do szumu wynosi praktycznie jeden do jednego”.
AI nie jest magiczną różdżką, a lustrem. To, co w nim zobaczysz, zależy tylko od ciebie
#Algoverse #generatywnaAIWNauce #HanyFarid #jakośćBadańNaukowych #KevinZhu #naukaAI #NeurIPS2025 #news
Theoretical Insights on Training Instability in Deep Learning TUTORIAL
https://uuujf.github.io/instability/
gradient flow-like regime is slow and can overfit while large (but not too large) step size can trasiently go far, converge faster, and find better solutions #optimization #NeurIPS2025
Some of my favorites from #NeurIPS2025
more neg max Lyapunov exp => faster parallelized RNN convergence
Gonzalez, X., Kozachkov, L., Zoltowski, D. M., Clarkson, K. L., & Linderman, S. Predictability Enables Parallelization of Nonlinear State Space Models. https://openreview.net/forum?id=7AGXSlXcK6
Each one of you too could be publishing 100+ papers each year at #AI conferences, what are you waiting for? More is always better. Remember, this is how we get to AGI which then will tell us how to make money and save the planet. #neurips2025 #ICLR2026
https://www.theguardian.com/technology/2025/dec/06/ai-research-papers