I'll be honest, while I really enjoyed #NeurIPS2025, the sheer scale made it hard to get a ton of scientific value out of it. Looking forward to attending more small and intimate events like #ALT2026 and #FORC2026, where one can engage deeply with the pertinent communities.

RE: https://bsky.app/profile/did:plc:2ke2vvlvwdyb5fyqlj27yguk/post/3mdvhdavr6c2h
🎉 Breaking News: AI Conference Packs More #Hallucinations Than a Psychedelic Trip 🍄🎓! NeurIPS 2025 brings you the latest in machine learning, complete with 100 delightful delusions, courtesy of GPTZero's imaginary exposé! 🤖✨ Who needs reality when you've got AI to fabricate it for you? 🙃
https://gptzero.me/news/neurips/ #AIConference #NeurIPS2025 #MachineLearning #GPTZero #HackerNews #ngated
GPTZero finds 100 new hallucinations in NeurIPS 2025 accepted papers

GPTZero's analysis 4841 papers accepted by NeurIPS 2025 show there are at least 100 with confirmed hallucinations

AI Detection Resources | GPTZero

GPTZero finds 100 new hallucinations in NeurIPS 2025 accepted papers

https://gptzero.me/news/neurips/

#HackerNews #GPTZero #NeurIPS2025 #Hallucinations #AIresearch #MachineLearning

GPTZero finds 100 new hallucinations in NeurIPS 2025 accepted papers

GPTZero's analysis 4841 papers accepted by NeurIPS 2025 show there are at least 100 with confirmed hallucinations

AI Detection Resources | GPTZero

RLVR promises faster sampling but leaves reasoning untouched—base LLMs still carry the heavy‑lifting of trajectories. The paper (NeurIPS 2025) shows that gains come from smarter teacher‑distillation and minor architectural tweaks, not a new reasoning engine. Curious how sampling efficiency separates from true understanding? Dive into the details. #RLVR #SamplingEfficiency #LLMReasoning #NeurIPS2025

🔗 https://aidailypost.com/news/rlvr-lifts-sampling-efficiency-not-reasoning-base-models-hold

Wan-Move: Trình chỉnh sửa video AI nguồn mở có khả năng **kiểm soát chuyển động điểm** (NeurIPS 2025). Mở rộng Wan-I2V để tạo video **5 giây độ phân giải 480p** sánh ngang hệ thống thương mại Kling 1.5 Pro. Đặc điểm nổi bật: Kỹ thuật **Định hướng đường dẫn tiềm năng**, tương thích với mô hình hiện tại như Wan-I2V-14B mà không cần thay đổi kiến trúc, kiểm soát chi tiết **trên từng vùng** bằng tọa độ điểm, và bộ kiểm tra **MoveBench** cho đánh giá chính xác. #AIVideo #NeurIPS2025 #MôHìnhMáyHọc #AI

Nauka zjadana przez własny ogon. Eksperci alarmują: AI zalewa badania naukowe bezwartościowym chłamem

Świat nauki o sztucznej inteligencji stoi nad przepaścią. Paradoksalnie, to właśnie narzędzia AI, które miały przyspieszyć postęp, doprowadzają do paraliżu badawczego.

Renomowane konferencje toną w tysiącach prac generowanych taśmowo przez modele językowe, a wyłowienie wartościowych odkryć staje się wręcz niemożliwe.

Hany Farid, profesor informatyki na Uniwersytecie Kalifornijskim w Berkeley, w rozmowie z „The Guardian” nie przebiera w słowach. Sytuację w branży nazywa „szaleństwem” i przyznaje, że obecnie odradza swoim studentom specjalizację w dziedzinie AI. Powód? Niemożność przebicia się z rzetelną, przemyślaną pracą przez mur „naukowej papki”.

113 publikacji w rok. Geniusz czy spamer?

Symbolem problemu stał się przypadek Kevina Zhu, świeżo upieczonego licencjata z Berkeley, który chwali się współautorstwem aż 113 prac naukowych opublikowanych w ciągu jednego roku. Dla porównania, rzetelne przeczytanie stu technicznych artykułów w rok jest wyzwaniem dla eksperta, nie mówiąc o ich napisaniu. Profesor Farid nazwał dorobek Zhu „katastrofą”, sugerując, że niemożliwe jest wniesienie merytorycznego wkładu w taką liczbę badań w tak krótkim czasie.

Mechanizm tego „sukcesu” opiera się na programie Algoverse, w którym studenci płacą ponad 3 tysiące dolarów za 12-tygodniowy kurs, a ich prace są masowo wysyłane na konferencje. Efekt? Prestiżowa konferencja NeurIPS, która w 2020 roku otrzymała poniżej 10 tysięcy zgłoszeń, w tym roku została zalana ponad 21,5 tysiącem prac. Aż 89 z nich to dzieła zespołu Zhu.

AI nie zabiło edukacji, ono tylko pokazało jej zwłoki. Mocna diagnoza profesora z Teksasu

„Vibe” zamiast nauki

Zjawisko to eksperci określają mianem „vibe coding” – bezrefleksyjnego używania AI do generowania kodu i treści, byle tylko coś działało i wyglądało profesjonalnie. Sam Zhu, pytany o udział AI w tworzeniu prac, unikał jednoznacznej odpowiedzi, zasłaniając się używaniem „standardowych narzędzi produktywności”.

Konsekwencje są dramatyczne. Recenzenci, często sami posiłkujący się AI, przepuszczają prace z halucynacjami, zmyślonymi cytatami, a nawet absurdalnymi grafikami, które nigdy nie powinny trafić do druku. Jak podsumowuje prof. Farid: „Jako przeciętny czytelnik nie masz szans zrozumieć, co dzieje się w literaturze naukowej. Stosunek sygnału do szumu wynosi praktycznie jeden do jednego”.

AI nie jest magiczną różdżką, a lustrem. To, co w nim zobaczysz, zależy tylko od ciebie

#Algoverse #generatywnaAIWNauce #HanyFarid #jakośćBadańNaukowych #KevinZhu #naukaAI #NeurIPS2025 #news

Ending a fantastic week at #NeurIPS2025. Saw a lot of friends (old and new), ate a lot of tacos, gave away a lot of stickers. See you at the next one!

Theoretical Insights on Training Instability in Deep Learning TUTORIAL
https://uuujf.github.io/instability/

gradient flow-like regime is slow and can overfit while large (but not too large) step size can trasiently go far, converge faster, and find better solutions #optimization #NeurIPS2025

Training Instability

Some of my favorites from #NeurIPS2025

more neg max Lyapunov exp => faster parallelized RNN convergence
Gonzalez, X., Kozachkov, L., Zoltowski, D. M., Clarkson, K. L., & Linderman, S. Predictability Enables Parallelization of Nonlinear State Space Models. https://openreview.net/forum?id=7AGXSlXcK6

Predictability Enables Parallelization of Nonlinear State Space Models

The rise of parallel computing hardware has made it increasingly important to understand which nonlinear state space models can be efficiently parallelized. Recent advances have shown that...

Each one of you too could be publishing 100+ papers each year at #AI conferences, what are you waiting for? More is always better. Remember, this is how we get to AGI which then will tell us how to make money and save the planet. #neurips2025 #ICLR2026

https://www.theguardian.com/technology/2025/dec/06/ai-research-papers

Artificial intelligence research has a slop problem, academics say: ‘It’s a mess’

AI research in question as author claims to have written over 100 papers on AI that one expert calls a ‘disaster’

The Guardian