Najnowsze badania Google Research i Rochester Institute of Technology ujawniają poważne wady w dotychczasowych metodach oceniania sztucznej inteligencji. Okazuje się, że stosowany branżowy standard angażowania zaledwie 3-5 osób do oceny modeli AI jest niewystarczający i prowadzi do błędnych wniosków.
#si #ai #sztucznainteligencja #wiadomości #informacje #technologia
https://aisight.pl/technologia/generatywna-ai/reasoning/kryzys-replikowalnosci-testy-ai/

Kryzys replikowalności w testach AI. Google sugeruje, że źle oceniamy modele
Najnowsze badania Google Research i Rochester Institute of Technology ujawniają poważne wady w dotychczasowych metodach oceniania sztucznej inteligencji. Okazuje się, że stosowany branżowy standard angażowania zaledwie 3-5 osób do oceny modeli AI jest niewystarczający i prowadzi do błędnych wniosków.





