Les concepteurs & les patrons des IA aiment répéter que si leurs solutions sont racistes & biaisées, c’est parce que les usagers & les travailleurs du clic qui produisent la data d’entraînement sont racistes & biaisés. Galactica de Meta atteste du contraire. Entraîné sur un corpus de sources de qualité, le modèle a sorti des résultats si mauvais qu’on a dû le fermer.https://arstechnica.com/information-technology/2022/11/after-controversy-meta-pulls-demo-of-ai-model-that-writes-scientific-papers/
New Meta AI demo writes racist and inaccurate scientific literature, gets pulled

Galactica language model generated convincing text about fact and nonsense alike.

Ars Technica
Yann LeCun, toujours prêt à reconnaître les erreurs d’autrui, a tout de suite attribué cet échec…aux utilisateurs de la démo.😅
More on the Galactica debacle (and thin-skinned Yann LeCun). “This all relates to academic fields where criticism is suppressed, where research critique is taken as personal attacks. LeCun seems to have that same attitude (…). It’s disappointing, but all too common, to see scientists who are opposed to criticism, which is essential to the scientific process.”https://statmodeling.stat.columbia.edu/2022/11/23/bigshot-chief-scientist-of-major-corporation-cant-handle-criticism-of-the-work-he-hypes/
Bigshot chief scientist of major corporation can’t handle criticism of the work he hypes. | Statistical Modeling, Causal Inference, and Social Science