Les concepteurs & les patrons des IA aiment répéter que si leurs solutions sont racistes & biaisées, c’est parce que les usagers & les travailleurs du clic qui produisent la data d’entraînement sont racistes & biaisés. Galactica de Meta atteste du contraire. Entraîné sur un corpus de sources de qualité, le modèle a sorti des résultats si mauvais qu’on a dû le fermer.https://arstechnica.com/information-technology/2022/11/after-controversy-meta-pulls-demo-of-ai-model-that-writes-scientific-papers/
