Comment réguler l'intelligence artificielle ? Je vous suggère vivement d'écouter cette conférence stimulante du sociologue @casilli "Effective regulation and the real risks of AI"

https://www.youtube.com/watch?v=MAhIz1i58dQ&ab_channel=InstitutoCi%C3%AAnciasSociais-UniversidadedeLisboa

Palestra Sedas Nunes 2023

YouTube
À grands traits : le package régulatoire sur l'IA porte encore sur des risques souvent fantasmés. Plusieurs personnalités s'en font encore régulièrement les porte-voix, à grand coup d'analogie entre IA et bombe nucléaire (cf. Suleyman dont je parlais récemment, qui poussait pour des traités idoines dans l'IA) ou d'appels à faire une pause par crainte d'une Artificiel General Intelligence (AGI) trop puissante
Certains d'entre eux comme Sam Altman, plaident pour plus de régulation tout en déployant un gigantesque effort de lobbying pour en diminuer la portée. Ou promeuvent une régulation main dans la main avec les industriels du secteur – juges et partis – un pari qui a peu de chances d'être gagné
Les régulations qui en résultent sont ex-post (on régule quand les choses sont déjà là) et axées sur les risques (Cf. AI Act). Elles interrogent peu les conditions de production de l'IA : la machine dans la machine. Trois points aveugles que Casilli propose de reconsidérer : 1/ la data, 2/ le travail, 3/ la Terre ("Earth")
L'exposé de Casilli est édifiant. Derrière les IA, on le sait, ce sont des millions (150 millions) de travailleurs souvent précaires, qui annotent, lisent et trient les contenus. Au Brésil, ils prennent des photos de « cacas de chien » pour entraîner les aspirateurs autonomes.
À Madagascar, ils scrutent les vols en lieu et place des « smart caméras » installées dans les magasins français. Toute IA demande évidemment une phase de supervision humaine. La question est : quand est-ce qu'on arrête ? Et bien parfois, on ne s'arrête pas : il y aura toujours ces humains « dans la boucle. » Et des données qui transitent de par le monde, souvent du Sud vers le nord d'ailleurs
Enfin, il y a la question écologique. Entraîner un modèle consomme autant que tout le cycle de vie d'une voiture. Les IA génératives boivent énormément d'eau (ça reste faible au total, mais ça croît), demandent autant d'électricité (l'équivalent de celle d'un pays comme l'Argentine en 2017, selon certains analystes – c'est moi qui rajoute)
La régulation n'est pas destinée à rester ex post. Casilli dresse une série de propositions qui en attestent. Une régulation ex ante, axée sur les droits fondamentaux plutôt que les risques, à la manière de ce que propose Frank Pasquale, peut s'envisager. La due diligence (Devoir de vigilance) impose par ailleurs aux entreprises d'être comptables des conditions de travail de leurs sous-traitants : l'IA est concernée.

La question de la durabilité de l'exploitation minière enfin (cf. le Critical raw material act – CRMA), est aussi un levier

De quoi aller plus loin que la plupart des débats sans portée à propos de l'éthique de l'IA