@orange_lux @zii_0 Je comprends bien, j’ai le même problème 🙄 Pour l’instant ça reste dans un cadre de volontariat, mais je me méfie de la suite…
En alternative à l’objection de conscience, tu as l’angle choisi par une collègue : elle questionne tout. Quel IA a été choisie ? Quel modèle précisément ? Pourquoi celle-ci plutôt qu’une autre ? Comment marche-t-elle ? Quels sont les risques pour la sécurité ? Que doit-on en faire ? Quel est l’objectif attendu ?
Ça peut paraît exagéré, mais en fait c’est la situation qui est délirante : on largue un outil aux travailleurs, et on leur colle des indicateurs d’usage de l’outil en objectif. Est-ce qu’on imaginerait ça pour une autre technologie ? Est-ce qu’on a un jour posé un ordinateur sur le bureau de quelqu’un qui ne s’en servait pas, en lui disant « maintenant, tu devras t’en servir 3 fois par jour » ?
Toutes ces questions sont efficaces pour faire ressortir le cœur du problème : y a souvent pas de projet précis au-delà de « tout le monde fait de l’IA, on est morts si on ne suit pas ! »