Je viens d'avoir, désormais officiellement, mes objectifs du prochain trimestre. L'un d'entre eux concerne l'utilisation de l'IA générative.

J'ai prévenu mon supérieur direct que cet objectif restera à zéro.

J'ai dans le même mouvement envoyé un mail à ma section syndicale : @SolInfoNat je compte sur vous pour m'épauler en cas de besoin.

#resistIAGen

Une amie juriste me dit qu'un refus d'objectif pourrait servir de raison à un licenciement. Je vais vraiment avoir besoin de force, là.

Edit : on s'est appelées ce soir. Avec plus d'infos, elle me dit qu'elle ne pense pas qu'il y ait de risque pour l'instant; faudra voir au semestre suivant si ça peut vraiment poser souci.

@orange_lux @SolInfoNat Je pense que tu peux accepter l'objectif, et ne pas le remplir pour autant.

Est-ce que ta boîte a donné TOUS les détails d'usage des IAs génératives demandés ?

@pierstoval @SolInfoNat je sais qu'au besoin, même si je ne fais rien, mon supérieur direct voudrait bien me couvrir.

Mais aussi, on nous a donné à chacun'e une clé d'identificaton personnelle, ils peuvent plus que probablement tracker l'utilisation des outils.

Dans l'objectif de ce trimestre, j'ai du détail sur la participation à des réunions, à des mises à jour spécifiques de projets avec les directives à donner aux IA (les fichiers "agents.md") et de développement avec l'IA.

@pierstoval @SolInfoNat quant à "accepter" l'objectif, je n'ai pas de moyen de faire autrement. Ma seule option c'est le remplir ou pas.

@orange_lux @pierstoval @SolInfoNat

Idée ?

Ce n'est pas très fair use, mais tu pourrais interroger l'IA (donc tracking donnera un faux résultat d'utilisation) et noter tous les résultats de l'IA en mettant en valeur à chaque fois que l'algorithme se trompe avec un rapport final de fin d'année -> justification de la non-reprise des résultats de l'IA et mesure du temps perdu à cause de l'IA.

Je ne sais pas si c'est faisable dans ton domaine / mission, c'est une idée en passant comme ça...

@clement_moignard @pierstoval @SolInfoNat pas vraiment malheureusement.

Et au-delà de ça, même si l'IA marchait correctement à 100%, jene voudrais toujours pas l'utiliser.

@orange_lux @pierstoval @SolInfoNat

Je suis d'accord, ce n'est pas fair use...

@clement_moignard @orange_lux @SolInfoNat
C'est pas une mauvaise idée en soi, mais si j'essaye de me mettre dans la tête d'un manager, je me dis qu'on peut aussi analyser les prompts et les juger "mauvais", ce qui peut impacter de facto les résultats 😕

@pierstoval @orange_lux @SolInfoNat

Oh, oui, tu as raison. Je pensais à des usages sans prompt comme par exemple la traduction ou la transcription.

@orange_lux Tu as un CSE ? Si oui, les élu·es en disent quoi ?
@zii_0 les élu'es du CSE sont affilié'es CFE CGC (un syndicat de cadres), je pense pas devoir chercher très loin pour imaginer qu'ils soient à fond dedans.
@orange_lux Ce n'est clairement pas un syndicat que je porte très haut dans mon cœur (je veux dire, c'est la confédération du syndicat de police Alliance) mais après suivant les sections locales, il y en a des fois des "biens". Je te posais la question parce que pour introduire une nouvelle technologie, l'employeur a l'obligation de d'abord consulter le CSE, même pour une expérimentation, et tant que ce n'est pas fait, l'employeur n'a légalement pas le droit de déployer la technologie. Du coup si la consultation n'a pas eu lieu et que tu trouves des allié·es au CSE, ça pourrait à minima te faire gagner un peu de temps.

@zii_0 dans la boîte, je suis quasiment seule apparemment à ne pas apprécier l'ia générative. Je n'ai aucune illusion sur le support que j'aurai en interne.

Et du coup, je pense qu'elleux ont validé l'utilisation de cette saloperie.

@orange_lux Ah mince si tu es complètement isolée ça complique tout c'est sûr.

Tu peux peut-être demander à consulter l'avis du CSE sur la question, voir quelles sont les réserves qu'iels ont soulevées (s'iels en ont soulevées). Ça te permet d'approcher le CSE avec un côté naïf qui t'immunise partiellement (tu ne fais que poser des questions). Comme ça, s'iels répondent qu'iels ont pas été consulté·es, tu peux même sortir la carte « ah bon ? C'est bizarre on m'avait dit que c'était obligatoire pourtant ». Après ça dépend à quel point tu es à l'aise, parce que quoi qu'il arrive ça expose mécaniquement, au moins un peu, surtout si derrière tu veux aller plus loin.

@zii_0 @orange_lux dans le même goût, et selon le milieu dans lequel tu est , un angle peut être de questionner / remettre en question les garanties de sécurité et de confidentialité. Quelle est le modèle utilisé, sur quelle infrastructure il tourne , par quel entreprise les données peuvent-elles accessibles…

@jaunmakenro @zii_0 Malheureusement c'est le genre de sujet que j'ai déjà abordé, et la réponse a été plus que décevante :

https://eldritch.cafe/@orange_lux/115269964500354442

Lux :flag_genderfluid: (@[email protected])

Je suis faatiguée. Quand j'ai soulevé ce matin, auprès de ma boîte, qu'il était impossible en tant que dev de s'assurer que le code généré par des LLMs n'était pas sous copyright, la réponse a été rapide. Avant : > Be mindful of licensing and copyright. AI models are trained on vast amounts of public code. Ensure that the generated code doesn't violate any open-source licenses or introduce copyrighted material into our proprietary codebase. Après : > Be mindful of licensing and copyright. AI models are trained on vast amounts of public code. Ensure that the included libraries do not violate any open-source licenses.

Eldritch Café
@jaunmakenro @zii_0 quant à la confidentialité, sans avoir trop cherché, je suis convaincue qu'ils ont trouvé une solution qui les satisfasse à ce sujet, je n'aurai pas de levier d'appui.
@zii_0 @orange_lux Oui, première étape vérifier que les élus CSE ont été informés et consultés sur l’introduction de cette nouvelle technologie.
Deuxième étape : voir avec ton syndicat.
3e : vérifier ce que dit ton contrat et les autres réglementations internes à l’entreprise. Un angle d’attaque pourrait être que n’ayant pas été formé, tu ne sais pas utiliser cet outil.

@FredricT @zii_0 l'objectif tiens sur la formation elle-même, l'angle d'attaque ne sera pas bon.

Ce que je voudrais faire valoir c'est plus une clause de conscience.

@orange_lux @zii_0 Je comprends bien, j’ai le même problème 🙄 Pour l’instant ça reste dans un cadre de volontariat, mais je me méfie de la suite…
En alternative à l’objection de conscience, tu as l’angle choisi par une collègue : elle questionne tout. Quel IA a été choisie ? Quel modèle précisément ? Pourquoi celle-ci plutôt qu’une autre ? Comment marche-t-elle ? Quels sont les risques pour la sécurité ? Que doit-on en faire ? Quel est l’objectif attendu ?
Ça peut paraît exagéré, mais en fait c’est la situation qui est délirante : on largue un outil aux travailleurs, et on leur colle des indicateurs d’usage de l’outil en objectif. Est-ce qu’on imaginerait ça pour une autre technologie ? Est-ce qu’on a un jour posé un ordinateur sur le bureau de quelqu’un qui ne s’en servait pas, en lui disant « maintenant, tu devras t’en servir 3 fois par jour » ?
Toutes ces questions sont efficaces pour faire ressortir le cœur du problème : y a souvent pas de projet précis au-delà de « tout le monde fait de l’IA, on est morts si on ne suit pas ! »
@orange_lux
Tu as le droit de contester le moyen d'évaluation de l'objectif.
Dans la majorité des cas, en pinaillant même pas beaucoup, tu le fais annuler.
@jenesuispersonne les objectifs sont clairs et atteignables (ça a toujours été le cas), je suis pas sûre d'avoir un levier à ce niveau.