Je viens d'avoir, désormais officiellement, mes objectifs du prochain trimestre. L'un d'entre eux concerne l'utilisation de l'IA générative.

J'ai prévenu mon supérieur direct que cet objectif restera à zéro.

J'ai dans le même mouvement envoyé un mail à ma section syndicale : @SolInfoNat je compte sur vous pour m'épauler en cas de besoin.

#resistIAGen

Une amie juriste me dit qu'un refus d'objectif pourrait servir de raison à un licenciement. Je vais vraiment avoir besoin de force, là.

Edit : on s'est appelées ce soir. Avec plus d'infos, elle me dit qu'elle ne pense pas qu'il y ait de risque pour l'instant; faudra voir au semestre suivant si ça peut vraiment poser souci.

@orange_lux Tu as un CSE ? Si oui, les élu·es en disent quoi ?
@zii_0 les élu'es du CSE sont affilié'es CFE CGC (un syndicat de cadres), je pense pas devoir chercher très loin pour imaginer qu'ils soient à fond dedans.
@orange_lux Ce n'est clairement pas un syndicat que je porte très haut dans mon cœur (je veux dire, c'est la confédération du syndicat de police Alliance) mais après suivant les sections locales, il y en a des fois des "biens". Je te posais la question parce que pour introduire une nouvelle technologie, l'employeur a l'obligation de d'abord consulter le CSE, même pour une expérimentation, et tant que ce n'est pas fait, l'employeur n'a légalement pas le droit de déployer la technologie. Du coup si la consultation n'a pas eu lieu et que tu trouves des allié·es au CSE, ça pourrait à minima te faire gagner un peu de temps.

@zii_0 dans la boîte, je suis quasiment seule apparemment à ne pas apprécier l'ia générative. Je n'ai aucune illusion sur le support que j'aurai en interne.

Et du coup, je pense qu'elleux ont validé l'utilisation de cette saloperie.

@orange_lux Ah mince si tu es complètement isolée ça complique tout c'est sûr.

Tu peux peut-être demander à consulter l'avis du CSE sur la question, voir quelles sont les réserves qu'iels ont soulevées (s'iels en ont soulevées). Ça te permet d'approcher le CSE avec un côté naïf qui t'immunise partiellement (tu ne fais que poser des questions). Comme ça, s'iels répondent qu'iels ont pas été consulté·es, tu peux même sortir la carte « ah bon ? C'est bizarre on m'avait dit que c'était obligatoire pourtant ». Après ça dépend à quel point tu es à l'aise, parce que quoi qu'il arrive ça expose mécaniquement, au moins un peu, surtout si derrière tu veux aller plus loin.

@zii_0 @orange_lux dans le même goût, et selon le milieu dans lequel tu est , un angle peut être de questionner / remettre en question les garanties de sécurité et de confidentialité. Quelle est le modèle utilisé, sur quelle infrastructure il tourne , par quel entreprise les données peuvent-elles accessibles…

@jaunmakenro @zii_0 Malheureusement c'est le genre de sujet que j'ai déjà abordé, et la réponse a été plus que décevante :

https://eldritch.cafe/@orange_lux/115269964500354442

Lux :flag_genderfluid: (@[email protected])

Je suis faatiguée. Quand j'ai soulevé ce matin, auprès de ma boîte, qu'il était impossible en tant que dev de s'assurer que le code généré par des LLMs n'était pas sous copyright, la réponse a été rapide. Avant : > Be mindful of licensing and copyright. AI models are trained on vast amounts of public code. Ensure that the generated code doesn't violate any open-source licenses or introduce copyrighted material into our proprietary codebase. Après : > Be mindful of licensing and copyright. AI models are trained on vast amounts of public code. Ensure that the included libraries do not violate any open-source licenses.

Eldritch Café
@jaunmakenro @zii_0 quant à la confidentialité, sans avoir trop cherché, je suis convaincue qu'ils ont trouvé une solution qui les satisfasse à ce sujet, je n'aurai pas de levier d'appui.