Fatigué d’exposer mes arguments sur l’IAg 50 fois par jour… alors j’ai fini par rédiger ça:

https://ia-faq.fr/quand

L’idée c’est que oui, séparement chaque impact peut être mitigé. Mais tous ensemble… non

Les points ne sont pas classés par importance, mais plutôt par la difficulté à y répondre “oui, mais”

♥️ à toutes celles et ceux qui ont nourri ma réflexion sur ce réseau, et en particulier @flomaraninchi, @kfort, @Khrys, @vjousse, @n1k0, @Olivierb, @nicosomb, @jmaupetit, @mathildesaliou, …

Quand est-ce que j’utiliserai l’IA ?

Liste des raisons pour lesquels l’usage de l’IA générative n’est pas éthique.

@ced Je suis d'accord avec tout, je vais juste me permettre deux commentaires (secondaires) sur les points 3 et 4.

Quand je lis « (oui, la connaissance devrait être libre, financée par l’impôt, blablabla. Team OpenData/OpenSource/SciHub ici.) » entre parenthèses et qu'on parle de deux poids deux mesures, c'est justement le cœur du problème pour moi. Ils pillent de la connaissance sous droit d'auteur (dont on pense ce qu'on veut) ET libre de droit pour la monnayer. Pour moi c'est encore pire que simplement deux poids deux mesures par rapport à l'affaire Swartz.

Et sur la partie des hallucinations, elles sont consubstantielles à la conception des LLM modernes. OpenAI a admis du bout des lèvres dans un de ses articles que c'est un problème insoluble. Je pense que c'est important de le rappeler.

@Enthalpiste tu as complètement raison sur les deux points (il y a avait un papier d’Apple aussi sur l’hallucination), mais je voulais rester (relativement) bref, et ne pas trop insister sur les arguments sur lesquels les gens se rebiffent habituellement. L’idée c’est vraiment: vous êtes pas d’accord avec ça, ok, mais il reste 12 points.
Si j’ai le courage, j’aimerai que chaque point mène à terme sur une page plus détaillée et argumenté, et a minima je veux sourcer toutes les affirmations.