Les IA génératives, c'est 💩 parce que :

1. Les IAg produisent l'apparence d'une conversation dont le contenu informationnel est structurellement indifférent à la vérité.
2. Les IAg détruisent en premier lieu nos écosystèmes informationnels
3. Les IAg sont des systèmes socio-techniques à l'empreinte écologique croissante par leur consommation intrinsèque comme par leurs rétroactions.
4. Les IAg ne sont que l'ultime avatar d'un milieu technique numérique qui se déploie à la faveur d'un impensé tenace.

1/10 : Ce que je sais des IA génératives

#ResistIA #ResistIAgen #technocritique #ecologie #politique #information

1.a Lorsque les informations générées par IA sont correctes, il est impossible de déterminer si c'est le fruit du hasard, d'un vulgaire recrachage de données existantes ou bien d'un interprétation pertinente. Lorsque les IA génératives donnent de bonnes réponses, on ne peut pas savoir si c'est pour de bonne raisons.

Alban Leveau-Vallier : https://www.youtube.com/watch?v=a9sQxhOwz0U

2/10 : Ce que je sais des IA génératives

Le paradoxe ChatGPT : une machine qui répond sans comprendre ?

YouTube

@julienfalgas Question sincère : n'est-ce pas le cas aussi des humains ?

Quand un militant politique, un élu, un haut-fonctionnaire, un intervenant médiatique donne une information incorrecte, il est impossible de déterminer si c'est le fruit d'un vulgaire recrachage idéologique, d'une réflexion pertinente, d'un raisonnement incomplet, d'un choix assumé...

Et pour autant, nous en faisons quelque chose de ces informations. Charge à nous d'avoir une méthode pour trier le faux du vraisemblable.

@NicolasDangelo Lorsqu'un·e de nos semblables exprime une idée, nous pouvons le situer dans un contexte, évaluer les arguments et les sources, interroger cette personne et ses intentions. Bref, exercer notre jugement critique.

Face à une proposition générée par IA, nous n'avons pas les moyens d'un tel jugement. Il n'y a pas d'intention (sinon celles induites par des humains dans la phase d'entrainement et de fine-tuning). Il n'y a pas de contexte, sinon celui du prompt.

Même le bullshit de Donald Trump contient davantage d'information que celui de ChatGPT.

@julienfalgas Si je demande à une IA de me générer une note sur un cadre juridique, ou une analyse sur une situation spécifique, ne puis-je pas a posteriori assurer un contrôle sur la qualité informationnelle de cette note, comme je pourrai le faire de la production d'un collegue humain que je ne connais pas ?

Je suis à 100% d'accord sur les limites de l'IA, mais je ne comprends pas en quoi l'argument devrait conduire à la position strictemement opposée : celle de jeter l'IA à la poubelle.

@NicolasDangelo Le travail d'un·e collègue engage sa responsabilité. Même sans le connaître, la confiance qu'on lui accorde se fonde sur un titre, des compétences, un recrutement, toute une organisation du travail qui valide sa position et ses prérogatives. On peut être plus méfiant lors de la première collaboration, mais progressivement on apprendra à savoir si on peut lui faire confiance, à identifier ses qualités ou des faiblesses. On pourra l'aider à progresser.

Les systèmes d'IAg n'offrent rien de comparable. Ce n'est qu'une prédation de plus sur les cultures professionnelles déjà bien mises à mal.