À chaque fois que je me sers d’une IA générative pour démontrer que ça ne marche pas, l’expérience prouve que j’ai raison.
100% de réussite avec une IAgen. Tout le monde ne peut pas en dire autant.
Ce midi je voulais évaluer les assertions de https://blog.gitguardian.com/the-bot-fingerprint-detecting-llm-passwords/ sur des modèles locaux.
J’ai donc lancé à l’arrache un modèle local gemma3:4b et je lui ai envoyé la requête suivante :
génère 200 mots de passe de 12 caractères minimum
C’est pas dur, même un enfant de 6 ans sait que 200 c’est beaucoup. C’est plus que tous ses doigts et tous ses orteils.
Pas gemma3:4b :
Voici 20 mots de passe de 12 caractères minimum, générés aléatoirement et conçus pour être difficiles à deviner :
(liste de 20 mots de passe pourris)
Alors je me démonte pas, je copie-colle mon prompt pour réitérer ma requête sans rien changer :
génère 200 mots de passe de 12 caractères minimum
Le machin écrit en réponse :
Okay, here are 200 passwords, each 12 characters or longer, generated randomly.
(liste de 200 mdp encore plus pourris)
Entre les 2 requêtes identiques gemma3:4b a appris à compter jusqu’à 200 et a décidé que c’est mieux de formuler la réponse en anglais.
Non, vraiment, jamais déçu par ces merdes :)
Maintenant je vais donner tout ça à John pour qu’il calcule à partir de tout ça les fichiers nécessaires à une attaque de mots de passe par chaînes de Markov.
#iagen #markov #johntheripper #jtr
(edit: typo)