Des news de l'IA (LLM).

Vous connaissez sans doute Claude, cette alternative à ChatGPT, surtout connue pour son produit "Claude Code", qui, comme son nom l'indique est un "copilote" pour écrire, générer du code.

Il y a 2 plans payants pour les particuliers : un à environ 21€ et l'autre autour de 100€.

Récemment, les utilisateur-rices ont remarqué un "bug" : leurs tokens brûlaient beaucoup plus vite. Au lieu de pouvoir travailler avec pendant jusqu'à cinq heures (durée d'une session, après quoi on vous redonne des tokens), les sessions durent 15mn, 30mn. Au lieu d'envoyer 20 prompts, la limite est atteinte en 5 prompts, parfois en 1 seul prompt pour certain-es.

Eh bien figurez-vous que ça n'est pas un bug. Des ingénieurs d'Anthropic ont confirmé, sur X, avoir passé en silence une mise à jour qui réduit le nombre de tokens accordé par session pendant les horaires chargés (donc les horaires de travail). Résultat : quelques prompts suffisent pour se retrouver à attendre 4h pour avoir de nouveaux tokens. Pour en avoir plus, il faut passer sur la version à 100€ et même là, la limite est atteinte rapidement.

En secret. À des utilisateur-rices qui payent jusqu'à 100€ par mois. 😐

Edit : une source qui en parle https://www.techradar.com/ai-platforms-assistants/claude/claude-is-limiting-usage-more-aggressively-during-peak-hours-heres-what-changed

#LLM #IA #AI #Anthropic #Claude

Claude is limiting usage more aggressively during peak hours — here’s what changed

It’s all about managing peak times

TechRadar
@feudjais rien de très surprenant dans le monde du logiciel payant... Et par expérience pro, j'espère que les utilisateur.ices ont un moyen de vérifier leur facturation quotidienne voire horaire pour être sûr.es d'être correctement facturé.es...

@scaro ben que tu utilises un token ou 400k tu payes au mois.

Pour simplifier, dire "Salut" consommait des tokens avant, je ne sais pas combien et ça dépend des personnes, des conversations et des modèles, mais disons 1000 tokens. Audourd'hui, ça en consomme plus, disons au hasard 5000. Tout ce que tu sais c'est que ça consomme plus. Pourquoi exactement tu ne sais pas dans le détail. Et ensuite, tu vois le pourcentage utilisé par session (une tranche de cinq heures) et le pourcentage utilisé pour la semaine.

En 3-4 prompts (20 minutes) tu peux faire cramer 10% de ta semaine et 100% d'une session. Ça c'est si tu l'utilises pendant les heures de forte activité, donc ça impact surtout les gens qui l'utilisent pour travailler.

@feudjais c'est moi ou ça semble difficile de savoir combien cela te coûte réellement ? Même si tu paies (par ex) 25€/mois, si tu ne sais pas si tu vas pouvoir l'utiliser 20' ou 3h pendant le mois, si tu ne sais pas si tu vas pouvoir soumettre 4 ou 36 prompts pendant le mois, difficile d'évaluer le coût non ? Même si tu as une belle interface jolie qui te montre tout ça... Il n'y a une table qui indique cela ? Avec les plages horaires, les types de requête, etc. ?
@scaro en effet, c'est assez flou. Après je pense que ça se quantifie (moi je m'en fiche pour mon test). Il doit y avoir une stat du nombre de token brûlés à multiplier par le prix d'un token.
@feudjais et merci de prendre le temps pr moi !! 😁
@feudjais bonjour, ils ont confirmé comment, vous auriez une source ? Merci.
@feudjais Le point #Merdification de l'IA est arrivé \o/
@jeeynet les merdificateurs merdifiés !
@feudjais La réduction intervient durant.les.heures de pointe selon l'article cité : 5 à 11 am aux USA. Et en France ?
@mariemini en France c'est pendant nos heures de travail je ne sais plus exactement mais en gros entre 9h et 21h avec une pause à midi je crois. À vérifier.