#IA Il est con #Mistralai J'ai utilisé le chat hier qui m'a vraiment aidé a résoudre mon souci de desktop. Donc, pourquoi ne pas l'installer en local plutôt que d'utiliser la bande passante pour si peu. Je demande à Mistral comment l'installer sur ma #Debian et il me répond :
"git clone https://github.com/nom-du-depot/client-lechat.git"
Mais quel con ce #Mistralai !
Après lui avoir signalé, il comprend ma frustration et m'indique alors qu'il n'est pas disponible pour une installation en local. Mais quel con!!!
Par contre, #Deepseek est lui très malin et coopératif. A la même demande, il me répond qu'il n'est pas un logiciel installable. Cependant, il me suggère d'installer #Ollama un modèle #OpenSource. On me dira encore que je suis pro-asiatique, mais qu'y puis-je si le modèle chinois est vraiment top? J'ai commencé avec #Mistralai pourtant . Ceci dit aucune chance que j'aille vers une #Ia #Ricaine.
@domdel
Sur Apple, il suffit d’utiliser LocallyAI pour faire tourner Mistral en local