Modelo de linguagem de código aberto supera GPT-4 Turbo em problemas de codificação pela primeira vez
O Coder V2, desenvolvido pela chinesa DeepSeek, foi treinado com mais de 300 linguagens de programação, alcançando pontuações de 90,2 e 76,2 nos benchmarks HumanEval e MBPP+
hashtags: #InteligênciaArtificial #CódigoAberto #CoderV2 #DeepSeek #HumanEval #MBPP_plus
Modelo de linguagem de código aberto supera GPT-4 Turbo em problemas de codificação pela primeira vez · NewsletterOficial
O Coder V2, desenvolvido pela chinesa DeepSeek, foi treinado com mais de 300 linguagens de programação, alcançando pontuações de 90,2 e 76,2 nos benchmarks HumanEval e MBPP+, respectivame...
