Hugging Face - Qwen/QwQ-32B
LLM open-source de 32 milliards de paramètres avec des capacités de raisonnement améliorées.
Please wait while we load the page
QwQ-32B, de l'équipe Alibaba Qwen, est un nouveau LLM open-source de 32 milliards de paramètres atteignant un niveau de raisonnement DeepSeek-R1 via un apprentissage par renforcement à grande échelle. Il dispose d'un « mode réflexion » pour les tâches complexes et fait partie de la série Qwen, axée sur les capacités de raisonnement. Comparé aux modèles ajustés par instruction, QwQ excelle dans les tâches en aval, en particulier les problèmes difficiles. Il est construit sur Qwen2.5 et nécessite la dernière bibliothèque transformers de Hugging Face.
Pour utiliser QwQ-32B, chargez le modèle et le tokenizer en utilisant la bibliothèque transformers. Utilisez la fonction apply_chat_template pour formater les invites. Assurez-vous d'avoir la dernière version de transformers installée. Suivez les directives d'utilisation pour des performances optimales, y compris imposer une sortie réfléchie avec "<think>\n" et ajuster les paramètres d'échantillonnage.
Optez pour ceci si vous voulez des modèles linguistiques de pointe capables de gérer des requêtes complexes et de générer un contenu de haute qualité. C’est un choix de premier ordre pour les applications IA avancées.
Information de prix non disponible
Aucun produit disponible