Hugging Face - Qwen/QwQ-32B
LLM 32B de código aberto com capacidades de raciocínio aprimoradas.
Please wait while we load the page
QwQ-32B, da equipa Alibaba Qwen, é um novo LLM open-source de 32B que alcança raciocínio ao nível DeepSeek-R1 através de Aprendizagem por Reforço escalada. Apresenta um "modo de pensamento" para tarefas complexas e faz parte da série Qwen, focando-se em capacidades de raciocínio. Comparado com modelos ajustados por instruções, o QwQ destaca-se em tarefas downstream, especialmente problemas difíceis. É construído sobre a arquitetura Qwen2.5 e requer a versão mais recente da biblioteca transformers da Hugging Face.
Para usar o QwQ-32B, carregue o modelo e o tokenizer usando a biblioteca transformers. Utilize a função apply_chat_template para formatar prompts. Assegure que tem a versão mais recente dos transformers instalada. Siga as diretrizes de uso para desempenho ótimo, incluindo impor uma saída reflexiva com "<think>\n" e ajustar os parâmetros de amostragem.
Opte por este se quiser modelos de linguagem de ponta que possam lidar com consultas complexas e gerar conteúdo de alta qualidade. É uma escolha principal para aplicações avançadas de IA.
Informação de preços não disponível
Página de estacionamento de domínios que apresenta nomes de domínio à venda e serviços relacionados.