Ollama
Execute LLMs de código aberto localmente com facilidade.
Please wait while we load the page
A Ollama permite executar modelos de linguagem grande (LLMs) de código aberto localmente. Agrupa os pesos do modelo, configuração e dependências num único pacote, facilitando o início. A Ollama suporta uma ampla gama de modelos e fornece uma interface simples de linha de comando para interagir com eles. Foi projetada para ser acessível a desenvolvedores e investigadores que querem experimentar LLMs sem depender de serviços baseados na nuvem.
Primeiro, descarregue e instale a Ollama a partir do site oficial. Depois, use a linha de comando para descarregar um modelo (por exemplo, `ollama pull llama2`). Finalmente, execute o modelo usando `ollama run llama2` e comece a conversar.
Deve escolher esta se quiser uma plataforma de IA versátil que suporte vários modelos e fluxos de trabalho de IA. É ótima para utilizadores que querem flexibilidade e controlo sobre as suas interações com IA.
Informação de preços não disponível
Página de estacionamento de domínios que apresenta nomes de domínio à venda e serviços relacionados.