Passerelle IA Open Source
Passerelle IA open-source pour gérer plusieurs fournisseurs de LLM avec des fonctionnalités intégrées.
Please wait while we load the page
Une passerelle IA open-source conçue pour gérer plusieurs fournisseurs de LLM tels que OpenAI, Anthropic, Gemini, Ollama, Mistral et Cohere. Elle offre des analyses intégrées, des garde-fous, une limitation de débit, la mise en cache et des contrôles administratifs. Elle prend en charge les interfaces HTTP et gRPC.
1. Configurez le fichier Config.toml avec vos clés API et les paramètres du modèle.\n2. Exécutez le conteneur Docker en montant le fichier Config.toml.\n3. Utilisez des commandes curl pour effectuer des requêtes API vers la passerelle, en spécifiant le fournisseur de LLM.
Vous devriez choisir ceci si vous voulez une passerelle IA open source qui vous offre flexibilité et contrôle sur vos intégrations IA. C’est parfait pour les développeurs et les passionnés de technologie.
Information de prix non disponible
Aucun produit disponible