Nexa Sdk
本地运行任何 AI 模型——文本、语音、视觉理解和图像生成。
Why Choose Nexa Sdk?
如果你想在设备本地运行任何 AI 模型,无论是文本、语音还是图像,支持多种硬件和格式,这个很合适。适合开发者需要强大灵活的本地 AI 推理。
Nexa Sdk 介绍
这是什么 Nexa Sdk?
Nexa SDK 是一个设备端推理框架,可在任何设备上运行任何模型,支持多种后端。支持 CPU、GPU、NPU,后端支持 CUDA、Metal、Vulkan 和 Qualcomm NPU。支持多模态输入,包括文本📝、图像🖼️和音频🎧。SDK 包含兼容 OpenAI 的 API 服务器,支持基于 JSON schema 的函数调用和流式传输。支持 GGUF、MLX、Nexa AI 自有 .nexa 格式,实现跨平台高效量化推理。
如何使用 Nexa Sdk?
- 下载并按照 https://sdk.nexa.ai 上的说明操作。\n- 在终端运行命令。\nGitHub 仓库:https://github.com/NexaAI/nexa-sdk
为什么选择 Nexa Sdk?
如果你想在设备本地运行任何 AI 模型,无论是文本、语音还是图像,支持多种硬件和格式,这个很合适。适合开发者需要强大灵活的本地 AI 推理。
Nexa Sdk 功能特点
AI Chat Generator
- ✓本地运行多模态模型(文本、语音、视觉理解和图像生成)
- ✓集成设备端 AI 应用
- ✓首个支持 NPU 的多模态推理栈
- ✓支持 Hugging Face 模型
- ✓支持 GGUF、MLX、Nexa AI 自有 .nexa 格式
- ✓兼容 OpenAI 的 API 服务器
常见问题
价格
开源
没有可用描述。
企业定制价格
没有可用描述。