跳到主要内容
Open Docs
AI
硬件
前端
中间件
工具
vllm文档(翻译)
服务
使用KServe部署
使用KServe部署
vLLM 可以在Kubernetes上用 KServe 部署,实现高度可扩展的分布式模型服务。
请看
kserve指南
上一页
云端用SkyPilot运行
下一页
使用NVIDIA Triton部署