新手上路 2026-2-3 17:14
主楼
[资源名称]
vllm - 一个高吞吐量、内存高效的 LLM 推理和服务引擎
[资源来源]
github.com
[资源介绍]
GitHub - vllm-project/vllm: A high-throughput and memory-efficient inference and serving engine for LLMs
A high-throughput and memory-efficient inference and serving engine for LLMs - vllm-project/vllm
- vllm - 一个高吞吐量、内存高效的 LLM 推理和服务引擎。
[资源合集]
😀 😊 😵‍💫 😡 🤝 🙏 👍 👎 ❤️