新手上路 6小时前
主楼
[资源名称]
Inference - 一个快速、生产就绪的计算机视觉推理服务器,支持部署许多流行的模型架构和微调模型
[资源来源]
github.com
[资源介绍]
* Inference - 一个快速、生产就绪的计算机视觉推理服务器,支持部署许多流行的模型架构和微调模型。使用 Inference,您可以使用 Docker 在自己的硬件上部署 YOLOv5、YOLOv8、CLIP、SAM 和 CogVLM 等模型。
[资源合集]
😀 😊 😵‍💫 😡 🤝 🙏 👍 👎 ❤️