首页
版块
搜索
注册
登录
AirLLM - AirLLM 优化推理内存使用,允许 70B 大型语言模型在单个 4GB GPU 显卡上运行推理,无需量化、蒸馏和剪枝
宝藏资源
收藏
回帖
github.com
新手上路
10小时前
主楼
[资源名称]
AirLLM - AirLLM 优化推理内存使用,允许 70B 大型语言模型在单个 4GB GPU 显卡上运行推理,无需量化、蒸馏和剪枝
[资源来源]
github.com
[资源介绍]
* AirLLM - AirLLM 优化推理内存使用,允许 70B 大型语言模型在单个 4GB GPU 显卡上运行推理,无需量化、蒸馏和剪枝。
[资源合集]
精选优秀开源库列表,可用于部署、监控、版本控制和扩展机器学习系统
回复
点赞
举报
😀
😊
😵💫
😡
🤝
🙏
👍
👎
❤️
回复