[视频作者] titan909
[视频时长] 5:43
[视频类型] 计算机技术
安装部署: docker run -d --name llama3 --gpus all -p 8080:8080 -e OLLAMA_BASE_URL=http://127.0.0.1:11434 bucess/ollama:1 停止服务: docker stop llama3 启动服务: docker start llama3 手机安装运行Llama3:【手机安装Meta最新开源的Llama3大语言模型(无需联网)】 https://www.bilibili.com/video/BV18m421
![[图]4060Ti 16G显卡安装运行Llama3-8B-instruct大语言模型](https://i1.hdslb.com/bfs/archive/8ee67b7293bc922895e3504af18a1f52b1e0c018.jpg)