架构师_程序员_码农网

 找回密码
 注册[Register]

QQ登录

只需一步,快速开始

搜索
查看: 364|回复: 0

【转】如何解决 Ollama 模型拉取问题

[复制链接]
发表于 2025-2-8 08:31:40 | 显示全部楼层 |阅读模式
在过去的几天里,我在尝试从Ollama中提取模型时遇到了这个烦人的问题:我正在运行命令,它正在下载大约 4-5% 的模型,然后连接被重置,客户端“崩溃”并且它总是从 0% 重新启动。ollama pull deepseek-r1:8b

看来我并不孤单:https://github.com/ollama/ollama/issues/8406

注意:我正在运行 Ollama 0.5.7,他们很可能会在接下来的版本中修复该问题。

解决方案

有人好心地发布了一个解决方法,即一个 bash 脚本,可以调用 Ollama 客户端并从中断的地方恢复下载(Ollama 客户端应该可以做到这一点,但它在崩溃时无法正确执行此操作)。

将此脚本保存在类似这样的文件中 ollama-pull.sh,并使用以下命令使其可执行 chmod +x ollama-pull.sh


直接下载脚本: ollama-pull.sh (1.42 KB, 下载次数: 0, 售价: 5 粒MB)

并按如下方式运行脚本:


(替换deepseek-r1:8b为name:tag您要拉的模型)

原文:https://www.andreagrandi.it/posts/how-to-workaround-ollama-pull-issues/




上一篇:【AI】(七)使用 llama.cpp 本地部署 DeepSeek-R1 模型
下一篇:Xshell PLUS 商业版软件购买教程
码农网,只发表在实践过程中,遇到的技术难题,不误导他人。
您需要登录后才可以回帖 登录 | 注册[Register]

本版积分规则

免责声明:
码农网所发布的一切软件、编程资料或者文章仅限用于学习和研究目的;不得将上述内容用于商业或者非法用途,否则,一切后果请用户自负。本站信息来自网络,版权争议与本站无关。您必须在下载后的24个小时之内,从您的电脑中彻底删除上述内容。如果您喜欢该程序,请支持正版软件,购买注册,得到更好的正版服务。如有侵权请邮件与我们联系处理。

Mail To:help@itsvse.com

QQ|手机版|小黑屋|架构师 ( 鲁ICP备14021824号-2 )|网站地图

GMT+8, 2025-4-20 09:08

Powered by Discuz! X3.4

Copyright © 2001-2021, Tencent Cloud.

快速回复 返回顶部 返回列表