本地或云端部署DeepSeek R1保姆级攻略
在人工智能快速发展的今天,DeepSeek-R1 作为一款极具潜力的开源AI大模型,正在受到越来越多人的关注,它不仅能够提供接近 ChatGPT 的使用体验,更令人惊喜的是其使用成本仅为 ChatGPT 的 1/20,这样显著的成本优势使得它成为了许多用户的首选。
然而,随着用户数量的快速增长,而且持续收到DDoS攻击,DeepSeek-R1 的在线服务近期经常出现响应缓慢、访问困难等问题,这些问题严重影响了用户的使用体验,因此,本地部署成为了解决这些问题的最佳选择,通过本地或云端部署,你不仅可以获得更稳定的服务体验,还能够完全掌控模型的使用环境。
详细的环境要求说明
在开始进行本地部署之前,我们首先需要确保你的设备配置满足运行 DeepSeek-R1 的基本要求,这些要求包括:
操作系统支持:DeepSeek-R1 展现出了极强的跨平台兼容性,无论你使用的是 Windows、MacOS 还是 Linux 系统,都可以顺利进行部署,这种广泛的系统兼容性使得用户可以在自己最熟悉的操作系统环境中使用 DeepSeek-R1。
GPU 配置要求:由于 DeepSeek-R1 提供了多种不同规模的模型版本,因此 GPU 的要求也会相应变化,具体取决于你选择部署的模型大小,一般来说,显存越大,可以运行的模型规模就越大,性能也就越好。
存储空间要求:考虑到模型文件的体积较大,建议预留充足的硬盘空间用于存储模型文件,这样可以确保部署过程顺利进行,而且还能为后续可能的模型更新预留空间。
怎么云端或者本地进行部署
在我们开始详细的部署教程之前,首先来聊一聊为什么要选择云端部署这个方案,因为本地部署虽然也是一个不错的选择,但是如果你的本地设备配置不够高,或者不想在本地设备上占用太多资源,那么云端部署就是一个非常好的选择,而且通过云端部署,你可以随时随地通过任何设备访问你的 DeepSeek-R1 模型,这样的灵活性是本地部署所无法比拟的。
我自己的电脑配置是完全不足够的,而且用的是4GB内存的显卡,本来也就是办公进行使用,所以运行这些AI工具是不要想的了,所以我这里就是选择使用云端进行部署,其实云端部署和本地部署都是一样的,如果你想看本地部署的话,那么直接进行这一环节,我这里是云端部署,所以要多一个流程就是购买云端服务器。
详细的 VPS 注册流程
首先你需要准备一个性能强劲的 VPS,这里我强烈推荐选择美国的 VPS 服务商,因为他们提供的服务质量和稳定性都是非常好的,而且价格也比较合理。
美国VPS地址:https://www.vultr.com/
打开 VPS 服务商的网站,你会看到注册和登录的选项,在这个页面上我们需要填写的信息并不多,主要就是你的邮箱地址和密码,但是要注意的是,这里的密码设置要求是比较严格的,必须要包含大写字母、小写字母,总长度至少要达到10个字符,建议大家设置一个足够复杂的密码以确保账号安全,然后点击右边的蓝色注册按钮就可以创建你的账户了。
创建好账户之后,系统会自动发送两封激活邮件到你注册时填写的邮箱地址,你需要及时查收邮件并完成激活流程。
激活完成后,我们就需要给账户充值一定的金额,具体操作是这样的:在左侧的账户管理栏中找到 Account 选项,然后点击 Make a Payment,你会看到包括支付宝在内的多种支付方式,我们选择 Alipay,建议首次充值的金额在10美元到50美元之间,当然如果你准备长期使用的话,可以考虑多充值一些,因为云服务器的配置还是比较昂贵的,充多一点可以让你更从容地使用这些服务。
在充值完成后,我们就可以开始选择并配置我们的云端服务器了。
首先在左边找到 products 按钮,然后在右上角选择 deploy 选项。
首先在choose type 选择 cloud GPU。
然后我们看下面,这里会提供包括 NVIDIA A40 和 A100 在内的多个选择,具体选择哪个主要取决于你的预算。
如果预算充足的话当然是选择性能最强大的 A100,但如果预算有限的话,A40 其实也是一个非常不错的选择。
在这里,我个人建议新用户可以先从较低配置开始尝试,比如说我选择的是一个配置为20GB内存、360GB存储空间的方案,每小时的费用大约是0.288美元,换算成人民币的话大概就是一小时一块钱左右,这个价格对于想要尝试和学习的用户来说还是非常合理的。
在选择完基础配置之后,我们还需要选择服务器的位置,我这里强烈建议选择美国的节点,因为美国节点通常都有比较充足的资源,而且网络连接也比较稳定,如果美国节点当前没有资源的话,我们也可以考虑其他地区的节点,其实这里的节点资源也不是很足,我们可能选择不到自己想要的节点,反正就多选择几个配置看哪个有美国节点。
系统方面,我个人推荐选择 Ubuntu 22.04 这个版本,因为这是目前最新的长期支持版本,稳定性和兼容性都非常好,而且社区支持也非常完善,在选择完系统后,建议关闭自动备份功能来节省一些费用。
远程连接的配置与使用
最后一步是配置远程连接,我们需要下载一个 SSH 客户端软件,比如说 PuTTY,这是一个非常流行的 SSH 客户端工具。
下载地址:putty
在完成 VPS 的创建之后,系统会提供给你服务器的 IP 地址和登录凭据,你需要把这些信息记录下来,然后在 SSH 客户端中输入这些信息就可以成功连接到你的 VPS 了。
我们点击 Product,然后找到你购买的 VPS,然后点击进去。找到IP Address、Username、Password。
我们打开PuTTY,然后输入你的ip地址,然后直接连接,然后输入你的Username,然后直接输入Password,这个Password是看不见的,输好了直接回车就行了。
连接成功后,就可以按照我的部署教程来进行 DeepSeek-R1 的安装和配置了,整个过程其实并不复杂,只要按照步骤来就可以顺利完成。
但是要注意合理规划使用时间,因为云服务器是按小时收费的,不使用的时候记得及时关机以节省费用;其次是要定期检查系统状态和费用情况,避免因为忘记关机而产生不必要的支出;最后,建议大家在使用过程中多做一些数据备份,这样可以避免因为意外情况导致数据丢失。
部署流程
第一步:安装 Ollama 环境
Ollama安装下载地址:https://ollama.com/download/linux
首先,我们需要访问 Ollama 的官方网站下载安装程序,网站会根据你的操作系统自动推荐合适的版本:
如果你使用的是 Windows 系统,直接下载 Windows 版本的安装包
对于 MacOS 用户,特别是使用 M 系列芯片的用户,可以选择专门优化的 MacOS 版本
Linux 用户则可以选择对应的 Linux 发行版安装包
下载完成后,按照安装向导的指引完成安装,安装完成后,我们需要运行一个简单的版本检查命令来确认安装是否成功,这个步骤可以帮助我们及时发现并解决潜在的安装问题。
第二步:模型下载和配置
DeepSeek-R1 提供了多个不同规模的版本,从轻量级的 1.5B 到强大的 70B 不等,具体选择哪个版本,主要取决于你的硬件配置:
DeepSeek-R1模型下载:https://ollama.com/library/deepseek-r1
配置选择比较低的话,那就选择比较低的,但是出来的效果不是很好,只能说部署一个 deepseek 去玩一下。
入门级配置(16GB显存):如果你的显卡显存在 16GB 左右,建议选择14B 版本,这些版本虽然模型规模相对较小,但已经能够提供不错的性能表现,非常适合初学者使用。
高端配置(16GB显存以上):如果你拥有高端显卡,那么可以选择 32B 或者 70B 版本,这些大规模模型能够提供最优秀的性能表现。
直接复制上面的代码进行运行就可以了。
常见问题的解决方案
在使用过程中,你可能会遇到一些常见的问题,这里提供一些解决方案:
如果模型加载特别慢,很可能是因为显存不足,建议检查是否有其他程序占用了大量显存。
当模型下载失败时,可以尝试切换到其他网络环境,有时候是网络连接不稳定导致的。
遇到运行报错的情况,首先要检查显卡驱动是否是最新版本,很多问题都可以通过更新驱动来解决。
写在最后
通过按照这个教程进行本地部署,你就可以拥有一个完全属于自己的 DeepSeek-R1 环境,不仅可以避免在线服务的各种问题,还能根据自己的需求选择最合适的模型版本。记住,选择合适的模型版本非常重要,它直接关系到你的使用体验,建议从较小的模型开始尝试,随着经验的积累再逐步尝试更大的模型版本。