来源:互联网 更新时间:2025-04-28 16:23
前言
对于本地pc部署deepseek,可能会受到电脑的内存、cpu、显卡的限制,如果想要扩容的话,只能更换硬件,这样的话成本简直高得离谱。而php中文网高性能应用服务hai恰恰解决了这个问题。hai提供了不同的算力套餐,用户可以根据自己的需求购买,并且可以通过hai预置的多种 ai 环境帮助用户快速部署。
所以本篇文章主要探究如何使用HAI,一键轻松完成DeepSeek的部署。
HAI点击立即使用进入HAI的控制台,在控制台页面点击新建。
点击新建之后进入HAI服务创建页面。
从AI模型页面可以看到,除了有我们熟悉的Stable Diffusion AI绘画模型,还有Ollama。按照我们本地部署的思维和步骤来说,在上面步骤中选择安装Ollama,然后再用Ollama拉取DeepSeek大模型完成部署。
但是偶尔受到带宽或者网络因素影响,ollama下载DeepSeek大模型时,会让用户时间等待,所以HAI提供了更为高效的方式。
2. 选择应用 - DeepSeek我们在社区应用下可以找到 DeepSeek-R1 进行选择。这里HAI提供了DeepSeek-R1 1.5B及7B两种模型环境,能够满足用户快速部署和使用的需求。
然后就是选择计费方式,这里我们就可以根据自己的需求选择计费模式。对于个人来说,可能不需要HAI 24H在线提供服务,因为HAI在关机的时候不会计费,所以按量计费比较合适。
在地域选择方面,有些区域支持学术加速能力。至于算力方案的选择上,对于DeepSeek-R1 1.5B和7B的模型,使用GPU基础型套餐就可以运行。如果想要DeepSeek实现更快的推理回答,就可以选择GPUT进阶型方案。
4. 安装在经过上面简单的操作步骤之后,填写好我们实例名称、勾选协议,点击立即购买,就完成了在HAI上安装DeepSeek的整个过程。
在点击购买之后,就会跳转到算力管理页面,就可以看到DeepSeek的HAI实例正在创建中。
创建完成之后,就可以看到HAI的实例,这时候我们点击算力连接。
选择 ChatbotUI,就会自动跳转ChatBot页面使用DeepSeek。
可以看到访问chatbot,使用的是HAI实例的公网IP和6889端口。
2. 模型选择在上面选择社区应用的时候,我们就知道应用环境内置了DeepSeek-R1 1.5B和7B两个模型。
我们可以切换模型。
这样,我们就可以使用DeepSeek了。
如果DeepSeek-R1 1.5B和7B无法满足你的需求,想要安装8B、14B的模型,我们可以通过JupterLab 连接实例,进行后台安装。
选择Terminal。
通过 ollama list 命令可以看到环境中预置的两个DeepSeek模型。
我们通过使用以下命令就可以安装8b模型。
代码语言:bash复制ollama run deepseek-r1:8b登录后复制
14b及其他模型同理。
与TIONE安装DeepSeek相比较,HAI也具备了快速部署DeepSeek的能力。通过一键式操作,用户就可以使用云化的DeepSeek。
海棠废文网2025入口 海棠书屋(废文网)在线观看
谢霆锋闷声发大财,在抖音卖烤肠4年狂赚15亿
高通小至尊版芯片!REDMI首发骁龙8s Gen4
欧易官网及App最新入口2025
猜一猜:我国江南地区最大的石窟造像群是
俄罗斯引擎中文入口在哪-yandex俄罗斯引擎中文入口介绍
BNB破纪录!下一个爆发的平台币是OKB?
SOUL币上线交易所及获取方法
瑞波币获取攻略:多种方法轻松入手
Coinbase平台详解:优缺点全分析
比特币历史最高价达69,044美元
Token与区块链:数字资产核心关系揭秘
PancakeSwap:多链AMM交易所详解
币圈低买高卖九大秘籍:从技术到量化
XAUT币详解:黄金稳定币对金价的影响
PEO币前景分析:未来价格或达0.1-1美元
币安官网登录指南:安全入口及步骤
加密货币交易心理:为何心态至关重要?
Bitfinex交易平台:正规可靠,功能强大
柴犬币详解:前景、价值与投资建议
手机号码测吉凶
本站所有软件,都由网友上传,如有侵犯你的版权,请发邮件haolingcc@hotmail.com 联系删除。 版权所有 Copyright@2012-2013 haoling.cc