youshao 发表于 3 天前

龙虾怎么配本地模型跑

14600KF    4060Ti16G   48GDDR5够用不

职业菜鸟 发表于 3 天前

应该可以吧。 那玩意 我看了下没装。&nbsp;&nbsp;自己搭了个 本地模型。 纯CPU 是真不行。 80核 128G 的&nbsp;&nbsp;一个会话 CPU 就50% 了。 内存占用倒是不高. 这玩意还是得&nbsp;&nbsp;显卡跑。<br />
<br />
这个同事在用。据说成本还是很高的。 token消耗巨大。

youshao 发表于 3 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666259&ptid=1465051" target="_blank"><font color="#999999">职业菜鸟 发表于 2026-3-10 10:39</font></a></font><br />
应该可以吧。 那玩意 我看了下没装。&nbsp;&nbsp;自己搭了个 本地模型。 纯CPU 是真不行。 80核 128G 的&nbsp;&nbsp;一个会话 CP ...</blockquote></div><br />
据说一个月要烧1-2K,所以看看本地模型是否靠谱,也不干什么特别重要的东西么。

Musk 发表于 3 天前

内存,存贮,显卡都有一定的要求

芭啦啦能量 发表于 3 天前

烧的很,钱多可以玩。。昨天1000W TOKEN 1小时就给我干完了,。。。一个复杂点的问答直接50Wtoken,如果带点图片啥的,,,那更多了,如果有免费的API还是挺爽的,完全AI去执行处理任务。但数据肯定会泄漏,那么多代码,谁知道呢。。

youshao 发表于 3 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666271&ptid=1465051" target="_blank"><font color="#999999">芭啦啦能量 发表于 2026-3-10 10:51</font></a></font><br />
烧的很,钱多可以玩。。昨天1000W TOKEN 1小时就给我干完了,。。。一个复杂点的问答直接50Wtoken,如果带 ...</blockquote></div><br />
所以看看能不能搞个本地的玩一下,纯API业余选手烧不起啊

HOH 发表于 3 天前

怪不得要推广,原来token这么好赚钱

fuckjp 发表于 3 天前

自己搭了 qianwen 3.5b的,可以给龙虾用,具体你直接问AI吧

youshao 发表于 3 天前

我本地做图片反推提示词的用着一个qianwen3.1 16B的

芭啦啦能量kiwix 发表于 3 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666274&ptid=1465051" target="_blank"><font color="#999999">youshao 发表于 2026-3-10 10:53</font></a></font><br />
所以看看能不能搞个本地的玩一下,纯API业余选手烧不起啊</blockquote></div><br />
肯定可以,你有卡吗,顶级卡才行,垃圾显卡就算了把。。买个minimax coding plan 最便宜的套餐,一个月不到30块<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" />
页: [1] 2 3
查看完整版本: 龙虾怎么配本地模型跑