龙虾怎么配本地模型跑
14600KF 4060Ti16G 48GDDR5够用不 应该可以吧。 那玩意 我看了下没装。 自己搭了个 本地模型。 纯CPU 是真不行。 80核 128G 的 一个会话 CPU 就50% 了。 内存占用倒是不高. 这玩意还是得 显卡跑。<br /><br />
这个同事在用。据说成本还是很高的。 token消耗巨大。 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666259&ptid=1465051" target="_blank"><font color="#999999">职业菜鸟 发表于 2026-3-10 10:39</font></a></font><br />
应该可以吧。 那玩意 我看了下没装。 自己搭了个 本地模型。 纯CPU 是真不行。 80核 128G 的 一个会话 CP ...</blockquote></div><br />
据说一个月要烧1-2K,所以看看本地模型是否靠谱,也不干什么特别重要的东西么。 内存,存贮,显卡都有一定的要求 烧的很,钱多可以玩。。昨天1000W TOKEN 1小时就给我干完了,。。。一个复杂点的问答直接50Wtoken,如果带点图片啥的,,,那更多了,如果有免费的API还是挺爽的,完全AI去执行处理任务。但数据肯定会泄漏,那么多代码,谁知道呢。。 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666271&ptid=1465051" target="_blank"><font color="#999999">芭啦啦能量 发表于 2026-3-10 10:51</font></a></font><br />
烧的很,钱多可以玩。。昨天1000W TOKEN 1小时就给我干完了,。。。一个复杂点的问答直接50Wtoken,如果带 ...</blockquote></div><br />
所以看看能不能搞个本地的玩一下,纯API业余选手烧不起啊 怪不得要推广,原来token这么好赚钱 自己搭了 qianwen 3.5b的,可以给龙虾用,具体你直接问AI吧 我本地做图片反推提示词的用着一个qianwen3.1 16B的 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666274&ptid=1465051" target="_blank"><font color="#999999">youshao 发表于 2026-3-10 10:53</font></a></font><br />
所以看看能不能搞个本地的玩一下,纯API业余选手烧不起啊</blockquote></div><br />
肯定可以,你有卡吗,顶级卡才行,垃圾显卡就算了把。。买个minimax coding plan 最便宜的套餐,一个月不到30块<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" />
