floe 发表于 3 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666266&ptid=1465051" target="_blank"><font color="#999999">Musk 发表于 2026-3-10 10:46</font></a></font><br />
内存,存贮,显卡都有一定的要求</blockquote></div><br />
32g + 4060能跑起来不

职业菜鸟 发表于 3 天前

<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16666264&ptid=1465051" target="_blank"><font color="#999999">youshao 发表于 2026-3-10 10:45</font></a></font><br />
据说一个月要烧1-2K,所以看看本地模型是否靠谱,也不干什么特别重要的东西么。 ...</blockquote></div><br />
昨天还在群里问同事了。&nbsp;&nbsp;他说一次 0.25刀。 我是玩不起。

MukaichiMion 发表于 3 天前

装一个ollama 本地跑模型一般都用这个 接入openclaw官方文档很完善 16G显存可以跑Qwen3.5 9B 上月刚发布的目前最强的小模型

rqp 发表于 3 天前

<img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" />

louiejordan 发表于 3 天前

<font size="3">你这个本地配置连给龙虾提鞋都不配</font><img src="https://hostloc.com/static/image/smiley/yct/008.gif" smilieid="39" border="0" alt="" />

520520 发表于 3 天前

<img src="https://hostloc.com/static/image/smiley/default/shocked.gif" smilieid="6" border="0" alt="" />这么烧钱

mfch666 发表于 3 天前

智能诈骗

guyuefeng 发表于 3 天前

ollama 不过龙虾上下文需要64k,需要占用好几G的现存,所以能跑的模型就很小

schemegengen 发表于 3 天前

个人认为龙虾还得再进化下,否则token一般人玩不起,目前可以白票gpt给龙虾用。 自己搭建也挺耗电,玩玩可以。另外有错删文件,清空磁盘的风险,mjj需要注意我3090显卡 双e52666洋垃圾 128g内存 ollama搭建了qwen3.5 27b,小龙虾本地用,回答一个“介绍一下你自己”,用了大概6分多钟。

williamc2 发表于 3 天前

烧钱
页: 1 [2] 3
查看完整版本: 龙虾怎么配本地模型跑