转来转去还是mac香
内存可以当显存用,部署deepseek毫无压力<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" /> 别的行业不知道,反正对于程序员来说deepseek就只是个玩具,辅助编程还得是gpt 老板用的多大的模型 不能全都要吗? <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16223998&ptid=1387764" target="_blank"><font color="#999999">coco99 发表于 2025-2-8 19:34</font></a></font><br />老板用的多大的模型</blockquote></div><br />
8b <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16224002&ptid=1387764" target="_blank"><font color="#999999">杨超越YCY 发表于 2025-2-8 19:39</font></a></font><br />
不能全都要吗?</blockquote></div><br />
没精力了<img src="https://hostloc.com/static/image/smiley/default/lol.gif" smilieid="12" border="0" alt="" /> <font size="3">个人部署Deepseek没意义</font> <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16224004&ptid=1387764" target="_blank"><font color="#999999">个人支付宝接口 发表于 2025-2-8 19:39</font></a></font><br />
别的行业不知道,反正对于程序员来说deepseek就只是个玩具,辅助编程还得是gpt ...</blockquote></div><br />
玩具玩玩,生产力还是得openai 64g的m1max,70b的模型 <div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16224011&ptid=1387764" target="_blank"><font color="#999999">pnsroc 发表于 2025-2-8 19:44</font></a></font><br />
64g的m1max,70b的模型</blockquote></div><br />
换m4<div class="quote"><blockquote><font size="2"><a href="https://hostloc.com/forum.php?mod=redirect&goto=findpost&pid=16224005&ptid=1387764" target="_blank"><font color="#999999">Bedrocker 发表于 2025-2-8 19:40</font></a></font><br />
8b</blockquote></div><br />
目前试过14B的,有点弱智了.
页:
[1]
2