全球主机交流论坛备用站

 找回密码
 立即注册

QQ登录

只需一步,快速开始

全球云38元起免备案V2EX搬瓦工VPS
SEO查询超级PING网站测速
Virmach特价鸡乌云漏洞吾爱破解
查看: 21|回复: 0

李彦宏:DeepSeek不是万能的 存在幻觉多、速度慢等痛点

[复制链接]

131

主题

101

回帖

715

积分

高级会员

Rank: 4

积分
715
发表于 2025-4-25 21:30:19 | 显示全部楼层 |阅读模式
20230417
当然DeepSeek也不是万能的,比如它只能处理文本,还不能理解和生成图片、音频、视频等多媒体内容,而我们的很多百度智能云客户,都需要这种多模理解和生成能力。

比如它幻觉率比较高,在很多场合不能放心使用,如果在电商直播中幻觉出来一个买一送一的优惠,那商家就要赔惨了。

当然它更大的问题是慢和贵,中国市场上绝大多数的大模型API调用价格都比DeepSeek满血版要低,速度要更快,而今天我们要隆重发布的文心大模型的4.5 Turbo和X1 Turbo就是要解决这些问题的。

今天,我们正式发布文心大模型4.5 Turbo和文心大模型X1 Turbo,主打三大特性:多模态、强推理、低成本。

多模态是未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大。

文心大模型4.5 Turbo每百万token 输入价格仅为0.8元,输出价格3.2元,相比文心4.5,速度更快,价格下降80%;文心大模型X1 Turbo每百万token输入价格1元,输出价格4元,相比文心X1,性能提升的同时,价格再降50%。

为什么我们要不断把大模型的成本降下来?因为开发者做AI应用的一个很大阻碍就是成本高,用不起。而创新的本质往往就是成本下降。

成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。
MJJ,你的签名掉了~~~
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

展开

QQ|Archiver|手机版|小黑屋|全球主机交流论坛备用站

GMT+8, 2025-5-3 09:48 , Processed in 0.044213 second(s), 26 queries , Gzip On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表