事件
3月18日,月之暗面宣布在大模型长上下文窗口技术上再次取得突破。不到半年时间,Kimi智能助手无损上下文长度从20万汉字提升了一个数量级至200万汉字。
核心观点
目前国外头部大模型中,GPT-4 Turbo上下文窗口为12.8万tokens;Gemini 1.5和Claude 3支持100万tokens上下文。1个汉字通常相当于1~2个token,也就是说Kimi上下文窗口为Gemini 1.5和Claude 3的两倍以上。现在的Kimi可以通过学习用户输入的大量资料,短时间内成为某个领域初级专家;或者作为一种效率工具,帮用户从大量冗杂数据中提取关键信息。未来,具备无损超长上下文能力的Kimi有望解锁更多AI应用场景。
终端是让产品与用户建立联系、深化互动的桥梁,而轻量化程序具备“即用即走、无需安装卸载、永远最新”的特征,是触达客户和有效途径,也是产品增加曝光度和口碑传播的有力工具。Kimi不仅有网站和手机App,还能通过微信小程序形式接入,使得端侧用户体验大幅提升。
大模型本地化运行时,推理计算更多依赖终端设备的芯片,即计算成本转移到了端侧,总推理成本会大幅降低;再叠加本地部署大模型具有的保护隐私、快速响应、个性化服务等优势,将推动大模型相关应用的开发和规模化。
尽管硬件升级很重要,但软件的进步,例如大模型赋能手机智能助手、新型AI应用涌现等,在终端智能化变革道路上显得尤为明显和必不可少。
高在垂直领域深耕多年的公司往往积累了丰富的行业经验以及数据、场景、客户等资源,能够开发出更贴合实际业务需求的大模型产品。
风险提示
AI技术突破不及预期、终端智能需求不及预期、宏观经济增长不及预期、国际环境变化。
本文作者:郑宏达(SAC执证编号:S0850516050002),来源:宏达说(ID:gh_ac6fdda7ac99),原文标题:《西部郑宏达 | 当我们在谈论Kimi的时候,我们在谈什么?》