新闻
kimi开放平台contextcaching功能将启动内测
来源:     阅读:342
网站管理员
发布于 2024-06-20 15:00
查看主页

6月19日消息,月之暗面官宣Kimi开放平台ContextCaching功能将启动内测,届时将支持长文本大模型,可实现上下文缓存功能。

▲图源Kimi开放平台官方公众号,下同

据介绍,ContextCaching(上下文缓存)是由Kimi开放平台提供的一项高级功能,可通过缓存重复的Tokens内容,降低用户在请求相同内容时的成本,原理如下:

官方表示,ContextCaching 可提升API的接口响应速度(或首字返回速度)。在规模化、重复度高的prompt场景,ContextCaching功能带来的收益越大。

ContextCaching适合于用频繁请求,重复引用大量初始上下文的情况,通过重用已缓存的内容,可提高效率降低费用,适用业务场景如下:

提供大量预设内容的QABot,例如KimiAPI小助手。

针对固定的文档集合的频繁查询,例如上市公司信息披露问答工具。

对静态代码库或知识库的周期性分析,例如各类CopilotAgent。

瞬时流量巨大的爆款AI应用,例如哄哄模拟器,LLMRiddles。

交互规则复杂的Agent类应用,例如什么值得买Kimi+等。

官方后续将发布ContextCaching功能的场景最佳实践/计费方案/技术文档

免责声明:本文为用户发表,不代表网站立场,仅供参考,不构成引导等用途。 新闻
华为首款高性能游戏本亮相cj,游戏画面流畅度不错
看钢构产线“一键生成”
郭明錤调查指出苹果已取消microled开发计划
杭州未来科技城:以“新”促兴  向“质”而行
我国高校研制出可体内 降解的新型压电材料

首页

分类

定制方案

消息

我的