6 月 19 日消息,月之暗面官宣 Kimi 開放平臺 Context Caching 功能將啟動內測,屆時將支持長文本大模型,可實現上下文緩存功能。
據介紹,Context Caching(上下文緩存)是由 Kimi 開放平臺提供的一項高級功能,可通過緩存重復的 Tokens 內容,降低用戶在請求相同內容時的成本,原理如下:
官方表示,Context Caching 可提升 API 的接口響應速度(或首字返回速度)。在規模化、重復度高的 prompt 場景,Context Caching 功能帶來的收益越大。
Context Caching 適合于用頻繁請求,重復引用大量初始上下文的情況,通過重用已緩存的內容,可提高效率降低費用,適用業務場景如下:
提供大量預設內容的 QA Bot,例如 Kimi API 小助手。
針對固定的文檔集合的頻繁查詢,例如上市公司信息披露問答工具。
對靜態代碼庫或知識庫的周期性分析,例如各類 Copilot Agent。
瞬時流量巨大的爆款 AI 應用,例如哄哄模擬器,LLM Riddles。
交互規則復雜的 Agent 類應用,例如什么值得買 Kimi+ 等。
官方后續將發布 Context Caching 功能的場景最佳實踐 / 計費方案 / 技術文檔。
本站內容除特別聲明的原創文章之外,轉載內容只為傳遞更多信息,并不代表本網站贊同其觀點。轉載的所有的文章、圖片、音/視頻文件等資料的版權歸版權所有權人所有。本站采用的非本站原創文章及圖片等內容無法一一聯系確認版權者。如涉及作品內容、版權和其它問題,請及時通過電子郵件或電話通知我們,以便迅速采取適當措施,避免給雙方造成不必要的經濟損失。聯系電話:010-82306118;郵箱:aet@chinaaet.com。